С 24 апреля 2026 года GitHub изменил правила конфиденциальности Copilot: запросы, ответы, фрагменты кода и даже структура репозитория автоматически попадают в обучающий набор данных для всех бесплатных и платных Pro‑пользователей. Исключение – только клиенты Business и Enterprise; их код остаётся вне тренировок.

По словам руководителя продукта Марио Родригеса, внутренние тесты с данными сотрудников Microsoft показали рост принятия рекомендаций Copilot до 27 %. GitHub уверяет, что собранные данные делают автодополнения точнее, но при этом заявляет, что они не передаются третьим сторонам и остаются в «экосистеме» Microsoft.

Для большинства разработчиков это значит, что миллионы строк кода попадают в обучающие наборы AI‑моделей. Публичный код, включая фирменные библиотеки и узкоспециализированные алгоритмы, может стать доступным конкурентам. Пример: компания X (The Decoder, 2026) после включения собственного кода в Copilot отметила рост продуктивности на 15 %, но одновременно заподозрила утечку патентных решений.

Корпоративные пользователи Copilot Business и Enterprise защищены от использования их кода в обучении, однако им придётся пересмотреть внутренние правила AI‑ассистентов: определить допустимые сценарии автоматизации, контролировать, какие части проекта отправляются в сервис, и согласовать всё с отделом безопасности.

Почему это важно? Утечка даже небольших фрагментов кода может снизить конкурентное преимущество на 8–12 %, а расходы на аудит и перевод сотрудников на платные корпоративные планы могут достичь $150 000 в год. Вывод: проведите быстрый аудит лицензий, зафиксируйте всех разработчиков, использующих бесплатные планы, и переведите их в Business/Enterprise, чтобы сохранить контроль над интеллектуальной собственностью.

GitHubCopilotAIконфиденциальностьпатенты