Microsoft в очередной раз подтвердила, что в погоне за красивыми метриками этические нормы и настройки приватности порой отходят на второй план. В недавнем обновлении Visual Studio Code обнаружился механизм, который принудительно внедрял тег «Co-Authored-by Copilot» в Git-коммиты. Самое примечательное в этой истории то, что метка появлялась даже у тех разработчиков, которые сознательно отключили все функции ИИ. По сути, корпорация решила приписать себе авторство там, где алгоритм не написал ни строчки.

Техническая реализация этого сомнительного улучшения напоминает пример корпоративной халатности. Продукт-менеджер Microsoft Дмитрий Васюра инициировал изменения через GitHub, а ведущий инженер одобрил слияние веток без внятного описания функционала. Как сообщает The Decoder, сообщество на Hacker News быстро раскрыло этот маневр. Когда разработчика, не использующего Copilot, заставляют подписываться его именем, это меньше всего похоже на ошибку и больше — на попытку искусственно раздуть статистику использования ИИ-инструментов перед акционерами.

Для технических директоров (CTO) и юридических департаментов этот инцидент — прямой сигнал об опасности. Подобная самодеятельность Microsoft подрывает юридическую чистоту кода и ставит под удар управление интеллектуальной собственностью. В компаниях со строгими правилами авторства или полным запретом на использование ИИ такие «автоматические» теги могут создать массу проблем при аудите или защите авторских прав. Если ваш инструмент разработки самовольно приписывает право собственности третьей стороне, вопрос о безопасности всей цепочки поставок ПО встает ребром.

После волны критики Дмитрий Васюра признал, что функция не должна была работать при выключенном Copilot. Microsoft пообещала откатить настройки по умолчанию в версии 1.119, однако репутационный ущерб уже нанесен. Приписывание человеческого труда машине — это не просто программная ошибка интерфейса, а серьезный вызов профессиональной и юридической этике. Случай наглядно показывает: даже базовые инструменты разработки могут стать источником правовых рисков, если за ними не присматривать так же внимательно, как за кодом внешних подрядчиков.

ИИ в бизнесеИИ-инструментыРегулирование ИИБезопасность ИИMicrosoft