Anthropic, один из претендентов на трон в мире больших языковых моделей, продолжает радовать нас новостями. На этот раз в сеть вывалился исходный код их инструмента для разработчиков Claude Code — это более 500 000 строк и тысяча файлов, заботливо размещенных на NPM, популярнейшем репозитории JavaScript-пакетов. Официальная версия от самого Anthropic: сотрудники при упаковке Claude Code для NPM, видите ли, «случайно» прихватили с собой куда больше внутренних файлов, чем планировалось. Результат — детали внутренней архитектуры, упоминания о грядущих моделях и функциях, которые еще даже не успели анонсировать. Признаться, звучит как продуманная стратегия, но пока спишем на «особенности национальной разработки».

В Anthropic, конечно, бодро рапортуют о «человеческой ошибке», уверяя, что никаких системных дыр нет, а клиентские данные в безопасности. Обещают усилить меры, чтобы подобное не повторилось. Только вот, как говорится, что-то пошло не так. Это уже второй подобный прокол за какой-то короткий срок. Не так давно в сеть утекали внутренние материалы по еще невыпущенной модели AI Mythos. Два таких «случайных» события подряд заставляют усомниться в чистоте эксперимента и намекают на возможные системные проблемы в процессах безопасности. Интересно, сколько еще секретов Anthropic готовит нам в качестве «случайных» подарков? Ведь компания претендует на лидерство, а лидеры, как известно, должны держать руки на пульсе, а не на кнопке «опубликовать всё».

Для бизнеса такая утечка — это не просто головная боль для поставщиков AI-решений. Во-первых, это шикарная возможность для конкурентного анализа: теперь можно детально изучить технологии и стратегии развития конкурентов, возможно, даже узнать, что они планируют выпустить раньше, чем сами разработчики. Во-вторых, это очередной тревожный звонок: пора бы уже всерьез задуматься о том, как тщательно вы оцениваете риски при интеграции сторонних AI-инструментов. Ведь если сам Anthropic так легко роняет код, что уж говорить о менее именитых игроках, чьи процессы безопасности, вероятно, не столь тщательно «обеззаражены».

Утечка исходного кода Claude Code — это не мелочь, а показательный симптом состояния процессов безопасности у лидеров AI-индустрии. Даже такие гиганты, как Anthropic, демонстрируют удивительную уязвимость в контроле над собственными данными. Это ставит под сомнение надежность некоторых поставщиков и требует более глубокой проверки при выборе AI-решений. Для вас это означает не только потенциальные риски для вашей интеллектуальной собственности, но и шанс подсмотреть, как развиваются конкуренты, и, возможно, пересмотреть свои подходы к интеграции сторонних AI-сервисов.

Искусственный интеллектБольшие языковые моделиИИ-инструментыБезопасность ИИAnthropic