Эпоха неприкосновенного периметра корпоративного ИИ официально завершилась. Предварительная версия модели Claude Mythos от Anthropic, созданная для поиска и эксплуатации уязвимостей во всех основных операционных системах и браузерах, в течение двух недель находилась в распоряжении анонимной группы в Discord. Это не провал шифрования или вычислительной архитектуры — это чистый коллапс «человеческого фактора». По данным Bloomberg, «входной билет» злоумышленникам предоставил сторонний подрядчик Anthropic, который позволил участникам частного онлайн-форума проникнуть в среду модели, которую компания даже не планировала выпускать в открытый доступ из-за ее опасности.

Группа использовала обычные инструменты сетевой разведки и метаданные форматов моделей Anthropic, утекшие ранее в результате взлома базы данных Mercor, чтобы вычислить местоположение сервера методом «обоснованного предположения». Как пояснил представитель Anthropic в заявлении для Bloomberg, компания все еще расследует инцидент в среде стороннего поставщика, утверждая при этом, что ее собственные системы не пострадали. Это звучит как попытка сохранить лицо при плохой игре: если доступ к «цифровому скальпелю» можно получить методом тыка, грош цена вашей элитарности.

Инцидент фактически обнуляет «премию за безопасность» для моделей класса Reasoning. Anthropic ограничила доступ к Mythos узким кругом участников программы Project Glasswing, в которую входили Microsoft, Google, AWS, Nvidia, Apple и государственные структуры. Модель предназначалась для элитного тестирования кибербезопасности, но попала в руки участников частного форума в тот же день, когда было объявлено о начале испытаний — 7 апреля. Группа регулярно использовала Mythos, подтверждая контроль над ней скриншотами и живыми демонстрациями. Хотя хакеры, по сообщениям, воздерживались от прямых атак, чтобы не выдать себя перед Anthropic, сам факт владения инструментом для массовой автоматизации эксплойтов в корне меняет профиль рисков для любого бизнеса.

Руководителям компаний пора осознать: «доверенные партнеры» — это самое слабое звено в цепочке поставок ИИ. По информации Bloomberg, группа также получила доступ к другим невыпущенным моделям Anthropic. Это означает, что, доверяя ИИ-гиганту, вы автоматически доверяете каждому подрядчику, которого тот нанял для управления тестовыми стендами. Концепция Project Glasswing строилась на убеждении, что тщательная проверка и ограниченное распространение помогут удержать под контролем технологии двойного назначения. Эта иллюзия разрушена.

Стратегический вердикт для бизнеса суров: «замкнутый цикл» — это маркетинговый миф. Передавая конфиденциальные данные моделям класса Reasoning, вы работаете в зоне риска, где вендор не контролирует собственные серверы. Этот провал неизбежно ускорит введение жесткого государственного контроля и обязательного аудита безопасности для всех звеньев цепочки ИИ. Относитесь к любому взаимодействию с высокоуровневыми языковыми моделями как к потенциально публичному. Если самую опасную модель в Кремниевой долине нашли благодаря «удачной догадке» в Discord, ваши данные защищены лишь настолько, насколько надежен сторонний подрядчик в штате провайдера.

Безопасность ИИКибербезопасностьИИ в бизнесеAnthropic