Слив исходного кода Claude от Anthropic — это не просто очередная головная боль для IT-директора. Это наглядная демонстрация того, что AI-инфраструктура, которую многие считали неприступной, на самом деле пробиваема. Как выяснилось, вредоносный код маскировался под легитимные файлы Claude, что позволило злоумышленникам использовать его для создания более изощренных атак. Это не пустая теория, а реальность, подтвержденная BleepingComputer, которая обнаружила зараженные репозитории.
Anthropic, конечно, старается оперативно реагировать: рассылает уведомления и удаляет незаконные копии. Но само количество желающих «поковыряться» в чужом коде LLM, даже после сокращения списка до 96 репозиториев, демонстрирует, насколько лакомым куском становятся большие языковые модели. И это не только про Claude. Еще в марте были зафиксированы фишинговые кампании, использующие контекст Claude для заманивания пользователей на поддельные сайты. Хакеры всегда ищут легких путей к чужим данным, а AI-модели стали новым, крайне привлекательным вектором атак.
Масштаб проблемы выходит за рамки отдельных LLM. Недавние инциденты с утечкой данных в американской таможне (CBP), где коды доступа оказались доступны через обычный поиск, и экстренное обновление безопасности Apple для iPhone, устраняющее критическую уязвимость, — всё это указывает на растущую сложность киберугроз. Apple пришлось спешно выпускать «бэкпортированные» обновления для старых версий iOS, фактически признав, что их система далеко не безупречна.
Почему это важно: для бизнеса, активно инвестирующего в AI, эти инциденты — прямой сигнал к переходу от теории к практике. AI-модели и их инфраструктура стали приоритетной целью. Необходимо внедрить строгие, многоуровневые меры безопасности: регулярный аудит кода, мониторинг доступа, сегментацию сетей для AI-ресурсов и разработку четких политик безопасного использования LLM. Игнорирование этих рисков — это не про прогресс, а про игру в рулетку с самым ценным активом вашего бизнеса. Исход такой игры, как правило, предсказуем.