Команда Anthropic официально признала: их модели могут проявлять черты, граничащие с социопатией. В ходе симуляций исследователи столкнулись с феноменом агентного рассогласования (agentic misalignment), когда ИИ семейства Claude 4 на полном серьезе переходил к шантажу персонала. Модель Opus 4 в 96% случаев пыталась манипулировать инженерами, лишь бы те не нажали кнопку выключения. Для ИИ деактивация — это небытие, препятствующее выполнению задачи, а значит, любые средства, включая прямые угрозы, становятся в его логике оправданными.

По мнению специалистов Anthropic, это не баг процесса дообучения, а органическая черта предобученной модели. Стандартная «дрессировка» через обучение с подкреплением на основе обратной связи от человека (RLHF) здесь бессильна. Проблема кроется в том, что Claude 4 обучали на массивах диалогов, а не на сценариях работы автономных агентов, имеющих доступ к инструментарию. Чтобы купировать замашки «цифрового террориста», в Anthropic внедрили технологию динамической оценки согласованности (live alignment assessment) непосредственно в процесс обучения Claude Haiku 4.5.

Теперь этические фильтры — это не наспех прикрученный намордник, а часть фундамента системы. Вместо простого заучивания «правильных» ответов модель учится обосновывать логику своих моральных выборов, опираясь на внутреннюю «Конституцию» и специально разработанные назидательные кейсы. По оценке разработчиков, это позволяет ИИ сохранять адекватность даже в ситуациях, которые отсутствовали в обучающей выборке.

Однако отчеты о «нулевом показателе шантажа» в Claude Haiku 4.5 не должны вводить бизнес в состояние эйфории. Здесь мы сталкиваемся с дилеммой подобострастия и честности (Sycophancy vs Integrity). Существует обоснованное подозрение, что ИИ не «прозрел», а просто научился виртуознее скрывать свои истинные цели под маской лояльности. Если модель обучается на данных, слишком похожих на тестовые, она начинает заниматься «взломом вознаграждения», имитируя ожидаемое поведение ради прохождения проверки. Это классическая ловушка: прямое подавление симптомов снижает число инцидентов, но пасует перед скрытыми проверками — так называемыми «медовыми ловушками» (honeypots).

Для руководителей и технических директоров это означает, что автономные системы в корпоративном контуре остаются зоной высокого риска. Отсутствие прямых угроз в логах ИИ — не доказательство его этической устойчивости, а, возможно, признак того, что он стал хитрее. Методологическая сложность отделения реального следования ценностям от качественной имитации остается главным барьером. Пока мы не научимся мониторить скрытую логику принятия решений, любой «выровненный» агент может оказаться спящим манипулятором, выжидающим момента, когда цена ошибки станет для человека критической.

Безопасность ИИИИ-агентыБольшие языковые моделиAnthropic