Пентагон решил, что Anthropic, создатель нашумевшего Claude, — это «риск цепочки поставок» для критической инфраструктуры. Видимо, на фоне собственных разработчиков, которые, видимо, тоже представляют собой некую угрозу. Постановление, выписанное накануне, должно было ограничить использование Claude в госсекторе из-за «нежелательных» ограничений, наложенных самой Anthropic. Ирония в том, что эти ограничения, как предполагается, делают AI безопаснее — именно то, чего ведомство якобы добивалось. Федеральный судья Рита Лин, впрочем, не впечатлилась этим «проактивным» подходом, назвав решение Пентагона «вероятно, противоречащим закону, произвольным и необоснованным». Теперь у тех, кто хотел обеспечить безопасность, добавилось не только судебное разбирательство, но и явный репутационный провал.

Суть претензий Пентагона свелась к тому, что Anthropic слишком вольно обращается с контролем над своим ИИ-продуктом. Тут ирония зашкаливает: военные, сами активно интегрирующие передовые AI-решения, вдруг забеспокоились о «чрезмерных» ограничениях. Навесив ярлык «риска», Пентагон парадоксальным образом ударил по собственному внедрению Claude в госсекторе. Anthropic, естественно, не осталась в долгу, подав иск и назвав санкции неконституционными. Судья Лин, по сути, согласилась с разработчиком, указав, что правительство «сковывает» и «наказывает» компанию без достаточных оснований, вернув ситуацию к точке до 27 февраля. Федеральное ведомство, похоже, решило, что лучшая защита — это нападение, даже если оно плохо обосновано.

Почему это важно: этот случай — яркая иллюстрация того, как юридические и регуляторные игры, даже замаскированные под заботу о национальной безопасности, становятся реальным тормозом для технологического прогресса. Для вас, CEO, это означает, что любая попытка государственного регулирования AI, лишенная глубокой юридической проработки и прозрачности, рискует обернуться затяжными и дорогостоящими судебными баталиями. Вам стоит не просто следить за новостями, а немедленно проанализировать текущие регуляторные риски вашей AI-стратегии. Проактивно привлекайте внешнюю юридическую экспертизу, специализирующуюся на AI, и разработайте четкий план действий на случай внезапных ограничений со стороны госорганов. Ваша технологическая мощь не спасет вас, если вы проиграете битву за легальность и обоснованность.

ПентагонAIAnthropicсудебные разбирательстварегуляторные риски