Американское правительство окончательно закрепило за собой роль «старшего по нейросетям». По данным The Decoder, Министерство торговли США через структуру CAISI (Центр стандартов и инноваций в области ИИ) завершило подписание соглашений с Google DeepMind, Microsoft и xAI. Учитывая, что Anthropic и OpenAI уже участвуют в инициативе, регуляторная сеть накрыла всех ключевых игроков индустрии. Теперь государство официально заходит в лаборатории до того, как модель увидит свет, чтобы проверить её на предмет угроз национальной безопасности.

Фактически мы наблюдаем превращение ИИ-лабораторий в своего рода оборонных подрядчиков. Как пояснил директор CAISI Крис Фолл, для понимания возможностей передовых моделей необходима «строгая измерительная наука». На практике это выглядит так: разработчики предоставляют агентству специальные версии моделей с намеренно заниженными барьерами безопасности. Это необходимо, чтобы аудиторы в закрытых средах могли беспрепятственно проверить, насколько легко нейросеть способна искать уязвимости или помогать в создании кибероружия в условиях технологической гонки с Китаем.

Для бизнеса этот тренд означает появление нового обязательного фильтра, который неизбежно замедлит темпы выпуска обновлений. Свободная итерация «на лету» уходит в прошлое. Соглашения формализуют совместную оценку рисков еще на этапе обучения моделей. Маховик госприемки уже запущен: по оценкам CAISI, специалисты ведомства провели более 40 испытаний, часть из которых коснулась систем, о существовании которых рынок еще даже не подозревает.

Сращивание Big Tech с государственным аппаратом переводит ИИ из категории прикладного софта в разряд критической инфраструктуры. Руководителям и техническим директорам стоит готовиться к тому, что будущие модели будут выходить на рынок в жестко ограниченном виде. Функционал, который чиновники сочтут слишком рискованным для экспорта или массового использования, просто не доживет до релиза. Инновации теперь будут выдаваться дозированно и только после того, как в Вашингтоне поставят соответствующий штамп.

Регулирование ИИБезопасность ИИИскусственный интеллектКибербезопасностьGoogle DeepMind