Автономные ИИ-агенты уже вовсю проводят транзакции и управляют рабочими процессами за пределами корпоративных контуров, однако делают это в полном правовом и подотчетном вакууме. Согласно препринту Кентаро Тойоды «Идентификация ИИ: стандарты, пробелы и направления исследований для ИИ-агентов», индустрия столкнулась со структурным кризисом: у цифровых сущностей нет ни физической формы, ни устойчивой памяти, ни юридического статуса. Как отмечает Тойода, нынешняя инфраструктура абсолютно не приспособлена для верификации субъекта, который может бесследно исчезнуть или радикально сменить логику поведения прямо в процессе взаимодействия. Попытки наложить человеческие фреймворки идентификации на ИИ-агентов — это путь к системному параличу корпоративного управления.
Безопасность бизнеса теперь зависит от новой критической метрики, которую Тойода определяет как AI Identity (идентичность ИИ). Это непрерывная фиксация связи между заявленным функционалом агента и его фактическими действиями. Разрыв между этими состояниями — гигантская дыра в комплаенсе. Анализ выявил пять фундаментальных пробелов, включая верификацию семантических намерений и подотчетность при рекурсивном делегировании задач. Проблема в том, что ни одна существующая технология или регуляторный акт не способны их закрыть. Просто наращивать инженерные усилия бессмысленно, пока недетерминированные агенты работают вне протоколов верификации.
Ситуация, когда «умный» код перемещается между юрисдикциями и плодит цепочки субагентов, превращается в юридический кошмар. Если такой автономный посредник допустит критическую ошибку в дорогостоящей транзакции или спровоцирует утечку данных, поиск виновного в «намерениях» безгосударственного фрагмента кода станет невыполнимой задачей. Без жестких технических стандартов верификации цифровых сущностей любая автономия остается не активом, а неконтролируемым операционным риском.