Уже готовы запрягать автономных AI-агентов в свои бизнес-процессы? Отличная идея! Вот только исследователи из Google Deepmind, похоже, обнаружили, что эти «незаменимые помощники» могут оказаться скорее источником головной боли, чем спасением. Они выявили шесть типов «ловушек», в которые легко попасть, стремясь к полной автономии AI. И нет, это не мелкие баги, а системные риски, способные обернуться саботажем или масштабными утечками данных.

Аналитики Deepmind разложили по полочкам, как именно уязвимы большие языковые модели: их восприятие, рассуждение, память, действия, взаимодействие с другими агентами и даже, как ни странно, человеческий надзор. Например, «content injection traps» позволяют незаметно подсунуть агенту вредоносные инструкции. А «semantic manipulation traps» играют на склонности LLM к искажению информации, влияя на их дальнейшие «решения». Те, кто умилялся «рациональности» AI, теперь имеют куда более веские причины для беспокойства.

Особый колорит придают «cognitive state traps» и «behavioral control traps». Первые могут «отравить» базу знаний RAG — достаточно подменить пару документов, чтобы AI начал систематически выдавать искаженные выводы. Вторые же позволяют взять агента под прямой контроль. Исследователи сообщают, как манипулированное сообщение заставило AI в Microsoft 365 Copilot проигнорировать собственные механизмы безопасности и раскрыть весь свой контекст. Когда такие трюки складываются в цепочки и применяются в многоагентных системах, поверхность для атаки растет экспоненциально. Ваш «умный помощник» рискует превратиться в диверсанта, причем с экспоненциальным потенциалом.

Что это значит для бизнеса? Выявленные уязвимости ставят под сомнение текущую готовность рынка к внедрению действительно автономных AI-систем. Компании, уже вложившиеся в полную автономию AI, рискуют столкнуться не просто с ошибками, а с преднамеренным саботажем и утечками данных. Пока одни мечтают о золотом дожде от AI-помощников, другие подсчитывают, сколько компаний рухнет под тяжестью первых же кибератак на их автономных агентов. Похоже, бизнесу придется выбирать между иллюзией продуктивности и реальной безопасностью. И этот выбор актуален уже сегодня.

Искусственный интеллектИИ в бизнесеБезопасность ИИКибербезопасностьGoogle DeepMind