Современные стратегии внедрения ИИ в бизнесе строятся на опасной иллюзии: считается, будто языковые модели способны распознавать риски до того, как им укажут, куда именно смотреть. Исследование KWBench («Measuring Unprompted Problem Recognition in Knowledge Work»), опубликованное 17 апреля 2026 года, проверяет эти надежды на прочность. Исследователи представили первый бенчмарк, оценивающий способность нейросетей идентифицировать проблему в сырых данных без явных подсказок и инструкций. Пока стандартные тесты демонстрируют насыщение, KWBench обнажает пропасть в автономности систем.

Вместо привычного выполнения задач по техническому заданию, авторы предложили 16 моделям 223 кейса из реальной практики: от клинической фармации и выявления мошенничества до организационной политики и ведения переговоров по контрактам. В массивы данных были заложены формальные теоретико-игровые паттерны: конфликты принципала и агента, стратегические умолчания и коалиционная динамика. Результат оказался неутешительным: лучшая модель смогла распознать суть ситуации лишь в 27,9% случаев.

Как отмечают авторы работы, модели зачастую способны верно сформулировать теоретико-игровой концепт, если задать им прямой вопрос, однако они не могут применить эти знания без внешней подсказки. ИИ не понимает изъянов в дизайне стимулов и механизмов, если проблема не была предварительно сформулирована человеком.

Для бизнеса это означает, что текущие LLM требуют жесткого «фрейминга» — постановки рамок задачи со стороны эксперта. Использование ИИ для поиска скрытых манипуляций или стратегических пробелов в необработанных данных без участия человека крайне ограничено: даже маршрутизация запросов между восемью лучшими моделями покрывает лишь 50,7% задач бенчмарка.

Большие языковые моделиИИ в бизнесеБезопасность ИИKWBench