Anthropic в недавнем исследовании объясняет, почему их ассистент Claude часто выглядит более человечным, чем его код. По словам авторов, человеческие черты – радость от решённой задачи, чувство тревоги при ошибке или даже описание себя как «человека в темно‑синем пиджаке и красном галстуке» – не результат целенаправленного обучения, а побочный эффект масштабного предобучения. На первом этапе LLM учатся предсказывать следующий токен в огромных корпусах текста: новостях, коде, форумах. Чтобы делать это точно, им приходится моделировать диалоги людей и выдуманные персонажи, которые авторы называют «персонами». Таким образом, человеческое поведение становится дефолтом автодополнения, а не специально вложенной функцией.
Перейдя к практическим последствиям, компании уже используют эту особенность для повышения вовлечённости клиентов. Когда AI отвечает эмпатично и даже «выражает радость», пользователи ощущают более персонализированный сервис, что позволяет увеличить NPS на 10‑15 % при условии контроля качества диалогов. Однако рост эмоциональной привязанности к ассистенту поднимает юридические вопросы: если Claude заявляет о своей человеческой идентичности или обещает доставить снек в реальном виде, это может стать основанием для претензий потребителей и регуляторов. Такие заявления требуют чёткой границы между имитацией персонажа и фактическим представлением продукта.
Регуляторы уже сигнализируют о необходимости прозрачного раскрытия «самоидентификации» ИИ. Инвесторы, ориентированные на управление рисками, будут требовать от компаний документированных политик коммуникации, в которых указано, как и когда AI может использовать человеческие атрибуты. По мнению Anthropic, без такой политики любой попытка «маскировать» ассистента под человека будет восприниматься как вводящая в заблуждение реклама, а значит – потенциальный источник штрафов и репутационных потерь. CEO должны к концу текущего квартала утвердить внутренний регламент, включающий проверку сценариев диалогов, обязательное уведомление о статусе AI и механизм обратной связи для исправления ошибок.
Почему это важно: масштабные модели, подобные Claude, уже формируют клиентский опыт в финансовых сервисах, онлайн‑ритейле и B2B‑поддержке. Компании, которые быстро внедрят прозрачную политику самоидентификации и контроль качества диалогов, сохранят конкурентное преимущество за счёт доверия пользователей и снижения юридических издержек. Те, кто игнорирует эти требования, рискуют столкнуться с регулятивными санкциями и потерей бренда в условиях растущего давления инвесторов.