Пока ваши IT-отделы с видом обречённых героев скачивают очередной антивирус и с надеждой копаются в статьях про «защиту от AI-угроз», хакеры уже удвоили свои возможности. Исследование Lyptus Research, подкреплённое мнением дюжины экспертов, рисует картину, от которой мороз по коже: если в 2019 году наступательные кибервозможности ИИ удваивались раз в 9.8 месяца, то с начала 2024 года этот срок сжался до 5.7 месяцев.
Авторы отчёта скромно замечают, что даже при бюджете всего в 10 миллионов токенов, модели вроде Opus 4.6 и GPT-5.3 Codex теперь щелкают задачи, на которые человеку-эксперту ещё недавно требовалось 10.5 часов. Реальность, вероятно, ещё мрачнее этих цифр: даже открытые модели, отстающие от проприетарных всего на полгода, в контексте кибербезопасности создают непроходимую стену.
Lyptus Research оцифровали 291 задачу, а сырые данные любезно выложили в открытый доступ на GitHub и Hugging Face. Этот ускоряющийся рост опасности ИИ ставит перед бизнесом не просто вопрос, а ультиматум: либо вы срочно пересматриваете стратегии кибербезопасности, делая ставку на AI-защиту, превентивные меры и полную автоматизацию, либо готовьтесь к тому, что завтрашние атаки будут настолько изощрённы — с автоматическим подбором эксплойтов, персонализированным фишингом и полиморфными вирусами — что ваши нынешние инструменты покажутся скорее детскими игрушками, чем средствами защиты.
Или, как вариант, продолжайте заниматься своими «стратегическими инициативами», пока системы окончательно не лягут, а данные не окажутся в руках у кого надо. Экспоненциальный рост атакующих AI-возможностей требует немедленного встречного хода.
Тех, кто продолжит откровенно тянуть резину, ждет незабываемый сюрприз: их системы безопасности устаревают быстрее, чем они успевают их хотя бы почесать. Ваш симулятор атаки покажет, что вы уже опоздали.
Вопрос лишь в том, насколько сильно.