Стремление к цифровому бессмертию и созданию универсальных нейроинтерфейсов столкнулось с фундаментальным парадоксом. Согласно отчету группы Константина Виллеке, опубликованному на arXiv, модель OmniMouse меняет правила игры, но совсем не так, как привыкли в Кремниевой долине. Обученная на 150 миллиардах нейронных токенов, эта модель демонстрирует инверсию стандартного закона масштабирования: в нейронауке объем данных критичнее количества параметров.

Пока индустрия искусственного интеллекта тратит миллиарды в надежде, что увеличение весов модели автоматически ведет к росту интеллекта, OmniMouse доказывает обратное. Как отмечают исследователи, производительность стабильно растет при добавлении новых данных, но быстро упирается в потолок при попытках увеличить размер самой модели. Для бизнеса это тревожный сигнал: даже сравнительно простая зрительная кора мыши остается заложником дефицита данных, а не вычислительных мощностей. Попытки симулировать человеческий мозг путем простого наращивания аппаратных ресурсов больше не выглядят жизнеспособными.

OmniMouse демонстрирует передовые результаты в трех режимах: прогнозирование активности мозга, декодирование поведения и нейронное прогнозирование. По словам Виллеке, модель превосходит специализированные системы благодаря использованию записей 3,1 миллиона нейронов, полученных в ходе сотен сессий с подопытными животными. На наш взгляд, это четкий сигнал для сектора нейротехнологий: эпоха «зоопарка» частных решений заканчивается, уступая место универсальным биологическим процессорам.

Тем не менее, текущая реальность для инвесторов выглядит отрезвляюще. Если в больших языковых моделях (LLM) вроде GPT-4 массивы данных делают масштабирование параметров основным драйвером прогресса, то в моделировании мозга даже 150 миллиардов токенов недостаточно для появления эмерджентных свойств. Как следует из анализа, данные о 3 миллионах нейронов — это лишь капля в океане сложности коры головного мозга. Оборудование готово к прорывам, но биологическая база — нет.

Вердикт для менеджмента: приоритет в нейротехе смещается с закупки вычислительных кластеров на создание собственных систем высокопроизводительного сбора данных. Масштабирование ради масштабирования в нейронном моделировании зашло в тупик. Победителями станут те компании, которые решат проблему «информационного голода» через автоматизацию записи нейронной активности. Пока мы не восполним пробел в наполнении датасетов, цифровое моделирование мозга останется дорогостоящим упражнением с крайне низким возвратом инвестиций.

НейросетиИИ в бизнесеИнвестиции в ИИOmniMouse