NVIDIA явно решила, что производить только чипы — это скучно. Теперь они выстраивают всю AI-инфраструктуру, включая ценные открытые датасеты. Это не просто филантропия: чем быстрее и дешевле другие смогут делать свои большие языковые модели (LLM), тем больше их будут продавать самих чипов. Свежий пример — 6-миллионный мультиязычный набор данных для обучения моделей рассуждению. Теперь любой стартап или средняя компания, которая раньше упиралась в языковые барьеры и заоблачную стоимость адаптации, может создать действительно глобальное AI-решение. Французы, испанцы, немцы, итальянцы и японцы — ликуйте, ваши AI-инструменты теперь не будут тормозить на английском. Проще говоря, входной порог в мир глобальных LLM теперь ощутимо ниже.
Вдобавок к щедрости с данными, NVIDIA подкинула Nemotron Nano 2 9B — компактную модель с гибридной архитектурой Mamba-2. Заявляют, что она в 6 раз быстрее обрабатывает токены, при этом почти не теряя в точности, а еще и экономит до 60% вычислительных ресурсов. Всё благодаря хитрому механизму «бюджета мышления». Главный трюк — эта модель нацелена на периферийные вычисления (edge computing). Это значит, что теперь можно пихать продвинутый AI туда, где раньше места для него не хватало, — в самые разные устройства. Ждите больше умных ассистентов, локальных чат-ботов и аналитических помощников, которые будут работать прямо на вашем гаджете, а не в облаке.
Почему это должно вас волноваь? NVIDIA, будучи почти единоличным правителем на рынке AI-железа, теперь активно раздает инструменты для создания умных моделей. Это больше не удел избранных. Для вашего бизнеса это прямая выгода: ускорение разработки своих AI-решений и, главное, снижение затрат на создание по-настоящему универсальных продуктов. Если раньше локальные AI на скромных устройствах казались фантастикой, то теперь это вполне достижимая реальность. Конкурентное преимущество получат те, кто быстрее сориентируется и начнет использовать эти новые, более доступные возможности.