Hugging Face подкинула индустрии новую игрушку — SmolLM3. Эта 3-миллиардная модель, как уверяют сами разработчики, на голову выше своих ровесников Llama-3.2-3B и Qwen2.5-3B. И самое главное — она держит удар даже против 4-миллиардных гигантов. На чем построен этот маленький титан? На 11T токенов, деталях архитектуры и датасетов — всё это Hugging Face выложила на всеобщее обозрение, не стесняясь.

В SmolLM3 прописали сразу несколько языков: английский, французский, испанский, немецкий, итальянский и португальский. А ещё — длинный контекст до 128k токенов. Выглядит как идеальный кандидат для тех, кому нужна узкоспециализированная AI-программа, заточенная под конкретный рынок, и кому не хочется тащить на себе огромные серверные стойки.

Главный бонус SmolLM3 — её компактность. Это вам не облачный монстр, жрущий бюджеты. Модель можно спокойно запустить на своём железе, а это прямой путь к экономии и контролю над собственной инфраструктурой. Забудьте про бесконечные счета за облака, если у вас есть хоть сколько-то приличные мощности.

Почему вам стоит обратить внимание? Hugging Face продолжает свою миссию по демократизации доступа к AI, предлагая мощные, но при этом компактные модели. Это снижает порог входа для бизнеса: больше не нужно тратить космические бюджеты на инфраструктуру, чтобы внедрить крутой AI. Теперь даже небольшие компании могут создавать нишевые продукты, а крупные — оптимизировать расходы.

Большие языковые моделиИскусственный интеллектОпенсорс ИИИИ в бизнесеHugging Face