WRITER, похоже, решил избавить нас от зрелища бесконечных стоек с серверами, которые якобы нужны для каждого чиха в области AI. Компания выкатила семейство моделей Palmyra-mini — три варианта с весьма скромными 1.5-1.7 миллиарда параметров. Суть проста: эти малыши не требуют для работы целого дата-центра. Бизнесу это прямой сигнал: прощайте, золотые GPU-фермы, ваш AI может быть не только умным, но и экономичным. Разработчики обещают, что модели мощные, легкие и быстрые, идеально подходящие для задач, где каждый ватт и миллисекунда на счету.
Особо выделяются модели с припиской 'thinking' — palmyra-mini-thinking-a и palmyra-mini-thinking-b. Их фишка — обучение по методу Chain of Thought (CoT), что позволяет им «рассуждать», выстраивая логику шаг за шагом. Для бизнес-аналитики, моделирования и решения нетривиальных задач это, мягко говоря, куда полезнее, чем случайный набор слов от гигантских моделей, пожирающих электричество. Вот, например, palmyra-mini-thinking-a показала 82.87% на GSM8K, а palmyra-mini-thinking-b — 92.5% на AMC23. Вполне себе результат для тех, кто хочет понять, почему продажи упали, а не просто получить отчёт ради отчёта.
И приятный бонус для тех, кто уже устал от облачных счетов: модели доступны в квантизированных форматах GGUF и MLX. Это значит, что их можно запускать где угодно, хоть на ноутбуке вашего аналитика. Снижение порога входа — именно то, что нужно рынку, который начал задыхаться от постоянных инвестиций в железо. Главное, чтобы заявленное «мышление» оказалось реальным, а не очередной маркетинговой фишкой.
Почему это важно: WRITER с новыми моделями открывает двери для малого и среднего бизнеса, который раньше не мог позволить себе внедрение AI из-за дорогих инфраструктурных требований. Для крупных игроков это тоже звоночек: конкуренция смещается от гигантизма к эффективности и доступности. Компании, которые первыми освоят эти «легкие» модели, получат преимущество в скорости принятия решений и оптимизации своих процессов.