Hugging Face, главное тусовочное место всех, кто кодит на open-source моделях, наконец-то признал OVHcloud. Теперь европейский облачный гигант официально поддерживается как провайдер для инференса. Это значит, что запустить модные open-weight модели вроде Llama или Qwen3 можно, не устраивая танцы с бубном вокруг собственной инфраструктуры. Проще говоря, вам больше не нужно строить свой собственный дата-центр, чтобы вашим AI-моделям было где поживать.

Суть интеграции проста: вы теперь можете напрямую дёргать AI Endpoints от OVHcloud через API Hugging Face. Ценик начинается от €0.04 за миллион токенов, что выглядит куда менее пугающе, чем рост CAPEX, который так любят американские облака. К тому же, для европейского бизнеса это ещё один весомый плюс в копилку суверенных данных, ведь дата-центры OVHcloud — они свои, на континенте. Никаких вам шпионских глаз из-за океана, пожалуйста.

OVHcloud пытается продать свои AI Endpoints как полностью готовое serverless-решение. Обещают минимальные задержки, работу со всякими там структурированными выводами и даже мультимодальность. В общем, это такая попытка внести сумятицу в стройные ряды serverless-инференса, где пока правят бал всё те же заокеанские тяжеловесы. Европейским компаниям, заботящимся о своей независимости, теперь есть над чем подумать, прежде чем отдавать свои AI-проекты на аутсорсинг.

И почему это вас должно волновать? Да потому что появление новых, более дешёвых и, главное, географически близких опций для развертывания AI-моделей — это всегда хорошо. Партнёрство OVHcloud и Hugging Face явно подогревает конкуренцию на рынке облачного инференса, давая вам больше пространства для манёвра и выбора.

Искусственный интеллектОблачные вычисленияОпенсорс ИИБольшие языковые моделиHugging Face