OpenAI, похоже, решил примерить маску открытости, предложив доступ к своим моделям через Hugging Face Skills. Пока Meta и Mistral щедро делятся наработками, Codex предлагает сценарий, где вы дообучаете и разворачиваете модели локально, но под чутким присмотром. Механика выглядит так: через AGENTS.md вы отдаете Codex команду, например, «дообучить Qwen3-0.6B». Система предложит конфигурацию железа (t4-small — для серьезных задач это скорее показательный запуск, чем реальная работа), запустит скрипты, отправит задачу в Hugging Face Jobs, оценит бюджет и выдаст отчет. Обучение пройдет на GPU Hugging Face, а готовую модель вам отправят на Hugging Face Hub. Заявлена поддержка продакшен-методов вроде supervised fine-tuning, direct preference optimization, RL alignment для моделей от 0.5B до 7B параметров, с возможностью конвертации в GGUF. Делегирование ML-экспериментов Codex выглядит привлекательно: мониторинг, оценка, отчеты — рутину можно передать. Сам Codex, по уверениям, будет принимать «более самостоятельные решения», что, разумеется, сводится к следованию алгоритму.
Если убрать PR-обертку, картина становится яснее. Для полного доступа к этим возможностям вам понадобится платный аккаунт Hugging Face (Pro, Team или Enterprise) и соответствующий токен. Сам Codex — это, очевидно, часть ваших платных подписок OpenAI. Таким образом, OpenAI подталкивает рынок к своим проприетарным решениям, маскируя их под «открытость». Этот шаг заставляет задуматься другие крупные игроки, чьи бизнес-модели построены на закрытых системах. Однако, базовые модели остаются под контролем Codex. Это поднимает вопросы безопасности: кто будет отвечать за баги в «открытых» моделях, и насколько вы будете свободны, когда ваша инфраструктура и, по сути, ваши модели, зависят от платных сервисов OpenAI и Hugging Face? Не приведет ли это к риску утечки данных при работе с чужими скриптами и неконтролируемому росту расходов при масштабировании?
Почему это важно: релиз Codex — это попытка занять новую нишу, предлагая автоматизацию ML-процессов под соусом открытости. Для бизнеса это потенциальная возможность ускорить R&D, но ценой входа в новую форму зависимости от проприетарных платформ и скрытых расходов. CEO, принимая решение об интеграции, должны трезво оценить: не превращается ли эта «открытость» в очередную дорогую подписку с неочевидными рисками для операционной деятельности и контроля над собственными AI-разработками. Если вы стремитесь к реальной независимости в разработке AI, стоит скептически отнестись к предложениям, где «свобода» означает выбор из ограниченного набора платных инструментов и скрытую привязку к инфраструктуре поставщика.