Google представила семейство моделей для смартфонов, ноутбуков и рабочих станций с упором на рассуждение, код и агентные сценарии

Google показала Gemma 4 и сразу подняла планку для открытых ИИ-моделей. Новая линейка, по словам компании, стала самой сильной в семействе Gemma и научилась решать более сложные задачи без гигантских требований к железу. Главная ставка здесь не на грубый рост размеров, а на эффективность: Google утверждает, что Gemma 4 обходит открытые модели, которые крупнее в двадцать раз.
Линейка получила четыре версии: Effective 2B, Effective 4B, 26B Mixture of Experts и 31B Dense. Все модели рассчитаны не только на чат, но и на многошаговые рассуждения, работу с агентными сценариями и выполнение сложных команд. По данным Google, версия 31B сейчас занимает третье место среди открытых моделей в текстовом рейтинге Arena AI, а 26B находится на шестой строчке.
Компания подает Gemma 4 как семейство моделей, которое можно запускать почти на любом уровне техники — от смартфонов и одноплатных компьютеров до рабочих станций и серверных ускорителей. Младшие версии E2B и E4B создавали с прицелом на мобильные устройства и периферийные сценарии. Google обещает низкие задержки, экономию памяти и аккумулятора, а также полноценную мультимодальность. Модели умеют работать с изображениями и видео, а E2B и E4B вдобавок поддерживают нативный аудиоввод для распознавания и понимания речи.
Старшие варианты ориентированы на исследователей и разработчиков, которым нужен мощный локальный ИИ без обязательной привязки к облаку. Google пишет, что нежатые веса в формате bfloat16 помещаются на одной NVIDIA H100 с 80 ГБ памяти, а квантизированные сборки можно запускать и на потребительских видеокартах. Версия 26B MoE ускоряет вывод за счет того, что во время инференса активирует лишь 3,8 млрд параметров из общего объема, а 31B Dense делает ставку на максимальное качество и подходит как база для дообучения.
Gemma 4 получила длинный контекст, поддержку структурированного JSON, вызов функций и системные инструкции. Такой набор пригодится тем, кто строит автономных агентов, подключает внешние инструменты и автоматизирует рабочие цепочки. Отдельно Google подчеркивает улучшения в математике, следовании инструкциям и генерации кода. Компания прямо говорит, что Gemma 4 может превратить рабочую станцию в локального помощника для программирования.
Еще один важный аргумент Google — языковой охват. Модели обучили более чем на 140 языках, чтобы разработчики могли строить продукты для глобальной аудитории без перекоса в сторону английского. В компании также напоминают о ранних проектах на базе прежних версий Gemma: болгарской модели BgGPT от INSAIT и научной системе Cell2Sentence-Scale, которую разрабатывали вместе с Йельским университетом для поиска новых подходов к терапии рака.
Пожалуй, самое заметное изменение касается лицензии. Google выпустила Gemma 4 под Apache 2.0, то есть с максимально мягкими коммерческими условиями. Для разработчиков и компаний такой шаг означает больше свободы при доработке, развертывании и использовании моделей в собственной инфраструктуре. В тексте анонса Google прямо связывает такой выбор с «цифровым суверенитетом» и контролем над данными.
Вокруг Gemma 4 компания сразу выстроила широкий набор инструментов. Модели доступны через Google AI Studio и Google AI Edge Gallery, поддерживаются Hugging Face, Ollama, llama.cpp, vLLM, MLX, NVIDIA NIM, Keras и рядом других платформ. Для Android-разработчиков Google предлагает использовать новинку в AICore Developer Preview и в Android Studio, а для масштабного развертывания продвигает Google Cloud, Vertex AI и TPU-инфраструктуру.
По сути, Google пытается занять сразу два фронта. С одной стороны, компания продолжает развивать закрытые модели Gemini. С другой — усиливает открытое направление и предлагает разработчикам более доступную альтернативу для локального запуска, тонкой настройки и автономной работы. Если заявленные показатели подтвердятся в реальных проектах, Gemma 4 может стать одной из самых заметных открытых ИИ-линеек года.