675 миллиардов параметров бесплатно. Французская Mistral бросает вызов гигантам.

Французская Mistral AI представила линейку моделей Mistral 3 и сделала их полностью открытыми по лицензии Apache 2.0. В серии несколько компактных плотных моделей на 3, 8 и 14 млрд параметров под брендом Ministral, а также флагманский Mistral Large 3. Это разреженная Mixture-of-Experts модель с 41 млрд активных параметров и 675 млрд общих, которую компания называет своим самым мощным решением на сегодня.
Mistral Large 3 обучали с нуля на примерно 3000 GPU NVIDIA H200. После дообучения модель выходит на уровень лучших открытых инструкционных моделей при работе с обычными запросами, поддерживает понимание изображений и показывает сильные результаты в многоязычном режиме, особенно для языков помимо английского и китайского. В рейтинге LMArena среди открытых моделей, не заточенных специально под сложное рассуждение, Mistral Large 3 дебютировал на втором месте и вошел в первую десятку среди всех OSS моделей.
Разработчики сразу выложили и базовую, и инструкционную версии Mistral Large 3. Отдельно обещан вариант с упором на рассуждение, который выйдет позже. Эти открытые веса должны стать отправной точкой для кастомизации под корпоративные задачи, в том числе на стороне заказчиков.
Чтобы упростить разворачивание, Mistral работает вместе с NVIDIA, vLLM и Red Hat. Для Mistral Large 3 публикуется контрольная точка в формате NVFP4, подготовленная с помощью проекта llm-compressor. Такой вариант можно эффективно запускать на системах Blackwell NVL72, а также на узлах с 8 GPU A100 или H100 через vLLM. NVIDIA добавила для новой архитектуры оптимизированные ядра внимания и MoE, поддержку разделенной подачи префилла и декодирования и совместно с Mistral реализовала спекулятивное декодирование. Вся линейка Mistral 3 поддерживается в TensorRT-LLM и SGLang, что позволяет выжимать максимум из низкой разрядности и длинного контекста.
Для пограничных и локальных сценариев Mistral выпускает семейство Ministral 3. Это три модели на 3, 8 и 14 млрд параметров, каждая доступна в базовом, инструкционном и reasoning-варианте и во всех случаях умеет работать с изображениями. За счет многоязычности и мультиформатности их предлагают как универсальный набор под разные задачи бизнеса и разработчиков: от онлайновых сервисов до приложений, работающих локально или на встраиваемых устройствах.
Отдельный акцент сделан на эффективности. По заявлениям Mistral, Ministral 3 показывает лучшую стоимость качества среди открытых моделей сопоставимого класса. Инструкционные версии по точности догоняют и перегоняют аналоги, при этом в реальных сценариях часто генерируют на порядок меньше токенов, что снижает задержки и расходы. Если важна только точность, reasoning-варианты могут думать дольше и выдавать более точный ответ. В качестве примера приводится Ministral 3 14B, который набирает около 85 процентов на олимпиадном бенчмарке AIME 2025 в своем весовом классе.
Все эти модели рассчитаны не только на крупные датацентры, но и на системы на периферии. NVIDIA предлагает оптимизированные развертывания Ministral на рабочих станциях DGX Spark, ПК и ноутбуках с RTX, а также на платформах Jetson Orin. Таким образом, один и тот же стек моделей можно запускать от робототехники и "умных" устройств до облачных сервисов.
Линейка Mistral 3 уже доступна в Mistral AI Studio, интегрирована с Amazon Bedrock, Azure Foundry, IBM WatsonX, OpenRouter, Fireworks и Together AI, а также представлена в виде открытых весов в коллекциях Mistral Large 3 и Ministral 3 на Hugging Face. Отдельные партнеры, такие как Modal и Unsloth AI, предлагают готовые решения для инференса и дообучения. В ближайшее время поддержку обещают добавить NVIDIA NIM и AWS SageMaker.
Для компаний, которым нужно более точное соответствие отраслевым задачам и своим данным, Mistral предлагает услуги кастомного обучения моделей. Дополнительно на сайте доступна подробная техническая документация для разных конфигураций, включая Ministral 3 3B-25-12, Ministral 3 8B-25-12, Ministral 3 14B-25-12 и Mistral Large 3, а также материалы по governance и рискам ИИ в разделе AI Governance Hub.