Контекстное окно удвоилось, но главная битва только начинается.
Компания DeepSeek представила обновлённую версию своей флагманской языковой модели — V3.1, которая, по заявлениям разработчиков, адаптирована под использование с грядущими китайскими чипами. В основе новой версии лежит обновлённый формат чисел с плавающей точкой UE8M0, являющийся разновидностью FP8. Он призван обеспечить лучшую совместимость с будущими ИИ-ускорителями, производимыми в Поднебесной.
В компании уточнили, что ранее уже применяли стандартный формат FP8 E4M3, а переход на UE8M0 связан не столько с оптимизацией производительности, сколько с обеспечением полной совместимости с новой архитектурой процессоров. Конкретных производителей чипов DeepSeek не называет, однако ранее сообщалось о тесном сотрудничестве с Huawei, в частности — о попытках обучить модель следующего поколения (условно обозначенной как R2) на базе ускорителей Ascend. Эти попытки оказались неудачными : модель пришлось возвращать на Nvidia H20. Тем не менее, Huawei продолжает рассматриваться как возможная платформа для инференса.
Любопытно, что несмотря на представление V3.1 как значимого обновления, в действительности модель обучена на контрольной точке предыдущей версии V3. Нововведения касаются не архитектурных изменений, а перенастройки и интеграции новых механизмов обработки данных. Среди них — унификация подходов к генерации «мыслящих» и «немыслящих» ответов. Ранее DeepSeek предлагала два варианта моделей для разных задач, но теперь оба режима совмещены в одной системе, переключение между ними осуществляется с помощью шаблонов чата.
Такой подход ранее уже тестировался другими компаниями, включая Alibaba, которая в первой половине года пыталась реализовать аналогичную концепцию в своих моделях Qwen 3. Однако тогда отказались от идеи, поскольку такая гибридизация привела к ухудшению результатов.
В случае DeepSeek ситуация, по крайней мере в тестах, иная: модель показывает заметный рост точности при генерации простых (немыслящих) ответов, а при активации режима рассуждения достигается экономия токенов, необходимых для получения релевантного результата. Это особенно важно для снижения стоимости обслуживания модели в продакшн-среде.
Контекстное окно V3.1 также увеличено: теперь оно вмещает до 131072 токенов — вдвое больше по сравнению с предыдущей версией. Однако по этому параметру DeepSeek всё ещё уступает даже китайским конкурентам — например, Qwen3, способен обрабатывать контексты на миллион токенов.
Особое внимание в обновлении уделено возможностям инструментального вызова и взаимодействия с внешними функциями — ключевому компоненту для агентных ИИ-сценариев. Согласно результатам тестов на Browsecomp — бенчмарке, оценивающем навыки автономной навигации в браузере, новая модель достигла показателя 30, тогда как предыдущее обновление (майская версия R1) набрало лишь 8.9 баллов. Это указывает на резкий прогресс в области выполнения сложных задач, требующих взаимодействия с внешними источниками информации в реальном времени.
Для разработчиков доступны как весовые параметры базовой модели, так и её специализированная версия с инструкционной настройкой — они опубликованы на Hugging Face и ModeScope. Модель также интегрирована в фирменный чат-бот и открыта через API.
Таким образом, DeepSeek делает ставку на заранее подготовленную архитектуру, готовую к работе с будущими китайскими чипами. Это подчёркивает стратегическую цель — снизить зависимость от иностранных технологий и обеспечить технологическую автономность, особенно на фоне ограничений в поставках западных ускорителей.