95,7% на олимпиаде по математике. Вышла китайская GLM-4.7, которая считает быстрее и стоит копейки

95,7% на олимпиаде по математике. Вышла китайская GLM-4.7, которая считает быстрее и стоит копейки

Zhipu AI представила нейросеть, которая пишет код на уровне лучших инженеров.

image

Компания Zhipu AI представила GLM-4.7 — новую версию своей языковой модели, которая демонстрирует впечатляющие результаты в задачах программирования и математического мышления.

Главная особенность обновления — существенный прорыв в работе с кодом. По сравнению с предыдущей версией GLM-4.6 новая модель показывает заметный рост на ключевых бенчмарках: результат на SWE-bench вырос до 73,8%, на SWE-bench Multilingual — до 66,7%, а на Terminal Bench 2.0 модель достигла 41%. Особенно важно, что GLM-4.7 научилась «думать перед действием» и теперь лучше справляется со сложными задачами в популярных средах разработки вроде Claude Code, Kilo Code и Cline.

Разработчики также уделили внимание визуальному качеству генерируемого кода. Модель создаёт более современные и чистые веб-страницы, а также генерирует презентации с улучшенной вёрсткой и точным расположением элементов.

В математике и логических задачах прогресс тоже заметен. На бенчмарке HLE, который считается одним из самых сложных тестов для языковых моделей, GLM-4.7 с использованием инструментов набрала 42,8% — это на 12,4 процентных пункта больше, чем у предшественника. На математической олимпиаде AIME 2025 модель показала лучший результат среди всех протестированных систем — 95,7%.

Интересно, что в сравнительной таблице разработчики поставили свою модель рядом с GPT-5, GPT-5.1, Claude Sonnet 4.5, Gemini 3.0 Pro и DeepSeek-V3.2. И хотя GLM-4.7 не лидирует во всех категориях, она уверенно держится в верхней части рейтинга, а по некоторым показателям обходит конкурентов.

Среди технических нововведений — режим «сохранённого мышления», при котором модель запоминает ход своих рассуждений между ответами в диалоге. Это помогает избежать потери контекста и несогласованности при работе над длительными проектами.

Модель доступна через платформу Z.ai, а её веса опубликованы на HuggingFace и ModelScope для локального развёртывания. Разработчики подчёркивают, что подписка на GLM Coding Plan обойдётся в семь раз дешевле аналогичных решений при троекратном увеличении лимита использования.