Модель нового поколения думает иначе, учится быстрее и рвёт лидеров на старте.
Учёные из сингапурской компании Sapient представили новый подход к искусственному интеллекту, который работает не так, как привычные большие языковые модели, и уже показал результаты выше конкурентов в ключевых испытаниях. Разработанная ими система получила название HRM — «иерархическая модель рассуждений». Её устройство вдохновлено строением человеческого мозга, где разные области обрабатывают информацию на разных временных масштабах — от миллисекунд до минут, постепенно объединяя короткие импульсы и более протяжённые процессы в единую картину.
В отличие от привычных моделей вроде GPT-5, Anthropic Claude или DeepSeek, новый алгоритм оказался гораздо компактнее и в то же время эффективнее. В исследовании авторы уточняют, что HRM насчитывает всего 27 миллионов параметров и обучалась на тысяче примеров. Для сравнения: у современных языковых систем количество параметров исчисляется миллиардами и даже триллионами. Так, оценки для GPT-5 колеблются в диапазоне от трёх до пяти триллионов параметров — на несколько порядков больше.
Проверка модели проводилась на ARC-AGI — одном из самых сложных тестов, созданных для оценки того, насколько алгоритмы приблизились к уровню универсального искусственного интеллекта. В первой версии задания HRM получила 40,3%, тогда как ближайший конкурент, модель o3-mini-high от OpenAI, показала 34,5%. Anthropic Claude 3.7 справился с 21,2%, а DeepSeek R1 — лишь с 15,8%. В более жёсткой модификации теста, ARC-AGI-2, система Sapient снова оказалась впереди: 5% против 3% у OpenAI, 1,3% у DeepSeek и менее одного процента у Claude.
Большинство современных языковых моделей используют так называемый метод рассуждений «цепочкой мыслей». При нём сложная задача раскладывается на ряд маленьких подзадач, которые формулируются в виде промежуточных шагов на естественном языке. Такой подход имитирует привычное для человека дробное мышление, но он требует огромных массивов данных, может давать нестабильные результаты и часто работает слишком медленно.
В HRM применён другой принцип. Модель выполняет последовательные рассуждения без необходимости явно контролировать промежуточные шаги. За это отвечают два модуля: высокоуровневый, отвечающий за медленное абстрактное планирование, и низкоуровневый, который обрабатывает быстрые и детальные вычисления. Такое разделение напоминает распределение ролей между различными отделами мозга.
Система использует технику итеративного уточнения: начальный ответ несколько раз перерабатывается короткими «всплесками размышлений». После каждого цикла модель решает, продолжать ли вычисления или уже выдать окончательный результат. Благодаря такому устройству HRM смогла справиться с задачами, которые традиционные языковые модели не решали вовсе. Например, система показала почти идеальную точность при решении сложных головоломок судоку и эффективно находила оптимальные пути в лабиринтах.
Авторы выложили код модели на GitHub, и организаторы теста ARC-AGI смогли повторить полученные результаты. При этом они отметили неожиданность: архитектура сама по себе дала минимальный вклад в рост показателей. Основной прирост объяснялся процессом дополнительного уточнения при обучении, о котором первоначальная работа говорила недостаточно подробно.
Хотя статья пока не прошла рецензирование, в сообществе уже началось активное обсуждение: HRM демонстрирует, что компактные и относительно простые модели способны обгонять гигантские LLM, если их устройство ближе к принципам человеческого мышления.