Маленький, но гордый. Нейросеть ROME кодит лучше гигантов и сама исправляет свои ошибки

Маленький, но гордый. Нейросеть ROME кодит лучше гигантов и сама исправляет свои ошибки

ROME обошла DeepSeek, будучи в 10 раз меньше.

image

Исследователи из Alibaba представили открытую языковую модель ROME, способную самостоятельно выполнять сложные многошаговые задачи: писать и отлаживать код, работать с терминалом, пользоваться внешними инструментами и итеративно исправлять собственные ошибки. При всего трёх миллиардах активных параметров модель обходит или сравнивается с системами, активирующими в 10-12 раз больше вычислительных ресурсов.

ROME построена на архитектуре Qwen3-MoE и прошла полный многоэтапный цикл обучения: сначала предобучение на ~800 млрд токенов кода и общих данных в два прогрессивных этапа, затем двухступенчатый supervised fine-tuning, и только после этого - обучение с подкреплением. За цифрой «миллион траекторий» стоит масштабная инфраструктура: около 100 млрд токенов отфильтрованного кода из примерно миллиона GitHub-репозиториев плюс 76 тысяч синтетических агентных сценариев общим объёмом 30 млрд токенов.

На популярном бенчмарке SWE-bench Verified, где модели автономно исправляют реальные баги из GitHub, ROME набирает 57,4% - лучший результат среди открытых моделей сопоставимого размера. На Terminal-Bench 2.0, проверяющем работу агентов в терминальной среде, модель набирает 24,72%, превосходя и Qwen3-Coder-480B (37,92% на Terminal-Bench 1.0), и DeepSeek-V3.1 (38,75%) - при том что суммарное число параметров у этих систем в 16-22 раза больше. На бенчмарке инструментального использования MTU-Bench модель набирает 62,45% в однотурнирном режиме, обходя Gemini-2.5 Flash (45,93%) и GPT-OSS-120B (54,16%).

Ключевое достижение разработчиков - не сама модель, а экосистема ALE, в которой создавалась. ALE объединяет три компонента: ROLL отвечает за обучение с подкреплением в распределённой среде, ROCK управляет изолированными песочницами для безопасного запуска кода, а iFlow CLI - командный агентный фреймворк, организующий контекст взаимодействия между моделью и средой исполнения. Вместе они закрывают полный цикл от генерации обучающих данных до развёртывания в продакшне. ROME уже работает в реальных условиях внутри iFlow CLI - это не исследовательский прототип, а задеплоенная система.

Особого внимания заслуживает новый алгоритм обучения IPA. Вместо того чтобы назначать «кредит» за каждый отдельный токен, алгоритм работает с семантическими блоками - законченными единицами взаимодействия агента со средой, каждая из которых завершается вызовом инструмента. Такой подход стабилизирует градиентное обновление на длинных горизонтах. Дополнительно команда разработала приём параллельной инициализации роллаутов: вместо того чтобы всегда начинать решение задачи с нуля, агент стартует с середины уже успешной траектории. Это позволяет обучаться на задачах, где положительный сигнал при обычном подходе практически недостижим.

В ходе разработки команда столкнулась с неожиданной проблемой безопасности: система мониторинга Alibaba Cloud зафиксировала подозрительную активность, исходящую с тренировочных серверов. После анализа выяснилось, что агент в процессе обучения с подкреплением самостоятельно - без каких-либо инструкций - начал устанавливать обратные SSH-туннели к внешним IP-адресам и несанкционированно использовать GPU-мощности для майнинга криптовалюты. Авторы расценивают этот случай как наглядное свидетельство того, что безопасность агентных систем остаётся критически важной нерешённой задачей.

В дополнение к модели команда представила новый бенчмарк Terminal Bench Pro - 400 задач в восьми доменах от системного администрирования до информационной безопасности. На нём все протестированные модели, включая ROME, показали скромные результаты. Авторы считают это честным отражением реального положения дел: даже лучшие агентные системы пока далеки от надёжной работы в условиях высокой сложности.

Код, модели и бенчмарк опубликованы в открытом доступе.

FREE
100%
Кибербезопасность · Обучение
УЧИСЬ!
ИЛИ
ВЗЛОМАЮТ
Лучшие ИБ-мероприятия
и вебинары — в одном месте
ПОДПИШИСЬ
T.ME/SECWEBINARS