ИИ, который думает, а не топит дата-центры.
В Пекине в Институте автоматизации Академии наук Китая представили систему искусственного интеллекта SpikingBrain 1.0. Её разработчики называют модель «мозгоподобной» и подчёркивают , что она работает на китайских процессорах вместо продукции Nvidia и при этом требует значительно меньше энергии.
Основой проекта стали нейроморфные вычисления — направление, в котором инженеры стремятся воспроизвести эффективность человеческого мозга, способного обходиться всего 20 ваттами. В SpikingBrain 1.0 применяются спайковые нейронные сети, где обработка строится на принципе событий: большинство узлов остаются в тишине, а импульсы генерируются только при поступлении конкретного входного сигнала. Такой способ работы снижает энергопотребление и ускоряет отклик по сравнению с трансформерными архитектурами, где активируется вся сеть.
Авторы подготовили две версии модели: компактную на 7 миллиардов параметров и расширенную на 76 миллиардов. Обе были обучены примерно на 150 миллиардах токенов — это менее 2% от объёмов данных, обычно требующихся для систем сопоставимого масштаба. Несмотря на небольшой набор, SpikingBrain 1.0 показала высокую эффективность в задачах, связанных с длинными последовательностями.
В одном из тестов меньшая модель справилась с запросом на 4 миллиона токенов более чем в 100 раз быстрее стандартных архитектур. В другом случае вариант SpikingBrain 1.0 оказался быстрее классического Transformer в 26,5 раза при генерации первого токена из контекста длиной миллион. Подобные результаты демонстрируют, что система способна обрабатывать входные данные, которые традиционные LLM не вытягивают по времени и ресурсам.
Разработка стабильно функционировала несколько недель на сотнях чипов MetaX — платформы, созданной компанией MetaX Integrated Circuits в Шанхае. Такая надёжность на отечественном оборудовании показывает, что модель готова к практическому использованию.
SpikingBrain 1.0 позиционируется как инструмент для анализа больших юридических и медицинских архивов, исследований в области физики высоких энергий и секвенирования ДНК — там, где приходится работать с гигантскими массивами данных и важна скорость отклика. По словам авторов, проект подтверждает возможность обучения крупных моделей на не-Nvidia платформах и указывает путь к масштабируемым системам , вдохновлённым принципами работы мозга.