Конец монополии Nvidia? Qualcomm выпускает ускорители ИИ с десятикратной энергоэффективностью для корпоративных дата-центров

leer en español

Конец монополии Nvidia? Qualcomm выпускает ускорители ИИ с десятикратной энергоэффективностью для корпоративных дата-центров

Чипы пожирают 160 кВт и выдают производительность гипермасштабируемых облаков.

image

Qualcomm объявила о выпуске нового поколения ускорителей искусственного интеллекта, рассчитанных на корпоративные центры обработки данных. Представлены модули AI200 и AI250, а также готовые стойки на их основе. Эти решения предназначены для вычислений при работе генеративных моделей и сочетают масштабируемость, энергоэффективность и высокую пропускную способность.

Новое оборудование основано на архитектуре NPU (Neural Processing Unit) — специализированных нейропроцессорах, созданных Qualcomm для ускорения вывода ИИ-моделей. Разработчики стремятся повысить показатель «производительность на доллар на ватт» — ключевой критерий эффективности современной инфраструктуры машинного обучения.

Базовый ускоритель AI200 представляет собой модуль стоечного формата, оптимизированный под обработку языковых и мультимодальных систем. Каждая карта оснащена 768 ГБ памяти стандарта LPDDR, что обеспечивает высокую плотность вычислений и устойчивость при работе с большими наборами данных. Благодаря улучшенному энергопрофилю снижается совокупная стоимость эксплуатации, а развертывание генеративных систем становится доступнее для операторов дата-центров.

Вариант AI250 использует архитектуру near-memory computing — вычислений в непосредственной близости от модулей памяти. Такой подход позволяет увеличить эффективную пропускную способность более чем в десять раз и одновременно уменьшить энергопотребление. Конструкция поддерживает дезагрегированный вывод: ресурсы можно распределять между задачами, не теряя производительности и не увеличивая расходы.

Обе платформы рассчитаны на установку в стандартные серверные стойки и снабжены жидкостным охлаждением для оптимизации теплового режима. Для масштабирования внутри узла применён интерфейс PCI Express, а для объединения нескольких стоек — Ethernet. При суммарной мощности в 160 кВт каждая система обеспечивает уровень производительности, сопоставимый с инфраструктурой гипермасштабируемых облаков, сохраняя при этом акцент на устойчивом энергопотреблении.

Старший вице-президент Qualcomm по направлению Edge Solutions & Data Center Дурга Маллади подчеркнул, что новое поколение ускорителей меняет само представление о вычислениях на уровне стойки. По его словам, решения AI200 и AI250 позволяют компаниям внедрять генеративный искусственный интеллект с минимальными издержками, сохраняя гибкость и безопасность корпоративных систем.

Программная экосистема Qualcomm охватывает все уровни — от прикладных библиотек до системных компонентов. Стек оптимизирован под популярные фреймворки машинного обучения и движки вывода, обеспечивая поддержку моделей на платформах генеративного ИИ. Интеграция с открытыми инструментами позволяет разворачивать готовые нейросети буквально одним действием.

Разработчики смогут использовать модели из Hugging Face через библиотеку Efficient Transformers и пакет AI Inference Suite. Эти инструменты предназначены для внедрения искусственного интеллекта в прикладные решения, включая сервисы, программные агенты и API. Такой подход сокращает время внедрения и упрощает эксплуатацию обученных моделей.

Серийный выпуск AI200 намечен на 2026 год, а AI250 — на 2027-й. Qualcomm планирует придерживаться ежегодного цикла обновлений, последовательно повышая вычислительную мощность, снижая энергозатраты и улучшая поддержку генеративных приложений.