История GPU: Марио случайно породил монстра, который сегодня правит миром ИИ

История GPU: Марио случайно породил монстра, который сегодня правит миром ИИ

С чего начинались процессоры, без которых мы теперь не представляем свою жизнь?

image

Графический процессор, известный сегодня как GPU, начинал вовсе не как опора суперкомпьютеров или движок генеративного ИИ. Его история стартовала в игровом автомате Galaxian от Namco, впервые показанном в 1979 году. Плата внутри этой аркадной машины впервые доказала: специализированные микросхемы, созданные исключительно ради изображения, могут рисовать больше цветов, анимировать больше объектов и зарабатывать больше монет, чем любой универсальный компьютер того времени. Это стало первым толчком к зарождению отдельного класса аппаратуры, способной обрабатывать визуальные задачи независимо от центрального процессора.

Именно это стремление к более плавному, яркому и массовому визуальному опыту со временем превратилось в четыре масштабных технологических сдвига: домашние игры, научные вычисления, криптовалютный бум и, наконец, эра генеративного ИИ. Проследив этот путь, можно увидеть, как чип, созданный ради развлечений, шаг за шагом стал основой дата-центров и в перспективе может лечь в архитектуру роботов-гуманоидов и автономных транспортных систем.

Первый скачок начался в аркадах, где Galaxian генерировал изображение 62×128 пикселей, обрабатывая задники и спрайты без участия основного процессора. Именно независимость от CPU позволила разработать схему, заточенную исключительно под графику. Идея оказалась коммерчески успешной: автомат стал хитом в Японии и США, подтолкнув Namco к созданию ещё более популярной Galaga. Это убедило индустрию в том, что отдельная графическая электроника — не излишество, а конкурентное преимущество.

Параллельно с бурным ростом аркад развивались и домашние игровые устройства. Atari 2600 использовала элемент под названием Television Interface Adapter, совмещавший видеовывод, звук и работу с контроллерами. Это был примитивный, но уже «встроенный» графический модуль. С другой стороны, военные проекты уровня Evans & Sutherland CT5 на базе мини-компьютеров DEC PDP‑11 стоили десятки миллионов долларов, доказывая, насколько дороги были реалистичные визуализации при нехватке доступного железа.

Nintendo сделала ставку на софт и маркетинг. В её 8-битной Famicom (вышедшей как NES в 1985 году) не было мощной графики, но были хитроумные игровые приёмы. А настоящие визуальные инновации пришли в 1990-х с Super Nintendo: 16-битным процессором, дополнительными ускорителями (вроде Super FX) и псевдотрёхмерной проекцией Mode 7, позволившей, например, трассам в Mario Kart выглядеть объёмно. Тем не менее, аркады всё ещё опережали домашние устройства: в 1984 году Atari представила автомат I, Robot, впервые использовавший полноценную 3D-графику.

Революция 3D в домашних ПК произошла с выходом карты Voodoo 1 от 3dfx в 1996 году. В отличие от других решений, она не замещала основную видеокарту, а активировалась только в режиме 3D. Правильно настроенная, она позволяла запускать Quake с частотой 40 кадров в секунду при разрешении 512×384 — небывалое на тот момент достижение. Конкуренты, включая ATI с 3D Rage Pro, спешили нагнать и предлагали первые приёмы сглаживания краёв.

Настоящим водоразделом стал анонс NVIDIA GeForce 256 в 1999 году — впервые прозвучал сам термин «graphics processing unit». Этот чип впервые объединил трансформации, освещение, растеризацию и шейдинг в одном устройстве, полностью сняв зависимость от CPU в графических расчётах. Это дало ПК возможность выводить полноценное 32-битное изображение в разрешениях, которые прежде были доступны только аркадным автоматам. Деморолики Quake III на фоне GeForce выглядели как смена эпохи — с чёткой картинкой и стабильным фреймрейтом.

В 2000-х началась борьба за архитектурное превосходство. В то время как NVIDIA доминировала на рынке ПК, ATI добилась решающего успеха в консолях. Xbox 360 в 2005 году получил графический чип Xenos, первый массовый GPU с унифицированной шейдерной архитектурой. Это означало, что ядра могли выполнять любые задачи — не только работу с вершинами, но и пиксельные вычисления — что резко повысило эффективность и частоту кадров. Именно такой подход стал стандартом в последующих поколениях видеокарт.

По мере усложнения игровых миров разработчики наращивали количество ядер и пропускную способность памяти, чтобы поддерживать динамическое освещение, физику и реалистичные текстуры. В этот момент учёные заметили: если видеокарта умеет отслеживать миллионы лучей, она может с такой же эффективностью решать задачи из области моделирования молекул, атмосферы, медицины и квантовой физики. С внедрением OpenCL появилась возможность объединять CPU и GPU в один вычислительный ресурс — так зародилась эпоха GPGPU, или универсальных вычислений на видеокартах.

Следующий всплеск вызвала криптовалюта. Для майнинга требовалась огромная параллельная мощность, и GPU оказались идеальным инструментом: они решали криптографические задачи в разы быстрее процессоров. С ростом стоимости Ethereum и Bitcoin в 2017 году видеокарты исчезли с прилавков, а цены взлетели. Пандемия и дефицит полупроводников лишь усугубили ситуацию. Скальперы скупали всё, магазины вводили лимиты, а попытки NVIDIA ограничить майнинг-драйверами оказались неэффективными. Только переход Ethereum на модель proof-of-stake снял нагрузку с потребительского рынка.

Тем временем NVIDIA делала ставку на нейросети. Архитектура Volta 2017 года представила тензорные ядра — блоки, оптимизированные под матричные вычисления, необходимые для обучения ИИ. Первые платы GV100 заняли нишу, но уже серия Tesla для дата-центров стала хитом. Позднее тензорные блоки появились и в потребительских GPU на архитектуре Turing, где также дебютировали RT-ядра — ускорители трассировки лучей в реальном времени. Всё это легло в основу DLSS — технологии, позволяющей выводить 4K-картинку при рендеринге в более низком разрешении.

Широкая публика ощутила силу GPU в 2022 году, когда вышел GPT-3 с интерфейсом ChatGPT. Его обучение потребовало тысяч видеокарт, объединённых через шину NVLink, способную передавать до 900 ГБ/с. В 2024 финансовом году доход NVIDIA от дата-центров достиг $18,4 млрд — рост более чем на 400% год к году. GPU H100 предоставил свыше 3 ТБ/с пропускной способности памяти и возможность разделять себя на несколько независимых экземпляров для параллельной работы.

На CES 2025 компания представила архитектуру Blackwell с удвоенной производительностью и пониженным энергопотреблением, нацеленной на обучение больших языковых моделей и управление роботами. NVIDIA также обозначила курс на автономные системы, включая роботов и транспорт — задачи, идеально ложащиеся на архитектуру параллельных вычислений .

Впереди, возможно, квантовые процессоры или оптические межсоединения. Но всё это — продолжение пути, начавшегося с 62×128 пикселей в небе аркадной игры. Скромный GPU, рождённый ради развлечений, стал краеугольным камнем современной вычислительной эпохи . И его история далека от завершения.