Как видеокарты помогают ИИ стать умнее

Видеокарты называются так не зря: традиционно они используются для создания графики в компьютерных играх. Но в последнее время видеокарты всё чаще служат для, казалось бы, необычных задач — обучения ИИ. И тут не всё так просто

Работа ИИ основана на сложных математических моделях, которые обрабатывают большие объёмы данных. Прежде всего это перемножение матриц — наборов параметров, своего рода математических таблиц. Матричное умножение особенно важно для обучения нейросетей: ИИ умножает матрицы миллионами.

Создатели процессоров годами, десятилетиями развивали традиционные технологии для решения традиционных задач. ИИ появились пару лет назад — и смешали все карты: оказалось, что даже супермощные компьютерные процессоры плохо подходят для их нужд. А вот «геймерские» видеокарты вполне годятся.

Почему видеокарты хороши для ИИ

Потому что видеокарты решают задачи, сходные с задачами ИИ: совершать много параллельных вычислений, опираясь на матрицы. Ведь изображение в компьютерных играх строится похожим образом: картинку рендерят из треугольников или прямоугольников, обрабатывая их матрицами.

Обычные процессоры (CPU) проектируются для выполнения последовательных задач с высокой тактовой частотой. Но количество ядер в процессоре ограничено: в среднем 4–16 в потребительских моделях и несколько десятков в серверных версиях. Даже при поддержке многопоточности CPU хуже подходят для массового параллелизма.

По оценке Nvidia, с 2003 года производительность графических процессоров выросла в 7 тысяч раз.

К примеру, для перемножения больших матриц на CPU каждое ядро выполняет часть операций последовательно или распределяет задачу между малым числом потоков. При этом большая часть времени уходит на ожидание. Иными словами, в работе с ИИ CPU похожи на силачей, которым приходится поднимать миллион маленьких гирек.

А у видеокарт всё устроено иначе: в них много небольших ядер с маленьким кешем. В современных видеокартах может быть до 10 тысяч ядер, которые связаны с высокоскоростной памятью GDDR или HBM со скоростью до 1 ТБ/с. Для ИИ GPU — это тысяча небольших силачей, которым гирьки по размеру (и работают они куда быстрее).

Видеокарта может «крутить матрицы» в десятки раз быстрее, чем обычный процессор с той же тактовой частотой.

Как видеокартам помогают CUDA-языки

CUDA — это технология ускорения параллельных вычислений. Она помогает разработчикам вручную оптимизировать задачи ИИ под аппаратные возможности видеокарт.

Ядро CUDA — это программируемый процессор, способный выполнять вычисления одновременно с миллионами параллельных потоков. Ядро состоит из специального набора команд, называемого ассемблером CUDA.

Грубо говоря, CUDA от Nvidia позволяет превращать обычные вычислительные задачи в графические, как бы обманывая видеокарту — и помогая ей работать на максимальной мощности.

Для CUDA уже выпускают специальные видеокарты. Например, Nvidia A100 Tensor Core GPU: 6912 CUDA-ядер, поддержка FP32, FP16 и INT8, пропускная способность памяти более 1,5 ТБ/с.

Но не всё так прекрасно

Несмотря на очевидные преимущества, у видеокарт для работы ИИ есть и недостатки:

  • Высокая стоимость: современные ускорители ИИ, такие как Nvidia H100, стоят десятки тысяч долларов.

  • Энергопотребление: у топовых GPU оно может превышать 400 Вт, что увеличивает затраты на содержание серверных ферм.

  • Тепловыделение: для работы GPU необходима сложная система охлаждения.

При этом потребность в мощных вычислительных средствах для ИИ только растёт. Поэтому производители чипов отходят от «тюнинга» дорогих видеокарт и выпускают специализированные ИИ-процессоры и серверы для работы нейросетей. Их ближайшая задача — сделать так, чтобы ИИ работал ещё быстрее, при этом чипы были дешевле и тратили меньше энергии.

Битва на видеокартах

В конце января 2025 года искусственный интеллект даже смог порядком потрясти корпорации: за несколько дней IT-гиганты потеряли в сумме более 600 млрд долларов капитализации. Всё дело в том, что новый ИИ из Китая, DeepSeek, показал результат, сопоставимый с тем, что выдаёт популярный ChatGPT, — или даже превзошёл его. При этом DeepSeek потребовалось всего 2,7 млн часов обучения на 2048 чипах Nvidia H800 — это стоило не более 6 млн долларов. В то время как обучение ChatGPT обошлось примерно в 600 млн долларов, а Илон Маск для своего нового суперкомпьютера Colossus закупил чипы Nvidia H100 на 3 млрд долларов. В результате акции производителей чипов резко упали — хотя обе нейронки обучались на чипах особенно пострадавшей Nvidia.

Это был по-настоящему «большой бум» для индустрии ИИ. Оказалось, что можно создавать передовые модели на не самых передовых чипах и относительно дёшево. При этом DeepSeek распространяется свободно — можно буквально скачать ИИ себе на компьютер и пользоваться им локально.

Судя по всему, скоро появятся ещё более мощные нейронки, которые при этом будут обучаться быстрее и дешевле. Так что, если у вас дома лежит без дела старая видеокарта, не выбрасывайте её: возможно, пригодится для создания своего супермощного ИИ.

Краткий пересказ от YandexGPT