Как видеокарты помогают ИИ стать умнее
Работа ИИ основана на сложных математических моделях, которые обрабатывают большие объёмы данных. Прежде всего это перемножение матриц — наборов параметров, своего рода математических таблиц. Матричное умножение особенно важно для обучения нейросетей: ИИ умножает матрицы миллионами.
Создатели процессоров годами, десятилетиями развивали традиционные технологии для решения традиционных задач. ИИ появились пару лет назад — и смешали все карты: оказалось, что даже супермощные компьютерные процессоры плохо подходят для их нужд. А вот «геймерские» видеокарты вполне годятся.
Почему видеокарты хороши для ИИ
Потому что видеокарты решают задачи, сходные с задачами ИИ: совершать много параллельных вычислений, опираясь на матрицы. Ведь изображение в компьютерных играх строится похожим образом: картинку рендерят из треугольников или прямоугольников, обрабатывая их матрицами.
Обычные процессоры (CPU) проектируются для выполнения последовательных задач с высокой тактовой частотой. Но количество ядер в процессоре ограничено: в среднем 4–16 в потребительских моделях и несколько десятков в серверных версиях. Даже при поддержке многопоточности CPU хуже подходят для массового параллелизма.
По оценке Nvidia, с 2003 года производительность графических процессоров выросла в 7 тысяч раз.
К примеру, для перемножения больших матриц на CPU каждое ядро выполняет часть операций последовательно или распределяет задачу между малым числом потоков. При этом большая часть времени уходит на ожидание. Иными словами, в работе с ИИ CPU похожи на силачей, которым приходится поднимать миллион маленьких гирек.
А у видеокарт всё устроено иначе: в них много небольших ядер с маленьким кешем. В современных видеокартах может быть до 10 тысяч ядер, которые связаны с высокоскоростной памятью GDDR или HBM со скоростью до 1 ТБ/с. Для ИИ GPU — это тысяча небольших силачей, которым гирьки по размеру (и работают они куда быстрее).
Видеокарта может «крутить матрицы» в десятки раз быстрее, чем обычный процессор с той же тактовой частотой.
Как видеокартам помогают CUDA-языки
CUDA — это технология ускорения параллельных вычислений. Она помогает разработчикам вручную оптимизировать задачи ИИ под аппаратные возможности видеокарт.
Ядро CUDA — это программируемый процессор, способный выполнять вычисления одновременно с миллионами параллельных потоков. Ядро состоит из специального набора команд, называемого ассемблером CUDA.
Грубо говоря, CUDA от Nvidia позволяет превращать обычные вычислительные задачи в графические, как бы обманывая видеокарту — и помогая ей работать на максимальной мощности.
Для CUDA уже выпускают специальные видеокарты. Например, Nvidia A100 Tensor Core GPU: 6912 CUDA-ядер, поддержка FP32, FP16 и INT8, пропускная способность памяти более 1,5 ТБ/с.
Но не всё так прекрасно
Несмотря на очевидные преимущества, у видеокарт для работы ИИ есть и недостатки:
-
Высокая стоимость: современные ускорители ИИ, такие как Nvidia H100, стоят десятки тысяч долларов.
-
Энергопотребление: у топовых GPU оно может превышать 400 Вт, что увеличивает затраты на содержание серверных ферм.
-
Тепловыделение: для работы GPU необходима сложная система охлаждения.
При этом потребность в мощных вычислительных средствах для ИИ только растёт. Поэтому производители чипов отходят от «тюнинга» дорогих видеокарт и выпускают специализированные ИИ-процессоры и серверы для работы нейросетей. Их ближайшая задача — сделать так, чтобы ИИ работал ещё быстрее, при этом чипы были дешевле и тратили меньше энергии.
Битва на видеокартах
В конце января 2025 года искусственный интеллект даже смог порядком потрясти корпорации: за несколько дней IT-гиганты потеряли в сумме более 600 млрд долларов капитализации. Всё дело в том, что новый ИИ из Китая, DeepSeek, показал результат, сопоставимый с тем, что выдаёт популярный ChatGPT, — или даже превзошёл его. При этом DeepSeek потребовалось всего 2,7 млн часов обучения на 2048 чипах Nvidia H800 — это стоило не более 6 млн долларов. В то время как обучение ChatGPT обошлось примерно в 600 млн долларов, а Илон Маск для своего нового суперкомпьютера Colossus закупил чипы Nvidia H100 на 3 млрд долларов. В результате акции производителей чипов резко упали — хотя обе нейронки обучались на чипах особенно пострадавшей Nvidia.
Это был по-настоящему «большой бум» для индустрии ИИ. Оказалось, что можно создавать передовые модели на не самых передовых чипах и относительно дёшево. При этом DeepSeek распространяется свободно — можно буквально скачать ИИ себе на компьютер и пользоваться им локально.
Судя по всему, скоро появятся ещё более мощные нейронки, которые при этом будут обучаться быстрее и дешевле. Так что, если у вас дома лежит без дела старая видеокарта, не выбрасывайте её: возможно, пригодится для создания своего супермощного ИИ.