Графические ускорители: битва между AMD и NVIDIA
Графические процессоры (GPU) стали важной частью современной вычислительной техники, превратившись из устройств для рендеринга графики в критически важные компоненты для ИИ, обработки данных и высокопроизводительных вычислений. GPU состоят из множества вычислительных блоков, в основном простых арифметико-логических устройств (ALU), которые часто дополняются специализированными ядрами, такими как тензорные и RT ядра. Эти специализированные ядра позволяют параллельно обрабатывать сложные уравнения с векторами, матрицами и тензорами. В этой статье мы рассмотрим конкуренцию между AMD и NVIDIA, выясняя, почему AMD постоянно отстает от NVIDIA в ускорении GPU и гонке ИИ, и изучим исторические, технологические и стратегические факторы, которые сформировали это соперничество.
Понимание GPU и их компонентов
Чтобы понять, что происходит между AMD и NVIDIA, важно разобраться, что такое GPU и как они функционируют. GPU превосходят CPU в задачах параллельной обработки благодаря большому числу ALU и специализированным ядрам.
ALU и специализированные ядра
ALU составляют основу вычислительной мощности GPU, выполняя базовые операции, необходимые для рендеринга изображений и обработки данных. Современные GPU также включают тензорные ядра, оптимизированные для ИИ и глубокого обучения, и RT ядра, которые улучшают возможности трассировки лучей в реальном времени, обеспечивая реалистичное освещение и тени в графике.
Дискретная математика и линейная алгебра в GPU
Операции, выполняемые GPU, глубоко укоренены в дискретной математике и линейной алгебре. Векторы и матрицы являются фундаментальными структурами в этих областях, а тензоры расширяют эти концепции в более высокие измерения. Используя эти математические принципы, GPU могут выполнять сложные вычисления, необходимые для рендеринга графики, моделирования физических систем и обучения моделей ИИ.
Стратегические инвестиции NVIDIA
Доминирование NVIDIA на рынке GPU является результатом стратегических инвестиций в SDK, поддержку разработчиков и аппаратные инновации, которые охватывают широкий спектр приложений за пределами игр.
SDK и поддержка разработчиков
NVIDIA рано поняла, что надежные SDK и обширная поддержка разработчиков будут критически важными для поддержания лидерства. Их платформа CUDA, представленная в 2006 году, значительно упростила программирование GPU, позволяя разработчикам использовать параллельную вычислительную мощность GPU для общих вычислений. Этот стратегический шаг позиционировал NVIDIA как лидера не только в играх, но и в научных вычислениях, ИИ и анализе данных.
Аппаратные инновации
NVIDIA постоянно продвигала границы с аппаратными усовершенствованиями. Введение тензорных ядер в их архитектуре Volta в 2017 году стало значительным шагом в повышении возможностей обработки ИИ. Эти ядра предназначены для ускорения умножений матриц, которые необходимы для обучения нейронных сетей. RT ядра, введенные в архитектуре Turing в 2018 году, принесли трассировку лучей в реальном времени на потребительские графические карты, установив новый стандарт реалистичности визуальных эффектов в играх.
Упущенные возможности AMD
Пока NVIDIA прокладывала себе путь вперед, AMD изо всех сил пыталась не отставать. Несколько факторов способствовали отставанию AMD в гонке GPU, включая недостаточное внимание к ИИ и недостаточную поддержку разработчиков.
Задержка поддержки трассировки лучей и ИИ
AMD не представила аппаратную поддержку трассировки лучей и ИИ до выхода архитектуры RDNA 2 в 2020 году. К тому времени NVIDIA уже укрепила свои позиции с серией RTX, оснащенной как тензорными, так и RT ядрами. Поздний выход AMD на эти критически важные технологии оставил их в положении догоняющих на рынках, где NVIDIA уже установила стандарты.
Рыночный фокус и стратегические ошибки
Стратегический фокус AMD исторически был ориентирован на потребителей, особенно на игровые и консольные рынки. Этот подход обеспечил партнерство с крупными производителями консолей, такими как Sony и Microsoft, но оставил AMD менее подготовленной к конкуренции на развивающихся рынках ИИ и облачных вычислений. Более того, мобильное подразделение GPU AMD было продано Qualcomm, который интегрировал его в свои системы на чипе Snapdragon, в качестве модуля интегрированной графики.
Этот шаг уменьшил присутствие AMD на мобильном рынке и позволил Qualcomm доминировать на рынке мобильных GPU, превзойдя даже Apple по доле рынка и выручки. Так и ещё больше усилил разрыв AMD в секторе графических вычислений, так как вместе с правами на технологию компанию покинули и специалисты занимавшиеся графикой в мобильном подразделение.
В то же время NVIDIA, не смотря на неудачные попытки самостоятельного выхода на мобильный рынок в качестве производителя игровых консолей и ТВ-приставок NVIDIA-Shield, преуспела как производитель и поставщик своих мобильных SoC для крупных корпоративных клиентов. Так Nvidia Tegra лежит в основе 141 миллиона одних только консолей Nintendo Switch и сотен тысяч единиц электрокаров Tesla, а также множества другой электроники.
Хотя в случае с Tesla, с 2021 года новые модели также начали оснащаться CPU и GPU от AMD. Также в планах у Илона, перейти полностью на свои ИИ-чипы Dojo как для обучения, так и для использования в электрокарах, но пока что судя по имеющейся в индустрии информации, это тот случай когда Илон обещая перевернуть рынок порождает решение отстающее на несколько поколений от имеющихся на рынке аналогов. Забитый пробками Hyperloop — передаёт привет.
* Лучший чип в мире.* По мнению Илона Маска.
Анонс разработки AI-чипа был сделан в 2019 году, хотя разработка и представляется как самостоятельной от Tesla, по слухам, в разработке участвуют не только бывшие топ-инженеры AMD, как Джим Келлер — глава отдела разработки автопилота в Tesla, но и сама AMD непосредственно.
Гонка ИИ: явное лидерство NVIDIA
Активный подход NVIDIA к ИИ поставил их значительно впереди AMD. Их GPU повсеместно используются в дата-центрах, обеспечивая все, от исследований в области ИИ до облачных сервисов.
Тензорные ядра и ИИ фреймворки
Введение тензорных ядер дало NVIDIA значительное преимущество в ИИ. Эти ядра оптимизированы для задач глубокого обучения, позволяя быстрее и эффективнее обучать нейронные сети. NVIDIA также разработала комплексные ИИ фреймворки, такие как TensorFlow и PyTorch, которые сейчас являются отраслевыми стандартами. Создавая экосистему вокруг своего оборудования, NVIDIA обеспечила, что разработчики будут предпочитать их GPU для приложений ИИ.
Доминирование в дата-центрах
GPU NVIDIA стали основой дата-центров по всему миру. Их производительность в сочетании с надежной программной поддержкой делает их предпочтительным выбором для задач ИИ и высокопроизводительных вычислений. AMD, с другой стороны, изо всех сил пытается завоевать позицию на этом прибыльном рынке. Их фокус на потребительских GPU оставил их менее подготовленными к конкуренции в дата-центрах, где доминируют специально разработанные решения NVIDIA.
Трассировка лучей: глубокий анализ
Трассировка лучей, несмотря на то, что является современным стандартом в компьютерной графике, имеет свои корни в работах Альбрехта Дюрера. В своем трактате «Underweysung der Messung» (1525) он впервые описал технику, которая сегодня известна как «трассировка лучей». Эта техника позволяет создавать точные изображения 3D объектов на 2D поверхностях, следя за путями лучей света от глаза к объектам и обратно.
В основе трассировки лучей лежит решение уравнения рендеринга, которое моделирует транспорт света в сцене. Алгоритм работает, отслеживая лучи от глаза зрителя к источникам света, определяя, как свет взаимодействует с поверхностями на этих путях. Это взаимодействие включает в себя расчет отражений, преломлений и теней, что необходимо для достижения фотореалистичных изображений.
Path Tracing
Path tracing — это усовершенствованная форма трассировки лучей, которая отслеживает сотни или тысячи лучей через каждый пиксель, следя за их путями через многочисленные отражения и преломления до достижения источника света. Этот метод позволяет более точно моделировать рассеивание света в сцене, обеспечивая высокий уровень фотореализма.
Разработанный Джимом Каджия в 1986 году, метод path tracing применяет статистические техники для решения уравнения рендеринга, используя методы Монте-Карло для выбора управляемого числа путей к источнику света.
RT ядра
RT ядра Nvidia специально разработаны для ускорения наиболее вычислительно сложных частей трассировки лучей. Эти ядра улучшают пересечение объемов ограничивающих коробок (BVH), которые являются древовидными структурами, организующими пространственные отношения между объектами в сцене. Ускоряя пересечение BVH, RT ядра значительно сокращают время, необходимое для расчета пересечений лучей с объектами, позволяя выполнять трассировку лучей в реальном времени в играх и приложениях.
Будущее GPU: сможет ли AMD догнать?
Хотя AMD сделала значительные успехи в последние годы, разрыв между ними и NVIDIA остается значительным. Архитектура RDNA 2 от AMD приблизила их к уровню трассировки лучей и игровой производительности, но доминирующее положение NVIDIA в области ИИ и дата-центров представляет собой серьезный вызов.
Перспективы AMD
Чтобы сократить разрыв, AMD необходимо будет значительно инвестировать в технологии ИИ и облачных вычислений. Их недавнее приобретение Xilinx, лидера в области адаптивных вычислений, может дать необходимыйприлив сил. Экспертиза Xilinx в области FPGA и адаптивных SoC может помочь AMD разработать более конкурентоспособные решения для ИИ. Однако для преодоления лидирующих позиций NVIDIA потребуются не только технологические достижения, но и изменение стратегического фокуса в сторону поддержки разработчиков и создания экосистемы. Чего до сих пор не сильно заметно, большая часть фреймворков и библиотек для машинного обучения показывает более высокую производительность на видеокартах NVIDIA, либо вовсе поддерживает только CUDA.
Преимущество в виде Open Source драйверов для Linux тоже перестаёт быть козырем, так как произошло невероятное и за последние годы NVIDIA совершила гигантские скачки в сторону открытия части исходников своих драйверов для Linux.
Пути развития NVIDIA
NVIDIA не показывает признаков замедления. Их продолжающиеся инвестиции в ИИ, машинное обучение и технологии для дата-центров скорее всего обеспечат то, что они сохранят текущее лидерство. Предстоящие архитектуры и инновации, вероятно, еще больше укрепят их доминирование. Кроме того, выход NVIDIA на рынок процессоров с ARM-базированными процессорами Grace указывает на стратегическое расширение, которое может интегрироваться с их предложениями GPU.
А там уж на горизонте маячит и партнёрство с Mediatek, да и линейка Tegra чувствует себя неплохо.
Заключение
Битва между AMD и NVIDIA на рынке GPU — это сложная история стратегических решений, технологических инноваций и рыночной динамики. Ранние инвестиции NVIDIA в ИИ и экосистемы для разработчиков дали им значительное преимущество, в то время как потребительская ориентация AMD и задержка с поддержкой ключевых технологий оставили их позади. Хотя AMD добилась значительных успехов, догнать NVIDIA потребует скоординированных усилий и значительных инвестиций в технологии ИИ и дата-центры. По мере того, как спрос на ускорение GPU продолжает расти в различных отраслях, конкуренция между этими двумя гигантами несомненно будет формировать будущее вычислительной техники.
Ну, а если же вам интересно то что есть сейчас, а не то что будет в будущем, мы в ITGLOBAL.COM можем предложить наш сервис AI Cloud, который подойдёт под любые ваши нужды в задачах обучения и запуска нейросетей. К слову, в нашем Нидералндском филиале у нас случилось крайне занимательное пополнение в рядах зелёных тружениц AI Cloud, прямо от дяди Хуанга. Но об этом — уже в другом посте.