Intel создал технологию универсального “мультивидеоадаптера”

Поскольку все крупные IT-мероприятия — выставки, презентации и конференции — отменены, компании представляют свои наработки в форме онлайн-трансляций или вовсе просто выкладывая приготовленные ранее материалы в публичный доступ. Так поступил и Intel, в одном из роликов на своем YouTube-канале рассказавший о довольно интересном способе объединить вычислительные мощности видеокарты и встроенного в процессор видеоядра — технологии Multi-Adapter.
Intel создал технологию универсального «мультивидеоадаптера»
4adf7c0ce1b0822acf6f0eee5edae0c7_cropped
24 марта 2020 16:34

Само собой, идея не новая: подобная разработка была и у главного конкурента — AMD, но она работала только с фирменными чипами и дискретными видеоадаптерами (GPU), да и особого успеха не снискала. Тем не менее, постепенно проигрывая битву за сердца и кошельки клиентов, Intel планирует в этом году знатно отыграться. Во‑первых, в скором времени на рынке появится полноценная видеокарта DG1 от этого производителя. А во-вторых, в помощь к грядущей новинке была представлена технология объединения GPU и встроенного в процессор видеоядра (такие чипы называются APU).

Использование нескольких графических процессоров одновременно возможно давно и необходимый код присутствует в библиотеках DirectX и OpenGL. Проблема в сфере и стратегии применения. Всего существует три варианта: последовательная обработка кадров двумя видеоадаптерами, передача одному из адаптеров задач по обработке вычислительных шейдеров и асинхронное распределение вычислений разного типа (тени, ИИ, физика объектов и тому подобное). В первом случае встроенное видеоядро недостаточно мощное, чтобы обсчитывать кадры наравне с внешней видеокартой, поэтому итоговая картинка будет очень сильно «скакать», так что данный вариант не рассматривается.

Intel представил технологию Multi-Adapter, позволяющую объединять любые видеокарты со встроенным в фирменные процессоры компании видеоядром Основной бонус от такого подхода заключается в следующем. Обычно, чтобы координировать свои действия несколько видеоадаптеров должны использовать общую память (оперативную или часть графической) и синхронизировать ее. На это затрачивается немало ресурсов, что и не позволяет никогда увидеть двукратный рост производительности в тандемных сборках GPU. Для видеоадаптера оперативная память процессора является и собственной графической, так что его «затраты» на синхронизацию едва ли не вполовину меньше — нет нужды в промежуточном буфере

А вот передача «на откуп» APU части шейдеров (специфических микропрограмм обработки графики или вычислений на GPU) и даже распределение различных «побочных» задач графического процессора — перспективное направление. Благодаря относительно проторенной дороге, инженерам Intel не потребовалось изобретать сверхсложные программные комплексы и демонстрационный код работает практически на любой современной системе. На GitHub есть упоминания связок Intel HD Graphics 530 и AMD Radeon RX 480, а также HD 630 и NVidia GeForce RTX 2080 Ti, а в видео — HD 630 и Radeon RX 580. То есть модель внешнего видеоадаптера практически не важна.

Стоит отметить, что на данный момент производительность такого решения не оценивается, это лишь демонстрация технологии. Возможно, раз первый блин почти всегда комом, Intel собирается с помощью Multi-Adapter компенсировать некоторое отставание своей новой видеокарты в части вычислительной мощности от аналогов AMD и NVidia. В любом случае, подобный подход может быть весьма полезен в различных компьютерах, не оснащенных самыми мощными GPU — среднебюджетных ноутбуках, например.

Ещё больше по темам

Обсудить 0

Лучшее за неделю
Читайте также

©  Популярная Механика