Видеоускоритель Nvidia GeForce RTX 4080 (16 ГБ): теория/архитектура, описание карты Palit, синтетические, игровые тесты (включая тесты с трассировкой лучей), выводы

Особенности архитектуры

Совсем недавно компания Nvidia анонсировала новую графическую архитектуру Ada Lovelace, которая продолжила дело предыдущих поколений Turing и Ampere, обеспечив значительно более высокую производительность в графических и неграфических применениях, и особенно — при аппаратной трассировке лучей. Новые графические процессоры оказались в полтора-два раза производительнее предыдущих при растеризации и трассировке лучей, и обеспечивают даже еще большее преимущество с учетом технологии увеличения производительности DLSS 3.

Графические процессоры архитектуры Ada Lovelace поддерживают DLSS 3, которая отличается генерацией дополнительных кадров на основе существующих, для чего используется движок Optical Flow Accelerator, который занимается синтезом новых кадров. RT-ядра новой архитектуры обеспечивают вдвое большую производительность теста пересечения луча и треугольника, а также имеют и дополнительные аппаратные блоки: Opacity Micromap Engine — ускоряющий трассировку полупрозрачной геометрии до двух раз, и Displaced Micro-Mesh Engine — использующий микротреугольники для достижения большей геометрической сложности. Еще более важным изменением новой архитектуры, связанным с трассировкой лучей, является изменяемый порядок шейдерных вычислений — Shader Execution Reordering, который может дать до 40%-50% прироста производительности при интенсивной трассировке.

Создать сложные и большие GPU новой архитектуры с увеличенной производительностью при сохранившемся уровне потреблении энергии, позволил новый техпроцесс — модифицированный под потребности Nvidia процесс TSMC 4N с технологическими нормами 5 нм. Обзор топового GPU новой линейки у нас уже был, а сегодня мы рассмотрим средний из трех графических процессоров, анонсированных в октябре. Чип AD103 содержит 45,9 миллиарда транзисторов, а основанная на нем видеокарта GeForce RTX 4080 имеет пиковую вычислительную производительность до 49 терафлопс, что значительно превышает возможности GeForce RTX 3080 Ti в 34 терафлопса, а если учесть все технологии семейства Ada Lovelace, направленные на повышение эффективности GPU, то эта разница в некоторых случаях может достичь и двукратной.

Итак, Nvidia заявляет, что GeForce RTX 4080 до двух раз производительнее, чем GeForce 3080 Ti — при той же рекомендованной цене на старте продаж и при меньшем на 10% энергопотреблении. А вместе с технологией DLSS 3, новая модель может отрисовать до трех раз большее количество кадров в секунду, по сравнению с все той же RTX 3080 Ti — например, в таких вычислительно тяжелых случаях с применением трассировки лучей, как демонстрационная программа Racer RTX и игра Cyberpunk 2077 в специальном режиме RT: Overdrive, появление которого ожидается в ноябре-декабре.

Новая модель видеокарты также отлично подходит для применения в профессиональных задачах по созданию цифрового контента — она высокопроизводительная, имеет достаточно большой объем видеопамяти для рендеринга больших 3D-сцен и работы с видеороликами высокого разрешения, а также позволит комфортно работать в нескольких таких приложениях одновременно. В общем, GeForce RTX 4080 предназначена для обеспеченных игроков и профессионалов, которые хотят получить близкую к максимальной производительности при меньшей цене, по сравнению с топовой моделью линейки. Она предназначена исключительно для 4K-разрешения и максимальных графических настроек.

Так как графическая архитектура Ada Lovelace во многом схожа с архитектурой Ampere, на которой основаны различные модификации чипов GA10x, обе эти архитектуры имеют достаточно много общего и с предыдущими архитектурами Turing и Volta, то перед прочтением материала будет полезно ознакомиться с нашими предыдущими статьями по теме:

Графический ускоритель GeForce RTX 4080
Кодовое имя чипа AD103
Технология производства 5 нм (TSMC 4N)
Количество транзисторов 45,9 млрд
Площадь ядра 378,6 мм²
Архитектура унифицированная, с массивом процессоров для потоковой обработки любых видов данных: вершин, пикселей и др.
Аппаратная поддержка DirectX DirectX 12 Ultimate, с поддержкой уровня возможностей Feature Level 12_2
Шина памяти 256-битная: 8 независимых 32-битных контроллеров памяти с поддержкой памяти типа GDDR6X
Частота графического процессора до 2510 МГц
Вычислительные блоки 76 (из 80 в полном чипе) потоковых мультипроцессоров, включающих 9728 (из 10240) CUDA-ядра для целочисленных расчетов INT32 и вычислений с плавающей запятой FP16/FP32/FP64
Тензорные блоки 304 (из 320) тензорных ядра для матричных вычислений INT4/INT8/FP16/FP32/BF16/TF32
Блоки трассировки лучей 76 (из 80) RT-ядер для расчета пересечения лучей с треугольниками и ограничивающими объемами BVH
Блоки текстурирования 304 (из 320) блока текстурной адресации и фильтрации с поддержкой FP16/FP32-компонент и поддержкой трилинейной и анизотропной фильтрации для всех текстурных форматов
Блоки растровых операций (ROP) 14 широких блоков ROP на 112 пикселей с поддержкой различных режимов сглаживания, в том числе программируемых и при FP16/FP32-форматах буфера кадра
Поддержка мониторов поддержка HDMI 2.1 и DisplayPort 1.4a (со сжатием DSC 1.2a)
Спецификации референсной видеокарты GeForce RTX 4080
Частота ядра 2210/2510 МГц
Количество универсальных процессоров 9728
Количество текстурных блоков 304
Количество блоков блендинга 112
Эффективная частота памяти 22,4 ГГц
Тип памяти GDDR6X
Шина памяти 256-бит
Объем памяти 16 ГБ
Пропускная способность памяти 717 ГБ/с
Вычислительная производительность (FP32) до 48,7 терафлопс
Теоретическая максимальная скорость закраски 281 гигапикселей/с
Теоретическая скорость выборки текстур 762 гигатекселей/с
Шина PCI Express 4.0×16
Разъемы по выбору производителя
Энергопотребление до 320 Вт
Дополнительное питание один 16-контактный разъем
Число слотов, занимаемых в системном корпусе по выбору производителя
Рекомендуемая цена $1199

Название рассматриваемой сегодня модели видеокарты из нового семейства соответствует принципу наименования решений компании — изменилась лишь первая цифра поколения. GeForce RTX 4080 стоит на шаг ниже топовой модели, рассмотренной нами ранее. Из интересного — в Nvidia за октябрь догадались, что называть одинаково две абсолютно разные видеокарты RTX 4080 с 16 ГБ и 12 ГБ было плохой идеей, и выход второго варианта, основанного на чипе AD104, отменили. По слухам, он выйдет в виде модели RTX 4070 Ti в январе, и это будет уже куда более корректным названием для видеокарты с такими характеристиками.

На рынке видеокарт у RTX 4080 пока что нет конкуренции, но решения нового семейства AMD уже объявлены и ожидаются в продаже с середины декабря. Конкурент привычно будет брать несколько меньшей ценой и ее сочетанием с близким уровнем производительности, но… только в растеризации, скорее всего. При первой же возможности мы протестируем все новинки и в трассировке лучей, но даже по данным самой AMD, их новое поколение по эффективности аппаратной трассировки догоняет разве что Ampere, но не Ada. А ведь именно производительность трассировки лучей становится важнейшей для новых графических процессоров, так как скорости растеризации для топовых GPU уже давно достаточно, чтобы обеспечить сотни кадров в секунду, а вот с трассировкой достичь 60 FPS получается не всегда.

С объемом видеопамяти новой видеокарты Nvidia всё сделала верно и в соответствии с шириной шины памяти — 16 ГБ для RTX 4080 кажутся попаданием в золотую середину на данный момент. Вряд ли наличие 20–24 ГБ видеопамяти против 16 ГБ принесет преимущество конкуренту новинки в виде Radeon RX 79xx — по крайней мере, в существующих играх, хотя как некоторый запас прочности на будущие проекты это превосходство рассматривать можно. В любом случае, пока что 16 ГБ памяти будет вполне достаточно при любых графических настройках.

Как и RTX 4090, модель RTX 4080 предлагается и в варианте самой Nvidia — в виде решений специального издания Founders Edition. Для подобных видеокарт прошлого поколения, в частности моделей GeForce RTX 3090 и RTX 3080, инженеры компании Nvidia придумали специальный дизайн со сквозной продувкой радиатора в задней части, и системы охлаждения GeForce RTX 4090 и 4080 выглядят схоже с дизайном того кулера, но он был дополнительно улучшен для повышения эффективности системы охлаждения. Для увеличения потока воздуха в FE-модели семейства Ada Lovelace были установлены вентиляторы большего размера, также они получили более качественные подшипники. В результате, система охлаждения Founders Edition вариантов RTX 4090 и RTX 4080 при том же уровне шума обеспечивает воздушный поток на 15% больше, по сравнению с RTX 3090.

Понятно, что для питания новых карт используется новый 16-контактный разъем питания PCIe 5.0, который мы видели на GeForce RTX 3090 Ti, ставший стандартом для ATX 3.0. Блоки питания с подобным разъемом уже представлены на рынке, ну или можно обойтись переходником с трех или четырех привычных 8-контактных разъемов. Правда, в последнее время у некоторых пользователей RTX 4090 возникли проблемы с оплавлением новых разъемов, и до сих пор не полностью понятно, что является главной причиной этих проблем, качество переходников или излишний изгиб кабелей. Понятно одно — у нового разъема слишком мал запас прочности, и даже небольшие проблемы с надежностью контактов могут привести к оплавлению разъема. Впрочем, конкретно RTX 4080 это касается в меньшей мере, так как уровень энергопотребления для нее установлен в 320 Вт, и проблем с ней быть не должно.

Партнеры компании Nvidia, производящие видеокарты, анонсировали и выпустили на рынок по несколько решений собственного дизайна, включая разогнанные варианты, имеющие весьма массивные системы охлаждения. Модели GeForce RTX 4080 уже доступны в разных модификациях у партнеров компании: Asus, Colorful, Gainward, Galaxy, Gigabyte, Innovision 3D, MSI, Palit, PNY и Zotac. Кроме этого, на этих видеокартах будут основаны и готовые игровые системы компаний Acer, Alienware, Asus, Dell, HP, Lenovo и MSI.

В линейке видеокарт GeForce RTX 40 применяются графические процессоры AD10x, основанные на графической архитектуре Ada Lovelace. Инженеры компании Nvidia создали графическую архитектуру, которая не только кратно повысила производительность операций трассировки лучей и машинного вычисления на тензорных ядрах, но и предоставила некоторые новые возможности, позволяющие еще больше повысить качество и производительность, в чем помог переход на продвинутый технологический процесс 4N тайваньской компании TSMC, который позволил поместить в AD10x большое количество CUDA-ядер и других исполнительных блоков. Новые чипы получились более сложными, но при этом они работают на высокой тактовой частоте — турбо-частота новинок заметно выше, чем у предыдущих решений.

Графический процессор AD103 включает в себя все возможности и особенности AD102 из топового решения, включая RT-ядра третьего поколения и тензорные ядра четвертого — то есть, поддерживает все улучшения трассировки лучей, а также DLSS 3 и новый ускоритель оптического потока OFA. Чип AD103 в составе модели видеокарты GeForce RTX 4080 обеспечивает высокий уровень производительности — более чем у флагманского решения на чипе GA102 предыдущего поколения, и при гораздо меньшем энергопотреблении.

Как и все графические процессоры компании Nvidia, чип состоит из укрупненных кластеров Graphics Processing Cluster (GPC), которые включают несколько кластеров текстурной обработки Texture Processing Cluster (TPC), содержащих потоковые процессоры Streaming Multiprocessor (SM), блоки растеризации ROP и контроллеры памяти. Как и в предыдущих архитектурах, кластер GPC самостоятельно производит все основные вычисления внутри кластера, и включает свой движок растеризации Raster Engine, шесть кластеров TPC, состоящих из 12 мультипроцессоров SM. Рассмотрим диаграмму графического процессора — в его урезанной конфигурации для GeForce RTX 4080:

Чип AD103 содержит 45,9 миллиардов транзисторов и полная его версия включает 7 вычислительных кластеров GPC, 40 кластеров текстурной обработки TPC, 80 потоковых мультипроцессоров SM и восемь 32-битных контроллеров памяти (256-бит всего). В целом, полноценный GPU содержит 10240 CUDA-ядра, 80 RT-ядер, 320 тензорных ядер, 320 текстурных блока TMU и 112 блоков ROP. Подсистема памяти включает 10240 КБ L1-кэша, 20480 КБ регистрового файла и 64 МБ L2-кэша.

На основе графического процессора AD103 выпущена модель видеокарты GeForce RTX 4080, имеющая GPU с парой отключенных кластеров TPC и четыре неактивных SM в одном из кластеров GPC. Соответственно снижено и количество большинства исполнительных блоков: осталось активными 9728 CUDA-ядер, 304 блока TMU и столько же тензорных ядер, 76 RT-ядер. А вот подсистему памяти не урезали — все контроллеры активны, что дает чипу 256-битную шину памяти. То же самое и с блоками ROP, их тут тоже 112 штук, как и в полном чипе. Количество блоков растеризации возросло по сравнению с аналогами из семейства Ampere, что должно сказаться при упоре в скорость растеризации, что иногда встречается в играх.

Каждый мультипроцессор в чипах AD10x содержит по 128 CUDA-ядер, по одному RT-ядру третьего поколения, по четыре тензорных ядра четвертого поколения, по четыре текстурных блока TMU, регистровый файл на 256 КБ и 128 КБ L1-кэша или разделяемой памяти, объем которых конфигурируется по необходимости. Всего RTX 4080 содержит 9728 КБ кэш-памяти первого уровня, по сравнению с 10752 КБ в топовой версии прошлого поколения — RTX 3090 Ti.

Память в GeForce RTX 4080 применяется уже знакомая нам GDDR6X, но в случае новой модели ее эффективная рабочая частота составляет рекордные 22,4 ГГц — и общая пропускная способность памяти в случае GeForce RTX 4080 равна 717 ГБ/с, что не так мало, но все же меньше, чем у тех же RTX 3090 и 3090 Ti из предыдущего поколения. Это один из потенциальных недостатков новой видеокарты — в каких-то случаях ее производительность может упереться в ПСП. Общий объем видеопамяти составляет 16 ГБ, и этого вполне достаточно для решения такого уровня.

Как и в топовом чипе, значительно вырос объем кэш-памяти второго уровня — тут его 64 МБ, в отличие от лишь 6 МБ в RTX 3080 Ti, например. Многие приложения получают преимущество от столь объемной кэш-памяти — в частности, большой объем L2-кэша положительно сказывается в сложных вычислительных задачах, при аппаратной трассировке лучей, да и при растеризации — особенно в играх и тестах с большим количество полупрозрачных частиц, вроде бенчмарка FireStrike из пакета 3DMark.

Сравним теоретические показатели двух уже выпущенных моделей видеокарт серии GeForce RTX 40, основанных на разных чипах AD10x, с некоторыми моделями предыдущей линейки Ampere, что позволит наглядно оценить разницу между ними.

  RTX 4090 RTX 4080 RTX 3090 Ti RTX 3080 Ti
CUDA-ядра 16384 9728 10752 10240
Тензорные ядра 512 304 336 320
RT-ядра 128 76 84 80
Базовая частота, ГГц 2,23 2,21 1,56 1,37
Турбо-частота, ГГц 2,52 2,51 1,86 1,67
Объем памяти, ГБ 24 16 24 12
Шина памяти, бит 384 256 384 384
ПСП, ГБ/с 1008 717 1008 912
Потребление, Вт 450 320 450 350

Мы уже отмечали выше очень большую разницу между RTX 4090 и RTX 4080 по количеству исполнительных блоков и по энергопотреблению. Если RTX 4090 — бескомпромиссная топовая модель, то RTX 4080 уже более приземленный вариант, подходящий для большего количества пользователей. При теоретической производительности выше, чем у RTX 3090 Ti, она имеет заметно меньшее потребление энергии — спасибо за это 5 нм техпроцессу TSMC. Также хорошо заметны и сильно повысившиеся рабочие частоты GPU по сравнению с Ampere, это также связано с улучшением техпроцесса.

А вот что почти не изменилось, так это пропускная способность видеопамяти. Даже у RTX 4090 она осталась на уровне RTX 3090 Ti, не говоря уже о ПСП у рассматриваемой сегодня RTX 4080. 717 ГБ/с не выглядят впечатляющими на фоне 912–1008 ГБ/с у видеокарт предыдущей серии. Впрочем, мы уже говорили о серьезно увеличившемся объеме L2-кэша, который во многих случаях позволяет нивелировать недостаток ПСП. Так что в большинстве реальных применений RTX 4080 должна быть явно производительнее RTX 3090 Ti, и уж точно энергоэффективнее ее как минимум вдвое.

Все архитектурные улучшения семейства Ada Lovelace были разобраны нами в теоретическом обзоре, там подробно описаны все изменения в RT-ядрах новой архитектуры, включая аппаратные блоки Opacity Micromap Engine и Displaced Micro-Mesh Engine, а также дополнительный планировщик для изменения порядка выполнения шейдеров Shader Execution Reordering, позволяющие повысить эффективность аппаратной трассировки лучей.

С теоретической точки зрения там же подробно расписана и работа технологии DLSS 3, которая стала не просто технологией масштабирования разрешения, как DLSS 3, но приобрела возможность вставки дополнительных кадров на основе информации из существующих, что увеличивает их частоту и плавность видеоряда в итоге.

Технология DLSS 3 состоит из трех частей: генерация кадров Frame Generation, увеличение разрешения Super Resolution (то, что мы знаем под именем DLSS 2) и технология снижения задержек Reflex. Видеокарты серии RTX 40 поддерживают все три, а предыдущие модели — две, за исключением генерации кадров, и DLSS будет работать на всех GPU, просто с разными возможностями. Технология увеличения разрешения Super Resolution не брошена и будет дальше улучшаться — Nvidia планирует продолжать тренировать нейросеть для достижения более качественных результатов.

Для поддержки DLSS 3 разработчикам игр не нужно делать практически ничего сверх того, что они уже делали для поддержки DLSS 2. Неудивительно, что DLSS 3 уже получила поддержку большого количества игровых разработчиков и игровых движков — более 35 игр анонсировали такую поддержку. Те игровые разработчики, которые внедрили DLSS 2 с помощью Nvidia Streamline SDK, уже сделали все необходимое для интеграции технологии DLSS 3 и всех трех ее компонент: AI Super Resolution, AI Frame Generation и Reflex. Nvidia Streamline — это SDK с открытым кодом, упрощающий интеграцию технологий вроде DLSS и других аналогичных (любых производителей GPU). Этот пакет позволяет игровым разработчикам внедрить технологии повышения разрешения и качества картинки, поддерживаемые аппаратным обеспечением.

Возможности GeForce RTX 4080 по работе с видеоданными не отличаются от таковых у топовой модели. Графические процессоры нового семейства умеют больше предыдущих — в специализированном аппаратном кодировщике NVEnc восьмого поколения появилась поддержка кодирования видео в формате AV1, кодировщик AV1 в Ada на 40%-50% эффективнее кодировщика H.264, используемого в графических процессорах предыдущей серии, и новый формат AV1 позволит увеличить разрешение видеопотока при стриминге с 1080p до 1440p при том же битрейте. Кроме этого, представленные графические процессоры Ada имеют по два аппаратных кодировщика NVEnc на борту, что позволяет кодировать видео с разрешением 8K при 60 FPS или сразу четыре видео разрешения 4K при 60 FPS — и гораздо быстрее, чем RTX 3080 Ti, к примеру.

Кроме NVEnc, в графические процессоры архитектуры Ada включен аппаратный декодер пятого поколения NVDec, который появился в Ampere. Он поддерживает декодирование видеоданных с аппаратным ускорением в форматах: MPEG-2, VC-1, H.264 (AVCHD), H.265 (HEVC), VP8, VP9 и AV1. Также полностью поддерживается и декодирование в разрешении 8K при 60 FPS. А теперь перейдем к рассмотрению практических возможностей видеокарты GeForce RTX 4080 в исполнении компании Palit.

Особенности карты Palit GeForce RTX 4080 GameRock 16 ГБ

Сведения о производителе: Компания Palit Microsystems (торговая марка Palit) основана в 1988 году в Китайской Республике (Тайвань). Штаб-квартира — в Тайбэе/Тайвань, крупный центр по логистике — в Гонконге, второй офис (по продажам в Европе) — в Германии. Фабрики — в Китае. На рынке в России — с 1995 года (начинались продажи как безымянных продуктов, так называемых Noname, а под маркой Palit продукты начали идти только после 2000 года). В 2005 году компания приобрела торговую марку и ряд активов Gainward (после, по сути, банкротства одноименной компании), после чего был образован холдинг Palit Group. Был открыт еще один офис в Шеньжене, направленный на продажи в Китае. На сегодня внутри Palit Group сосредоточено еще несколько торговых марок и брендов.

Объект исследования: серийно выпускаемый ускоритель трехмерной графики (видеокарта) Palit GeForce RTX 4080 GameRock 16 ГБ 256-битной GDDR6X

Palit GeForce RTX 4080 GameRock 16 ГБ 256-битной GDDR6X
Параметр Значение Номинальное значение (референс)
GPU GeForce RTX 4080 (AD103)
Интерфейс PCI Express x16 4.0
Частота работы GPU (ROPs), МГц BIOS P: 2505(Boost)—2850(Max)
BIOS S: 2505(Boost)—2850(Max)
2505(Boost)—2725(Max)
Частота работы памяти (физическая (эффективная)), МГц 2800 (22400) 2800 (22400)
Ширина шины обмена с памятью, бит 256
Число вычислительных блоков в GPU 76
Число операций (ALU/CUDA) в блоке 128
Суммарное количество блоков ALU/CUDA 9728
Число блоков текстурирования (BLF/TLF/ANIS) 304
Число блоков растеризации (ROP) 112
Число блоков Ray Tracing 76
Число тензорных блоков 304
Размеры, мм 330×138×72 310×130×70
Количество слотов в системном блоке, занимаемые видеокартой 4 4
Цвет текстолита черный черный
Энергопотребление пиковое в 3D, Вт (BIOS P/BIOS S) 350/351 350
Энергопотребление в режиме 2D, Вт 40 40
Энергопотребление в режиме «сна», Вт 11 11
Уровень шума в 3D (максимальная нагрузка), дБА (BIOS P/BIOS S) 29,4/28,3 32,0
Уровень шума в 2D (просмотр видео), дБА 18,0 18,0
Уровень шума в 2D (в простое), дБА 18,0 18,0
Видеовыходы 1×HDMI 2.1, 3×DisplayPort 1.4a 1×HDMI 2.1, 3×DisplayPort 1.4a
Поддержка многопроцессорной работы нет
Максимальное количество приемников/мониторов для одновременного вывода изображения 4 4
Питание: 8-контактные разъемы 0 0
Питание: 6-контактные разъемы 0 0
Питание: 16-контактные разъемы 1 1
Вес карты с комплектом поставки (брутто), кг 2,6 3,0
Вес карты чистый (нетто), кг 2,0 2,2
Максимальное разрешение/частота, DisplayPort 3840×2160@144 Гц, 7680×4320@60 Гц
Максимальное разрешение/частота, HDMI 3840×2160@144 Гц, 7680×4320@60 Гц
Средняя цена карты Palit единичные предложения в районе 115–125 тысяч рублей на момент подготовки обзора

Память

Карта имеет 16 ГБ памяти GDDR6X SDRAM, размещенной в 8 микросхемах по 16 Гбит на лицевой стороне PCB. Микросхемы памяти Micron (GDDR6X, MT61K512M32KPA-24 / D8BZF) рассчитаны на номинальную частоту работы в 3000 (24000) МГц.

Особенности карты и сравнение с Palit GeForce RTX 4090 GameRock

Palit GeForce RTX 4080 GameRock (16 ГБ) Palit GeForce RTX 4090 GameRock (24 ГБ)
вид спереди
вид сзади

Мы сравниваем карту Palit с ее же продуктом на базе RTX 4090 по двум причинам: во-первых, эталонной карты Nvidia на базе RTX 4080 (16 ГБ) никто из медиасообщества в РФ не получал; во-вторых, интересно сравнить рассматриваемую сейчас карту со «старшей сестрой». В целом мы видим, что общего много, схема питания почти одинаковая. Однако GPU у данных плат разные, они отличаются по размерам не только кристаллов, но и их упаковки, поэтому использовать одну и ту же PCB все-таки не представляется возможным — иначе можно было бы просто убрать с карты RTX 4090 четыре микросхемы памяти, получив тем самым и объем 16 ГБ, и 256-битную шину обмена с памятью. В случае поколения RTX 30 часто делалось именно так, когда карты, имеющие в качестве GPU один и тот же физический чип, использовали разводку PCB под максимальную ширину шины, комплектуя карты разным количеством микросхем памяти. Печатная же плата под RTX 4080 имеет максимальную ширину шины 256 бит.

Сбоку справа мы видим посадочные места, похожие на те, куда устанавливаются 8-контактные разъемы питания. На самом деле они предназначены для подключения мощных внешних вентиляторов в системах, использующих профессиональные версии подобных видеокарт (для игровых и профессиональных видеокарт используются одни и те же GPU, разница может быть лишь в объеме памяти, конфигурации рабочих блоков и, конечно же, в программном обеспечении).

Ядро имеет маркировку AD103–300, защиты от майнинга нет, дата выпуска — 39-я неделя этого года (сентябрь).

Суммарное количество фаз питания у карты Palit GeForce RTX 4080 GameRock (16 ГБ) — 18, а у ее аналога на 4090 — 19.

При этом распределение фаз такое: у Palit GeForce RTX 4090 GameRock — 16 фаз на ядро и 3 на микросхемы памяти, у карты Palit GeForce RTX 4080 GameRock (16 ГБ) — 15 + 3.

Зеленым цветом отмечена схема питания ядра, красным — памяти. Все контроллеры расположены на оборотной стороне PCB. Фазами питания ядра управляет ШИМ-контроллер uP9512R (максимум 8—12 фаз в зависимости от модификации).

Очевидно, что 16 фаз питания ядра работают по параллельной схеме (контроллер управляет двумя фазами как одной).

Трехфазной схемой питания микросхем памяти заведует другой ШИМ-контроллер той же компании uPI Semi — uP9529Q (до 3 фаз).

В преобразователе питания, традиционно для всех видеокарт Nvidia, используются транзисторные сборки DrMOS — в данном случае NCP302150 (On Semiconductor), каждая из которых рассчитана максимально на 50 А.

Также на тыльной стороне карты имеется контроллер uS5650Q (uPI Semi), который отвечает за мониторинг карты (отслеживание напряжений и температуры).

Управление подсветкой традиционно возложено на контроллер Holtek.

Карта имеет два режима работы, они заложены в двух вариантах BIOS, которые переключаются с помощью переключателя на верхнем торце карты: P (performance / производительный, он же 1) и S (silent / тихий, он же 2). Разница между режимами минимальная: по сути только в оборотах вентиляторов, ну и небольшая разница в лимитах: предел энергопотребления для BIOS P заложен в 350 Вт, а для BIOS S — 340 Вт.

Штатные частоты памяти, а также Boost-значение частоты работы ядра в обоих режимах BIOS 1(P)/BIOS 2(S) равны референсным значениям. При этом максимальная частота GPU выше референс-аналога почти на 2,5%. Исследования показали, что в среднем мы получили в играх крайне незначительный прирост производительности на 1,5% относительно референс-карты.

Энергопотребление карты Palit в тестах доходило до 350 Вт (в режиме BIOS P) и до 351 Вт (BIOS S).

Я попробовал ручной разгон и получил максимальные частоты 3015/24500 МГц, что обеспечило прирост в играх в разрешении 4К в среднем почти… на 3% относительно референсных значений (лимит потребления можно поднять всего до 102%, поэтому несмотря на сильно поднятые частоты работы, реальные приросты по скорости оказались крайне малы, да энергопотребление карты почти не выросло: 352 Вт (в пиковых всплесках).

Питание на карту Palit подается через новый 16-контактный разъем питания стандарта PCIe 5.0.

В комплекте поставки карты имеется переходник на такой разъем с трех обычных 8-контактных (хорошо всем знакомых).

Отметим приличные габариты данной карты, особенно по толщине: 7 см. В результате видеокарта занимает 4 слота в системном блоке.

RTX 4080 не обладает поддержкой мультиграфической конфигурации, то есть технологией SLI, и у карты нет специального разъема на верхнем торце.

Карта имеет стандартный набор видеовыходов: три DP 1.4a и один HDMI 2.1.

Управление работой карты обеспечивается с помощью фирменной утилиты ThunderMaster. Мы о ней уже много раз писали: программа предоставляет управление вентиляторами, частотами работы карты, напряжением ядра и слежение за состоянием карты (мониторинг).

Нагрев и охлаждение

Основой кулера является огромный многосекционный пластинчатый никелированный радиатор с восемью тепловыми композитными трубками, распределяющими тепло по ребрам радиатора.

Трубки припаяны к огромному медному и никелированному плато, с помощью которого охлаждаются ядро и микросхемы памяти (через термопрокладки). Для охлаждения преобразователей питания VRM имеются свои узкие подошвы у того же радиатора.

В зависимости от расположения в радиаторе пластины имеют разные углы поворота, улучшая прохождение воздушного потока.

Задняя пластина служит только элементом защиты PCB и является составной частью общей концепции дизайна.

Как видно из снимка выше, к радиатору прикручена специальная черная рама, усиливающая конструкцию и противостоящая провисанию (изгибу) карты в слоте PCIe.

Поверх радиатора установлен кожух с тремя вентиляторами ∅90 мм, имеющими по 9 лопастей и работающими на единой частоте вращения (по умолчанию, но через программу ThunderMaster можно настроить их работу раздельно по двум группам: центральный — одна группа, два крайних — другая группа).

Остановка вентиляторов при малой нагрузке видеокарты происходит, если температура GPU опускается ниже 50 градусов, а нагрев микросхем памяти — ниже 80 градусов. Разумеется, СО при этом становится бесшумной. При запуске ПК вентиляторы работают, однако после загрузки видеодрайвера идет опрос рабочей температуры, и они выключаются. Ниже есть видеоролик на эту тему.

Мониторинг температурного режима с помощью MSI Afterburner:

Режим BIOS 1(P):

После 2-часового прогона под нагрузкой максимальная температура ядра не превысила 66 градусов, а температура микросхем памяти — 75 градусов, что является великолепным результатом для видеокарт флагманского уровня! Энергопотребление карты доходило до 350 Вт. Напомним, что безопасный предел нагрева памяти GDDR6X — 105 °C.

Режим BIOS 2(S):

В этом случае максимальная температура ядра достигала 69 градусов, а микросхем памяти — 76 °C, что также является отличным результатом для видеокарт такого уровня. Энергопотребление карты почти не изменилось (351 Вт).

При ручном разгоне (режим BIOS 1(P)) при выставлении лимита потребления в 102% параметры нагрева и шума менялись мало (максимальная температура ядра достигла 70 градусов, памяти — 79 градусов), потребление также почти не вырастало.

Мы засняли и ускорили в 50 раз 8-минутный прогрев (BIOS 1(P)):

Максимальный нагрев наблюдался около ядра и микросхем памяти.

Шум

Методика измерения шума подразумевает, что помещение шумоизолировано и заглушено, снижены реверберации. Системный блок, в котором исследуется шум видеокарт, не имеет вентиляторов, не является источником механического шума. Фоновый уровень 18 дБА — это уровень шума в комнате и уровень шумов собственно шумомера. Измерения проводятся с расстояния 50 см от видеокарты на уровне системы охлаждения.

Режимы измерения:

  • Режим простоя в 2D: загружен интернет-браузер с сайтом iXBT.com, окно Microsoft Word, ряд интернет-коммуникаторов
  • Режим 2D с просмотром фильмов: используется SmoothVideo Project (SVP) — аппаратное декодирование со вставкой промежуточных кадров
  • Режим 3D с максимальной нагрузкой на ускоритель: используется тест FurMark

Оценка градаций уровня шума следующая:

  • менее 20 дБА: условно бесшумно
  • от 20 до 25 дБА: очень тихо
  • от 25 до 30 дБА: тихо
  • от 30 до 35 дБА: отчетливо слышно
  • от 35 до 40 дБА: громко, но терпимо
  • выше 40 дБА: очень громко

В режиме простоя в 2D в обоих режимах ½ температура была не выше 37 °C, вентиляторы не работали, уровень шума был равен фоновому — 18 дБА.

При просмотре фильма с аппаратным декодированием ничего не менялось.

Режим BIOS 1(P):

В режиме максимальной нагрузки в 3D температура достигала 66/75 °C (ядро/память). Вентиляторы при этом раскручивались до 1480 оборотов в минуту, шум вырастал до 29,4 дБА: это тихо относительно типичного шумового фона. В видеоролике ниже можно оценить, как вырастает шум (он фиксировался на пару секунд через каждые 30 секунд).

Режим BIOS 2(S):

В режиме максимальной нагрузки в 3D температура достигала 69/76 °C (ядро/память). Вентиляторы при этом раскручивались до 1440 оборотов в минуту, шум вырастал до 28,3 дБА: это также тихо. В видеоролике ниже это продемонстрировано (шум фиксировался на пару секунд через каждые 30 секунд).

С учетом того, сколько данная карта потребляет, тихая работа системы охлаждения заслуживает похвалы.

Подсветка

Полный текст статьи читайте на iXBT