Ретроклокинг: все топы NVIDIA – Windows XP от GeForce 6 до Maxwell
Оглавление
Вступление
Лаборатория продолжает цикл статей о ретроклокинге. Думаю, у вас еще свежи воспоминания о проведенном мною тестировании самых современных AGP и PCI-Express видеокарт на одной платформе. В прошлый раз я остановился на топах с PCI-Express интерфейсом, но из-за несовместимости «железа» (материнской платы ASRock 4CoreDual-VSTA с процессором Intel Core 2 Extreme QX9650 @4.0 ГГц и видеокарт с PCI-Express третьего поколения) модели старше, чем GeForce GTX 580, запустить на ней не удалось.
Было решено повторить данное тестирование на платформе LGA 1151, чтобы охватить все поддерживаемые топовые видеокарты на Windows XP. Что из этого получилось, вы узнаете, прочитав данную статью.
Попытка 2.0
Итак, чтобы до конца разобраться с топовыми видеокартами NVidia, применительно к ретроклокингу, в качестве основной операционной системы выступает неизменная и «народная» Windows XP. Я взял Windows XP за основу, так как она является моей основной ретро-тестовой операционной системой и большинство моих экспериментов проводится непосредственно с ее участием. Так что, если кто-то ждет тестирования всех топ«ов на Windows 10 в паре с недавно вышедшим Intel Core i9–10900K, смею вас разочаровать, мне самому было бы интересно увидеть результат, но возможность провести такой эксперимент у меня физически отсутствует. К тому же, мне больше интересно, на что способна Windows XP и ретро-система построенная на ее основе. Что предпочесть GeForce 6800 Ultra или GeForce GTX 900-й серии с GPU «Maxwell»?
Прошлый тестовый стенд был собран на базе материнской платы ASRock 4CoreDual-VSTA, которая имеет сразу два графических интерфейса: AGP 8X и PCI-Express и процессор Intel Core 2 Extreme QX9650, разогнанный до 4.0 ГГц. Получившаяся конфигурация была производительна, даже применительно к построению ретро-системы, но она содержала ряд недочетов. Во-первых, графический PCI-Express интерфейс первого поколения насчитывал всего четыре линии, чипсет производства VIA Technologies не блистал своей производительностью и в третьих, работу оперативной памяти стандарта DDR2 c частотой 266 МГц можно было назвать разве что удовлетворительной.
Если кто-то не успел ознакомиться с содержанием предыдущих двух частей, ниже я оставлю на них ссылки:
В результате я остановился на старом-добром Intel Core i7–2600K, материнской плате ASUS MAXIMUS V EXTREME на Intel Z77 чипсете и 16 Гб DDR3 памяти с частой 2133 МГц. Чтобы было, как можно более «стильно-модно-молодежно», процессор был разогнан до 5.1 ГГц при помощи воздушного охлаждения.
Windows XP без всяких проблем устанавливается на данную платформу, как и все необходимые драйверы для интегрированных в материнскую плату контроллеров. Конечно, 32-х битная операционная система не увидит все 16 Гб оперативной памяти, но используемым тестам с лихвой хватит трех оставшихся. TH или Hyper-threading я отключил за неиспользованием данной технологии большинством тестов.
А вот с драйверами для видеокарт не все так просто. Поддержка Windows XP давно прекращена, поэтому о «лучезарной» серии GeForce RTX придется забыть, как впрочем, и о 100-й серии также. Хотя энтузиасты пытались завести GeForce GTX 1080 Ti на Windows XP, но эксперимент так и не удалось успешно завершить. А вот 900-я серия официально закончилась на «мидле» — GeForce GTX 960, поэтому поддержку GeForce GTX 980 и GeForce GTX 980 Ti пришлось прикручивать вручную. Последняя версия GEFORCE GAME READY DRIVER для Windows XP за номером 368.81 датируется 14 июлем 2016 года.
Чтобы добавить поддержку видеокарт 900-й серии от GeForce GTX 970 до 980 Ti в драйвер, необходимо добавить несколько строк, которые находятся в файле «nv4_dispi.inf». О том, какие строки необходимо добавить, можно прочесть здесь.
В результате полученных манипуляций моя система позволяет запускать PCI-Express видеокарты от GeForce 6800 Ultra до GeForce GTX 980 Ti. С недостающими видеокартами топовых линеек мне помог zEsEn, благодаря чему в тестировании приняло участие 13 видеокарт, которые покрыли временной отрезок с 2004 года по 2015-й год, итого 11 лет развития и прогресса.
Тестовый стенд
Состав тестового стенда:
- Процессор — Intel Core i7–2600K 3,4@5,1 ГГц (HT-off);
- Кулер — Raijintek Leto Pro RGB;
- Материнская плата — ASUS MAXIMUS V EXTREME (Intel Z77 Chipset);
- Оперативная память — 16 Гб DDR3 G.Skill 2133 МГц (9–11–10–39 2Т);
- Накопитель — SSD SATA Kingston SSDNow V300 SATA-III 60 Гб;
- Блок питания — Zalman ZM1000-EBT, 1000 Вт.
По сравнению с предыдущим тестовым стендом, состоявшим из материнской платы ASRock 4CoreDual-VSTA и Intel Core 2 Extreme QX9650, заметно вырос обмен данными между процессором и видеокартой, благодаря использованию полноскоростного PCI-Express интерфейса с шестнадцатью линиями вместо четырех. Вдобавок, поддерживается второе поколение указанного интерфейса, что означает увеличение скоростей обмена данными с 1.0 Гбайт/с до 8.0 Гбайт/с для видеокарт, поддерживающих данную версию интерфейса.
Использование процессора Intel Core i7–2600K, разогнанного до 5100 МГц, так же положительным образом сказалось на производительности всей системы, как и использование более скоростной DDR3 SDRAM памяти. Я запустил в Windows XP SP3 тест AIDA64 производительности процессора в таком состоянии, и вот какие цифры получил:
И пусть по процессорной производительности удалось дотянуться без наличия Hyper-Threading до Intel Core i7–4770 с микроархитектурой Haswell и на горизонте появился Intel Core i7–7700K, который относится к микроархитектуре Kaby Lake, но в ниже описанном ПО наличие восьми потоков необязательно, а вот тактовая частота лишней явно не будет. Страшно подумать какие бы получились цифры, если бы я не отключал HT, но это уже как-нибудь в другой раз.
Тестирование проводилось в Windows XP Sp3 с помощью следующего ПО:
- 3Dmark2001SE Pro b330;
- 3Dmark2003 v. 3.6.1;
- 3DMark 2005 v. 1.3.1
- 3DMark 2006 v. 1.1.1;
- Comanche 4 Benchmark;
- Max Payne;
- Doom III;
- Far Cry;
- Resident Evil 5 Benchmark;
- Tom Clancy’s Splinter Cell.
Участники тестирования
Звездный состав участников тестирования коренным образом не изменился. Участвует все та же заряженная GeForce 6800 Ultra с удвоенным объемом видеопамяти производства MSI, …
…, а также все другие, включая GeForce GTX 580 с удвоенным количеством видеопамяти, в лице MSI N580GTX Lightning Xtreme Edition 3Gb, которая способна работать на 1 ГГц при использовании своей штатной системы охлаждения.
Об этих видеокартах я писал в предыдущих частях эксперимента. А вот далее будем знакомиться персонально.
GeForce GTX 680
GeForce GTX 680 — представитель архитектуры Kepler с очень большим или громадным отличием от всего того, что было у GeForce GTX 580 (Fermi). Начиная с GeForce GTX 680 и до GeForce GTX 980 Ti, графические процессоры изготавливались с применением норм 28 нм тех. процесса, против 40 нм у Fermi. У нового GPU количество шейдерных блоков увеличилось в 3 раза, количество блоков текстурирования удвоилось, сменилось поколение со 2-го на 3-е поддерживаемого PCI-Express интерфейса, и прочие улучшения. Но самым «инновационным» решением, стало использование технологии GPU Boost, которая динамически управляет частотой графического процессора.
И с этого момента и по сей день оверклокерам приходится напрягаться, если в 500-й серии видеокарт действовало правило — выставил руками частоту и она стоит как вкопанная, то теперь мы имеем дело с энергосберегающими технологиями и специальными алгоритмами работы GPU при различных условиях, зависящих от ТDP, температуры и других параметров. Представлять GeForce GTX 680 будет видеокарта MSI NGTX680 Lightning.
Серия видеокарт производства MSI — Lightning в представлении не нуждается, это всегда очень быстро, надежно и разгоняемо. Частота GPU = 1110 МГц (1176 Boost), эффективная частота видеопамяти — 6008 МГц. На этих частотах видеокарта использовалась в тестах.
GeForce GTX 780
Буквально через год и несколько дней былого флагмана сменил новый. Инженеры Nvidia потрудились на славу, количество транзисторов, при неизменном тех. процессе увеличилось вдвое! Количество CUDA-ядер увеличилось с 1536 до 2304. Технология GPU Boost была обновлена до 2-й версии, но, несмотря на это, частота GPU получилась ниже, чем у предыдущего лидера и составляла рекомендованные 863 МГц. Частота видеопамяти осталась на прежней отметке — 6008 МГц. Но мощи у GeForce GTX 780 было не занимать, ведь не зря транзисторный пакет увеличился вдвое. Сама Nvidia заявляла 70% превосходства над GeForce GTX 580 или на 42% над GeForce GTX 680.
Отстаивать честь GeForce GTX 780 будет опять представитель компании MSI молниеносная версия одноименной видеокарты.
Когда держишь в руках именно MSI N780 Lightning, понимаешь, что это изделие не простая поделка. В ней каждый сантиметр площади заточен под разгон, габариты и вес этой видеокарты внушают страх владельцев небольших корпусов, впрочем, моя ASUS MAXIMUS V EXTREME также напряглась, армированный PCI-express слот ей не помешал бы, так как за непродолжительное время туда устанавливался не один десяток видеокарт.
GeForce GTX 780 Titanium
Спустя полгода Nvidia выпускает нового флагмана на все том же GPU с кодовым именем GK110 — GeForce GTX 780 Ti (Titanium). Инженеры не стали изобретать велосипед, а просто сделали доступными ранее отключенные блоки. Количество ядер CUDA увеличилось с 2304 до 2880, а количество блоков фильтрации текстур (TMU) с 192 до 240 штук. Частота работы видеопамяти увеличилась на один гигагерц и составила 7008 МГц. Подросла и базовая скорость GPU с бустом с 863/900 до 876/928 МГц, в итоге новоиспеченный Титаниум обогнал по производительности первого Титана.
В этот раз молниеносный Титаниум использоваться не будет, так как их было выпущено всего 12 экземпляров и найти такой экземпляр сейчас практически нереально. Эти экземпляры участвовали в октябре 2014 года рамках MSI Master Overclocking Arena (MOA), когда самые опытные оверклокеры планеты сражались за титул самого лучшего. Вот они как раз и использовали такие видеокарты MSI GeForce GTX 780 Ti Lightning MOA Edition.
Но я буду использовать видеокарту не хуже, а именно — EVGA GeForce GTX 780 Ti Classified K|NGP|N Edition. Созданная при участии известных оверклокеров Vince «K|NGP|N» Lucido и Illya «TiN» Tsemenko, эта видеокарта готова ко всему, благодаря использованию самой передовой элементарной базы и оверклокерских наработок. Видеокарта в состоянии работать, потребляя свыше 450 Ватт энергии. С ее помощью был поставлен не один мировой рекорд в различных оверклокерских дисциплинах и она стала самой первой видеокартой EVGA, которая дала начало целой серии самых производительных видеокарт EVGA серии K|NGP|N Edition.
У меня же она в этот раз будет работать на своих стандартных частотах: 1072 МГ GPU и 7000 МГц для видеопамяти.
Следующее поколение Nvidia в числовом выражении пропустила, после 700-й серии сразу вышла 900-я, почему так получилось, можно узнать, обратившись к соответствующей новости тех лет, а я продолжу далее.
GeForce GTX 980
Прошло чуть меньше года, после анонса GeForce GTX 780 Ti, как NVidia снова порадовала общественность новым графическим ускорителем — GeForce GTX 980, который вышел на обновленной архитектуре Maxwell второго поколения. По сравнению с 700-й серии это было больше эволюционное решение, количество транзисторов уменьшилось на 30% при неизменном технологическом процессе, но зато была проведена работа по оптимизации самих транзисторов, так как GK110, легший в основу видеокарт 700-й серии был самым большим графическим процессором, который могла изготовить TSMC по 28 нм. тех. процессу в 2013 году.
В результате многочисленных оптимизаций новый флагман оперировал 2048 ядрами CUDA, 128 текстурными блоками и 64 блоками растеризации. Энергоэффективность GPU стала еще лучше, подросла частота GPU, добавились новые технологии поддержки сглаживания, освещения, теней. Кроме вполне ожидаемой поддержки всех спецификаций DirectX 11.2, Maxwell 2.0 получил поддержку новых возможностей API DirectX 12.
Вообще, именно 2013 и 2014-й годы были самыми интересными, с точки зрения появления разнообразия нереференсных моделей видеокарт, на это время также пришелся и пик соревновательного оверклокинга на мировой арене, когда мэтры криогенного охлаждения не только боролись за овеклокерский трон, но даже при поддержке ведущих производителей видеокарт выпускали свои именные версии графических ускорителей. И борьба в этом сегменте тогда шла уже не на жизнь, а на смерть.
Достаточно вспомнить некогда известного оверклокера №1 из Великобритании — Ian »8Pack» Parry и его видеокарту KFA2 GeForce GTX 980 HOF 8Pack Edition — это целое произведение искусства:
При поддержке производителя видеокарт Galax, известный бразильский оверклокер Ronaldo «Rbuass» Buassali выпустил свою видеокарту — Galax GeForce GTX 980 HOF TecLab Edition, названную в честь своей команды TecLab OC Team.
Не отставала и компания EVGA и мастера разгона и инженеры Винс «K|ngp|n» Люсидо и Илья «TiN» Цеменко и их EVGA GeForce GTX 980 Classified K|NGP|N Edition.
Эта видеокарта была разработана и создана специально разгона и экстремальных оверклокеров, а также для обеспеченных энтузиастов и просто ценителей подобного рода продукции. Ее цифровая подсистема питания построена по схеме »14+3» и способна выдавать ток до 600 А, используя при этом сразу три входа — два 8-контактных и один 6-контактный. Система охлаждения ACX 2.0 обеспечивает высокую эффективность охлаждения всех компонентов при минимальном шуме. Тактовая частота GPU равна 1304 МГц (1418 Boost). Именно эта модель видеокарты мною будет использоваться в сегодняшнем тесте. Конечно, весь потенциал ее в Windows XP не будет раскрыт, но зато лишний раз можно будет вспомнить наиболее выдающиеся модели видеокарт.
Я позволю себе еще упомянуть одну очень интересную модель видеокарты, относящейся так же к серии GeForce GTX 980, это самая быстрая GeForce GTX 980, из когда либо созданных. Хотя я уже упомянул очень быстрые варианты, а есть еще, например — Asus ASUS ROG GTX 980 Matrix Platinum, но даже она по тактовым частотам, зашитым в BIOS, уступает следующему варианту номер один.
Встречаем — ASUS GTX 980 20th Anniversary Gold Edition. Улучшенный Matrix Platinum, юбилейное издание, лимитированная серия, по праву этот ускоритель может считаться самым быстрым. Его тактовые частоты равны 1317 МГц (1431 Boost) против 1127 МГц (1216 Boost) у референсной модели. Увы, не каждый мог себе ее позволить приобрести на момент появления в продаже.
GeForce GTX 980 Ti
GeForce GTX 980 Ti, основанный на GPU с кодовым названием GM200, получился еще быстрее предшественника. Графический процессор содержит шесть кластеров GPC, состоящих из 24 мультипроцессоров, но в данной модели были отключены два из них, а так, по факту получился бы Titan X. Шесть гигабайт быстрой видеопамяти, работающий 7 ГГц сообщаются с GPU 384-битной шиной, что дает пиковую пропускную способность видеопамяти в 336.5 ГБ/с или в полтора раза больше, чем у GeForce GTX 980.
Количество транзисторов увеличилось с 5.2 млрд до 8 млрд штук. Количество универсальных процессоров насчитывает 2816, текстурных блоков 176, блоков блендинга 96, против 2048/128/64 у GeForce GTX 980. Видеокарта стала еще быстрее, технологичнее и на $100 дороже.
В качестве тестовой видеокарты на этот раз будет выступать KFA2 GeForce GTX 980 Ti «HALL OF FAME 8PACK APPROVED EDITION» с частотной формулой 1190 МГц (1291 Boost) и 7010 МГц для видеопамяти.
Результаты тестов
Настало время собрать всех участников тестирования и посмотреть, что из всего этого получилось. Если кто-то просто пролистал статью или просто посмотрел картинки, то я еще раз напомню, что все вышеперечисленные видеокарты будут оцениваться в DirectX9 в Windows XP SP3, поэтому далеко не все функции и технологии видеокарт будут задействованы, так как это материал уже совсем другой истории… А перед началом еще одно коллективное фото на память.
Опытные оверклокеры должны знать все вышеперечисленные модели в лицо, если кто-то подзабыл, то в обсуждении, думаю, подскажут. Жалко, что ни одна из этих видеокарт не была у меня в ее актуальнее время, а лишь спустя годы, когда они превратись в разряд «ретро», но даже несмотря на это, мое отношение к ним не меняется. Ниже я также приведу все скриншоты GPU-Z с характеристиками используемых видеокарт и используемых версий драйверов.
В нижеприведенных результатах тестов я оставил значения, полученные на предыдущей платформе с Intel Core 2 Extreme QX9650 (они выделены мелким шрифтом), для наглядности и сравнения с более быстрым процессором.
3DMark 2001 SE Pro b330
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Тест 3Dmark2001SE один из самых гибких бенчмарков. На графике видно, что начиная с архитектуры Fermi резкий рост производительности заканчивается, грубой силой здесь уже не отделаешься.
К тому же, здесь только в 4-м подтесте «Nature» используются все преимущества DirectX8 в виде вертексных и пиксельных шейдеров, задействование попиксельного рельефа, кубические карты среды и 4-слойное текстурирование. В одном кадре может находиться до 181 тысячи полигонов и до целых 40 Мб 32-битных текстур. Без GeForce3 в свое время тут делать было нечего : D Самые мощные системы того времени набирали в нем целых 6000 очков.
Итоговый FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Обычная 3D сцена тех лет, полигоны и вертексные шейдеры, движения персонажей в кадре с динамическим освещением созданы специальным алгоритмом, использующим CPU и 3D карту. Здесь уже ничего не зависит ни от CUDA ядер и прочих современных технологий, хватает даже GeForce 7900 GTX.
3DMark 2003 v. 3.6.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Тут уже ситуация немного меняется, так же самый большой всплеск производительности на GeForce GTX 480, а далее уже наблюдается рост до 10%, за исключением показателя GeForce GTX 780 Ti. Ниже на скриншоте можно увидеть все результаты этого бенчмарка на протестированных видеокартах:
3DMark 2005 v. 1.3.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
И опять видны границы перехода поколений от GeForce 7900 GTX к GeForce 8800 Ultra и от GeForce GTX 285 к GeForce GTX 480.
Итоговый FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
3DMark 2006 v. 1.1.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Здесь наблюдается аналогичная картина предыдущего теста. Ниже на скриншоте можно увидеть результаты всех видеокарт в данном тесте:
Comanche 4 (Benchmark)
1280×1024, 32 bit color, Texture compression — on, Hardware Shaders — on, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Comanche 4 это игра-симулятор полета на прототипе боевого вертолета RAH-66 со встроенным бенчмарком. Игровой движок поддерживает API DirectX 7 и DirectX 8. Используются мультитекстурирование, аппаратное ускорение операций расчета освещенности и преобразования координат (Hardware Transforming & Lightning), пиксельные и вершинные шейдеры.
Но этот бенчмарк уж очень сильно полагается на мощь центрального процессора. Условно победу одержал GeForce GTX 580, хотя остальные претенденты отстали на уровне погрешности измерений.
Max Payne
1280×1024, PCGH’s Final Scene No.1 (VGA-Demo), Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
В 2001-м году эта игра наделала много шума, благодаря своей «кинематографической» графике и известному режиму «Bullet time». Передовые технологии того времени затем воплотились в третий тест пакета 3DMark 2001 Second Edition.
В данном тесте представители архитектуры Maxwell 1.0 и 2.0 остались не у дел, хотя в любом Directx11 бенчмарке они опередили бы представителя Fermi.
Doom III
1024×768, High Quality, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Far Cry
1024×768, Max Quality, demo 3DNews — Research, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Resident Evil 5 Benchmark
1024×768, D3D9 version, Middle Quality, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Tom Clancy«s Splinter Cell
1024×768, Max Quality, demo Tbilisi, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Что же из всех этих тестов вытекает? Для использования Windows XP и платформ, которые официальной с ней совместимы, использовать видеокарту быстрее чем GeForce GTX 580 нет большого смысла, а в ряде случаев хватит даже GeForce GTX 285. А вот от смены процессора Intel Core 2 Extreme QX9650 @4.0 ГГц на Intel Core i7 2600K@5.1 ГГц разница видна невооруженном взглядом.
Но мне все же было интересно, как дела обстоят в DirectX 10, а также в обсуждении 2-й части статьи просили еще включить в список тестов Crysis. Поэтому ниже все тесты и игры будут проходить в ОС Windows7×64.
3DMark Vantage
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
По мере задействования большинства технологий видеокарт и использования более совершенного API DirectX 10 производительность начинает расти более поступательно.
Resident Evil 6 Benchmark
1920×1080, D3D9 version, Max Quality, итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Lost Planet Benchmark
DX10 (Cave), FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Crysis
DX9 (1280×1024) Middle, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
В Crysis очень хорошо видны технологические скачки видеокарт, поддерживающих API DirectX DX9, DX10 и последующий DX11. При таких настройках потребление видеопамяти приближается к одному гигабайту, нелегко приходится видеокартам с малым объемом памяти, а GeForce GTX 680 Ultra вообще не смогла нормально даже запустить данный тест.
DX10 (1920×1080) High, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
На мой взгляд, при таких настройках уже не хватает процессорной мощи, чтобы полностью загрузить старшие видеокарты.
Заключение
Думаю, многие ожидали, что во всех тестах видеокарты выстроятся по линейке друг за дружкой, сильная за слабой и так далее. Но такая ситуация была бы характерна для нормальных условий, где каждая модель выступала бы в тех тестах, для API которых она предназначалась. При таком подходе количество участников было бы меньше, а мне хотелось видеть их все в тестах.
Впрочем, у нас совсем другая история, суть которой — запустить на Windows XP все топовые видеокарты, какие на сегодняшний день возможно. Данная операционная система идеально подходит для игр, время которых прошло. Как выяснилось, использование самых производительных видеокарт даже при таком процессоре не принесет ощутимых дивидендов, в ряде случаев GeForce GTX 580 может оказаться производительнее.
Автор выражает благодарность zEsEn за предоставленные «молниеносные» видеокарты MSI.
Полный текст статьи читайте на overclockers.ru