Ретроклокинг: все топы NVIDIA – AGP интерфейс

Оглавление

Вступление

Лаборатория продолжает цикл статей о ретроклокинге. Наступил 2020 год, а значит, настало время подвести кое-какие итоги. Я решил отойти от процессорной темы, посмотреть на развитие видеокарт и изучить двадцатилетний период, применительно к топовым представителям компании NVIDIA.

реклама

Задача не из простых, но результат получился очень интересным, поехали!

500x429  97 KB. Big one: 700x600  198 KB

В данной статье будут рассмотрены все флагманские видеокарты NVIDIA с AGP интерфейсом, начиная с NVIDIA Riva TNT2 Ultra и заканчивая седьмым поколением GeForce с HSI мостом (High Speed Interconnect bridge). Последний на переходном этапе от AGP к первому поколению PCI-Express давал возможность создавать гибриды из GPU, изначально созданных для поддержки нового графического интерфейса видеокарт, устанавливаемых в AGP разъем.

реклама

На первоначальном этапе развития PCI-Express интерфейса парк AGP машин был просто огромен и для удовлетворения спроса на новые видеокарты с новыми GPU приходилось прибегать к таким промежуточным решениям. Со времен пятой серии GeForce PCX мост HIS располагался поодаль от GPU, ближе к AGP разъему и накрывался отдельным радиатором.

500x383  95 KB. Big one: 1266x970  386 KB
500x333  69 KB

Затем в шестой и седьмой сериях GeForce микросхема HSI и вовсе перекочевала под рамку графического процессора, расположившись рядом с основным кристаллом.

500x476  137 KB. Big one: 1000x952  474 KB

Теперь же, в 2020 году, видеокарты AMD уже перешли на четвертое поколение интерфейса PCI-Express, а ускорители NVIDIA пока лишь готовятся к этому.

Тестовый стенд и нюансы сборки

Беря во внимание поставленную задачу, необходим тестовый стенд, который, во-первых, даст возможность протестировать все видеокарты в абсолютно одинаковых условиях с одними же и теми настройками; во-вторых, с одними и теми же сопутствующими компонентами, будь то оперативная память или процессор. Последний в свою очередь не должен быть слабым звеном по отношению к современным видеокартам и способен их максимально нагрузить.

Брать две материнские платы с обоими интерфейсами — не вариант для такой задачи. В результате выбор сводился к использованию нестандартных решений на Socket 775 производства ASRock с двумя графическими интерфейсами на борту. Речь идет о моделях ASRock серии 775Dual и 4Core в различных вариациях.

Мне удалось найти ASRock 4CoreDual-VSTA, которая имеет AGP 8X разъем, а также PCI-Express. Она также позволяет использовать оперативную память стандарта DDR2 и поддерживает четырех ядерные процессоры семейства Core2 Quad с 8 и 12 Мб кэша второго уровня на ядрах «Kentsfield» и «Yorkfield».

реклама

500x421  127 KB. Big one: 1100x927  498 KB

Столкнувшись вплотную с работой данной материнской платы, я хочу сказать, что её ценность сильно переоценена, как основы для тестового стенда, претендующего на роль «универсальный». Остановлюсь на наиболее неприятных моментах:

  • Слабая система питания процессора, так и просящая костюмной оптимизации;
  • Крайне неудобная разводка PCB материнской платы, особенно основного ATX разъема питания;
  • Отсутствие возможности повышения напряжения на процессор, чипсет;
  • Минимальная возможность повышения напряжения на оперативную памяти стандарта DDR2 всего до 2.0 вольт;
  • Небольшие возможности разгона по FSB;
  • Фактическая неработоспособность режима DDR2 667 МГц и Command rate = 1T.

реклама

500x376  94 KB. Big one: 1200x902  383 KB

Из не всех перечисленных минусов, в плюсы можно отнести поддержку 4-х ядерных процессоров Intel и наличие AGP и PCI-express интерфейса. Но, так как альтернатив для таких целей нет, то попытаюсь дать рекомендации как лучше использовать эти серии материнских плат.

  • Используйте последние модифицированные бэта BIOSы. Для моей модификации это BIOS 2.39a. Иначе вышеперечисленных минусов будет гораздо больше: D
  • Не используйте DDR2 память на чипах Micron. Хотя решения на Micron D9хх являются самыми быстрыми, но на этой плате вы получите больше синих экранов, чем каких-либо результатов. Лучше будет использовать память на чипах Elpida, а за неимением оных — Qimonda.
  • Не выставляйте частоту памяти 667 МГц, так как производительность в этом (4:5) режиме будет меньше, чем при дефолтной частоте 533 МГц, которая находится в соотношении 1:1 по отношению к FSB. К тому же при установке в BIOS значения Command rate = 1T, в реальности вы получите 2T.
  • Тайминги памяти лучше оставить по умолчанию. Их уменьшение может не дать положительного результата. Пример из AIDA64.
500x549  109 KB. Big one: 1078x534  206 KB

реклама

В 3DMark 2001SE итоговый результат при неизменных настройках с таймингами 3–3–3 составил 47259 баллов, с 4–4–4 (по умолчанию режим Auto) — 47469.

  • Используйте процессор только со свободным множителем, если хотите получить большую производительность при минимуме страданий. Без вольтмодов стабильная частота FSB находится в пределах 280 МГц. В моем случае это 283 МГц, что не позволит раскрыть потенциал большинства Core2 Quad или Core2 Duo.
  • При использовании процессора со свободным множителем вам все же придется сделать «pin-mod» процессору, так что без стороннего вмешательства не обойтись.
  • При использовании PCI-Express видеокарт, начиная с 8-й серии следует установить в BIOS опции PCIE Downstream Pipeline и PCIE VC1 Request Queue в положение — Disable, иначе есть шанс увидеть лишь черный экран.
  • Это лишь малая часть советов, остальное вы найдете в соответствующей теме на форуме.

Вообще у меня сложилось такое отношение к этой плате, что лучше её использовать с настройками по умолчанию, параллельно отключив ненужные устройства и технологии. Я еще не встречал таких плат, когда в режиме Full-Auto они работают лучше, чем настроенные вручную. Хвала и слава инженерам ASRock!

Центральный процессор

Приходим к выбору центрального процессора. Для раскачки серьезных PCI-Express видеокарт, с парой дополнительных разъемов питания необходим самый быстрый процессор, который возможно установить в эту материнскую плату, иначе такая видеокарта будет «простаивать» в ожидании очередной порции данных от CPU. В последнем официальном BIOS таким процессором заявлен Core 2 Extreme QX6800 на ядре «Kentsfield», но с неофициальным BIOS можно использовать Intel Core 2 Extreme QX9650/QX9770 на ядре «Yorkfield».

реклама

500x498  110 KB. Big one: 600x600  148 KB

В очередной раз, благодаря помощи моего итальянского коллеги по разгону «GRIFF», из команды оверклокеров «XtremeOverdrive OC team Italy», который прилетал в наши края, я получил в свое распоряжение Intel Core 2 Extreme QX9650 и несколько недостающих видеокарт, так что выход данного материала отчасти и его заслуга.

Intel Core 2 Extreme QX9650 имеет тактовую частоту 3000 МГц, свободный множитель (по умолчанию х9) и FSB равную 1333 МГц. Но при установке в материнскую плату он по умолчанию запускается на частоте 2400 МГц (266×9). Мой экземпляр основан на C1 степпинге, поэтому шанс на разгон был неплохим. В таких условиях с материнской платой ASRock я рассчитывал минимум получить стабильные 3.8 ГГц, лучше 4 ГГц ровно, либо чуть больше, используя воздушное охлаждение.

реклама

По умолчанию напряжение на процессоре равнялось 1.250 В, под нагрузкой оно проседало до 1.150 В. В таких условиях без стороннего вмешательства ЦП был стабилен лишь на частоте 3200 МГц. Самый простой способ повысить напряжение на процессоре это «pin mod». Я думал, что 1.40 В будет достаточно для покорения задуманных цифр, что и было сделано.

350x391  67 KB

Но в реальности, благодаря просадке напряжения, по данным мультиметра вышло лишь 1.29 В, что, естественно, недостаточно. И я сразу решил ставить 1.55 В, поскольку комбинация этого варианта «pin mod«a» была также проста.

реклама

350x391  68 KB

В реальности получил 1.42 В, хотя мониторинг BIOS меня убеждал что подается 1.354 В. При таком напряжении процессор стабильно функционировал на частоте 4050 МГц, но для пущей стабильности я установил итоговую тактовую частоту ровно на 4 ГГц.

реклама

410x406  99 KB

В итоге в составе тестового стенда были следующие компоненты:

  • Intel Core 2 Extreme QX9650 3,0@4,0 ГГц;
  • Thermaltake Big Typhoon;
  • ASRock 4CoreDual-VSTA (VIA PT880 Ultra Chipset);
  • 2 Гб DDRII Corsair Dominator (4–4–4–12 1Т);
  • SSD SATA Kingston SSDNow V300 SATA-III 60 Гб ;
  • Zalman ZM1000-EBT, 1000 Вт.
500x423  93 KB. Big one: 1500x1261  494 KB

Тестирование проводилось в Windows XP Sp3 с помощью следующего ПО:

  • 3Dmark2001SE Pro b330;
  • 3Dmark2003 v. 3.6.1;
  • 3DMark 2005 v. 1.3.1
  • 3DMark 2006 v. 1.1.1;
  • Comanche 4 Benchmark;
  • Unreal Tournament 2003;
  • Return to Castle Wolfenstein;
  • Max Payne;
  • Quake 3 Arena;
  • Doom III;
  • Far Cry;
  • Resident Evil 5 Benchmark;
  • Final Fantasy XI Benchmark;
  • Phantasy Star Online 2 Benchmark;
  • Tom Clancy’s Splinter Cell.

Список бенчмарков и игр оказался достаточно внушительным. Критерий выбора сводился к тому, чтобы по возможности все видеокарты смогли отличиться своими результатами в большинстве тестов, как ниже представленные с AGP интерфейсом, так и будущие участницы с PCI-Express, которые находятся в процессе поиска и отбора.

Участники тестирования

Riva TNT2 Ultra

Итак, возглавить начало нашего чарт-листа выпала честь представительнице до GeForce эры — Riva TNT2 Ultra. Ниже её я не стал включать в тестирование видеокарты, во-первых из за малого количества видеопамяти, так как считаю что 32 Мб для выше перечисленных тестов это необходимый минимум и во-вторых, отсутствие у GPU поддержки аппаратных технологий ускорения 3D графики, хотя бы такой как аппаратная трансформация и освещение (Transform and Lighting (T&<)). Без неё большинство игр и бенчмарков попросту не запуститься, а ведь еще есть и шейдеры и их версии…

Riva TNT2 Ultra вышла в марте 1999 года, GPU работал на частоте 150 МГц, 32 Мб SDRAM памяти на 183 МГц. GPU Поддерживал DirectX версии 6.0 и начитывал 15 миллионов транзисторов. Рекомендованная стоимость на момент выхода $300.

393x489  98 KB

Типичный представитель Riva TNT2 Ultra от Asus.

500x329  97 KB. Big one: 1400x922  495 KB

Я использовал видеокарту Gigabyte GA-660 Plus (170/180 МГц), эта вариация TNT2, которая даже быстрее чем Ультра, но итоговые частоты я привел с дефолтному значению TNT2 Ultra — 150/183 МГц.

500x353  113 KB. Big one: 1300x917  450 KB
Gigabyte GA-660 Plus.

Хотя плата по современным меркам кажется очень простой, но вот коробки к ним, как новогодние елки, смотреть на них даже сейчас — одно удовольствие!

500x280  83 KB. Big one: 1500x841  481 KB
500x309  97 KB. Big one: 900x556  401 KB

GeForce256

GeForce256 можно сказать был главным событием не только августа, но и всего 1999 года. Новый революционный GPU получил аппаратный геометрический блок Transform and Lighting (T&<), который взял на себя задачи по трансформации и освещению вершин полигонов, освободив от этих расчётов CPU. Частота GPU была меньше чем у предыдущего флагмана и составляла скромные 120 МГц. Было выпущено две модификации видеокарт, одна с SDRAM памятью с частотой 166 МГц, чуть позже с DDR SRDAM с эффективной частотой 300 МГц. GPU Поддерживал DirectX 7-й версии и состоял из 23 миллионов транзисторов. Рекомендованная стоимость на момент выхода $280.

393x489  126 KB

В моем случае честь первого GeForce будет отстаивать вариант ASUS — модель AGP-V6600/32M (TVR) с SGRAM памятью, которая несколько быстрее SDRAM.

500x339  96 KB. Big one: 1300x881  493 KB
500x289  85 KB

За версию GeForce256 с DDR SDRAM память уже просили от $300. Данный вид видеокарт появился в продаже в начале 2000 года, а вот мне сейчас не удалось найти ни одной такой видеокарты.

GeForce2 Ultra

GeForce2 Ultra — представитель второго поколения GeForce и можно сказать вторая ультра, если брать в расчет первую TNT2 Utlra. Видеокарта была представлена публике в середине августа 2000-го года. По сравнению с первым GeForce отличия были количественные, а не качественные. Более «тонкий» тех. процесс производства способствовал увеличению тактовых частот и двукратного увеличения функциональных блоков GPU. Транзисторный пакет составил 25 млн шт., или плюс 2 миллиона транзисторов. Поддержка AGP 4X и API DirectX 7 сохранились, а вот рекомендованная стоимость поднялась до $500.

393x489  148 KB

Графический процессор GeForce2 Ultra работал на частоте 250 МГц, 64 Мб скоростной DDR-SDRAM памяти работали уже на внушительных 460 МГц.

500x325  111 KB. Big one: 1200x779  456 KB

TDP видеокарты подросло до 41 Вт, появились радиаторы на видеопамяти, радиатор GPU также прибавил в размерах. Цифры Fillrat«a, также громко заявляли о 1 Гигапикселе и 1 Гигатекселе соответственно, маркетологи этими цифрами сразу же воспользовались при рекламе видеокарты.

500x262  114 KB

GeForce3 Ti500

GeForce3 Ti500 — Titanium! Представитель новой шейдерной архитектуры и первый Titanium был анонсирован в октябре 2001 года. GeForce3 Ti500 принес с собой новую эру шейдеров и новую версию API DirectX 8.0. Отличия от GeForce2 Ultra были уже эволюционными. GPU обзавелся вершинным конвейером, который поддерживал движок nFinite FX Engine, который отвечал за поддержку пиксельных и вершинных шейдеров стандарта Microsoft Shader language версии 1.1 Отныне началось деление игр, которые могут работать с шейдерами, и те, которые нет. Именно развитие шейдерной архитектуры в последующий период времени будет задавать дальнейший путь развития видеокарт.

393x489  140 KB

Глядя на цифры нового флагмана от NVIDIA можно увидеть всё тот же один Гигапиксель и один Гигатексель. По скорости работы предшествующий ТОП — GeForce2 Ultra обгонял GeForce 3 и GeForce 3 Ti200, но только там, где не было шейдеров, хотя вначале количество более «реалистичных шейдерных» игр было небольшим. А вот уже GeForce3 Ti500 благодаря новой технологии работы видеопамяти, которая получила название LMA (Lightspeed Memory Architecture), выигрывал за счет эффективности управления пропускной способностью и заполнения памяти.

Частота работы GPU составляла 240 МГц, DDR-SDRAM память работала на 500 МГц. Количество транзисторов увеличилось до 57 миллионов, стоимость также подросла до $350. Для тестов использовалась GeForce3 Ti500 производства Leadtek.

500x321  98 KB. Big one: 1200x762  424 KB

А ниже альтернатива ASUS:

500x290  113 KB. Big one: 1300x754  493 KB
500x325  93 KB. Big one: 1300x845  470 KB

GeForce4 Ti4600

Geforce4 Ti 4600 был представлен в начале февраля 2002 года и являлся усовершенствованной версией предыдущего поколения. Количество транзисторов GPU увеличилось, но ненамного — до 63 миллионов. Частота GPU подросла до 300 МГц, видеопамять до 650 МГц, при неизменном тех. процессе. Все те же технологии LMA и nFinite FX Engine обзавелись второй версией, предельный объем видеопамяти, остался прежним — равным 128 Мб.

Изменения коснулись GPU, добавился второй вершинный конвейер, стали поддерживаться шейдеры версии 1.4, появилась технология TwinView, благодаря которой пара RAMDAC, размещенные непосредственно в ядре GPU, дали возможность использовать сразу два монитора. Также появился новый метод сглаживания — 4xSAA, который по своей сути являлся улучшенной версией 4XAA и позволял получить более качественную картинку при минимальных затратах ресурсов GPU. Цена новинки на старте продаж составила $350.

500x293  99 KB. Big one: 1230x720  396 KB

На фото изображена Geforce4 Ti 4600 производства ASUS, я использовал аналогичную видеокарту производства MSI.

393x489  126 KB

А еще ниже можно увидеть альтернативы в исполнении Sparkle, Gainward и Leadtek:

500x296  98 KB. Big one: 980x581  308 KB
500x342  86 KB. Big one: 900x615  293 KB
500x332  88 KB. Big one: 950x630  247 KB

GeForce FX 5800 Ultra

GeForce FX 5800 Ultra была без сомнения уникальной видеокартой в свое время и даже спустя десятилетие, ее рыночная стоимость двукратно или даже больше превышает первоначальную. Секрет такого успеха в провале NVIDIA! Да, в борьбе за трон самой быстрой видеокарты в самом начале 2003 года NVIDIA поспешила, так как нужен был быстрый ответ на «красный» Radeon 9700 PRO.

500x404  98 KB. Big one: 700x566  103 KB

Основу GeForce FX 5800 Ultra составлял GPU с кодовым именем «NV30», который должен был превзойти по характерам соперника, но инженерам поставили слишком высокую планку, которую не удалось перешагнуть даже к намеченному сроку. «NV30» был первым GPU компании NVIDIA, который соответствовал спецификации API DirectX 9.0 и вторым после Radeon 9700 PRO.

Он производился по более тонкому 130 нм техпроцессу, тогда как «красный» соперник, довольствовался старым 150 нм. Число транзисторов равнялось 125 млн. штук, у Radeon 9700 PRO было на 20 млн. меньше. Частота ядра GPU была поднята до рекордных 500 МГц, против 325 МГц у Radeon 9700 PRO и 300 МГц у предшественника GeForce4 Ti 4600.

393x489  131 KB
500x376  96 KB. Big one: 969x724  326 KB
Radeon 9700 PRO.

Самой отличительной чертой новой «Ультры» была видеопамять стандарта DDR2 SDRAM с частотой 1 ГГц! Radeon 9700 PRO довольствовался DDR SDRAM памятью первого поколения со скромной частотой 620 МГц. Но шина памяти у «NV30» была 128-битной, против 256-ти битного канала у оппонента.

По количеству примененных технологических решений GeForce FX 5800 Ultra должен был стать бомбой, но, несмотря на все технологические изыски, этого не получилось. Карта была ужасно горяча, из-за чего видеопамять часто выходила из строя, и очень шумна.

Да и количество годных GPU было низким, что создавало острый дефицит (как сейчас у Intel) даже для производителей видеокарт, хотя цена за новинку, способную выдавать «кинематографическую графику» того времени, была установлена в $500. В рознице стоимость видеокарт порою доходила до 600–650$.

500x298  94 KB. Big one: 1500x893  493 KB

Еще одной ахиллесовой пятой GeForce FX 5800 Ultra, кроме памяти и ширине доступа к ней, была слабая вычислительная мощь арифметических процессоров, отвечающих за исполнение пиксельных шейдеров, что особенно чувствовалось в DirectX 9 играх, а так же излишне гибкая программируемая архитектура GPU, которая часто давала просадку производительности по отношению к конкуренту. В конечном итоге «NV30» был предан забвению, а всяческие упоминания о нем были «запрещены» на официальных мероприятиях, так «NV30» стал одним из основных провалов NVIDIA с момента появления первой видеокарты на чипе NV1. Через 5 месяцев на смену GeForce FX 5800 Ultra пришла новая ультра с индексов GeForce FX 5900 Ultra, а потом и её улучшенная копия GeForce FX 5950 Ultra.

500x381  85 KB. Big one: 829x631  190 KB
GeForce FX 5900 Ultra.

GeForce FX 5950 Ultra

В пятом поколении GeForce FX было очень много Ультр (FX 5200 Ultra, 5600, 5700, 5800, 5900 и 5950 Ultra). GeForce FX 5950 Ultra является самой последней Ультрой и значит будет принимать участие в сегодняшнем тестировании. Последняя «ультра» пятого поколения была анонсирована в конце октября 2003 года. Новый GPU с кодовым именем «NV38» насчитывал 135 миллионов транзисторов и выпускался по 130 нм. технологии. Видеокарта поддерживала стандарт AGP 3.0 и могла работать в режиме AGP 8X. 256 Мб скоростной DDR-SDRAM видеопамяти с 256 битной шиной работали на 950 МГц, в то время как GPU работал на 475 МГц.

393x489  131 KB

Видеокарты GeForce FX стали представителями гибкой программируемой графической архитектуры, ключевым моментом которой стало наличие поддержки API DirectX 9. Это можно назвать революционным решением. GeForce FX 5950 Ultra снабжен тремя независимыми вершинными процессорами и поддерживал работу с пиксельными шейдерами 2-й версии. За счет применения новых алгоритмов компрессии текстур обеспечивался прирост до 50% в «тяжелых» режимах при использовании полноэкранного сглаживания и анизотропной фильтрации. Рекомендованная стоимость видеокарты составила 500$. В качестве подопытного образца будет выступать Leadtek GeForce FX 5950 Ultra.

500x285  87 KB. Big one: 1200x668  488 KB

GeForce 6800 Ultra

Последней «Ультрой» с AGP интерфейсом стала GeForce 6800 Ultra. Новый флагман появился в апреле 2004 года, он состоял из 222 миллионов транзисторов и изготавливался по аналогичному предшественнику 130 нм. тех. процессу. 6-я «ультра» получила новый тип памяти — DDR3 SDRAM, которая сообщалась с GPU по средством 256 битной шины. Существенно был расширен пиксельный конвейер, он оказался в 4 раза быстрее такового у предшествующего 5-го поколения GeForce FX.

500x284  83 KB. Big one: 1200x667  435 KB

Из новшеств — GPU обзавелся поддержкой API DirectX 9.0C с поддержкой пиксельных шейдеров версии 3.0, а также массой других улучшений. Рост количества транзисторов при использовании «старого» тех. процесса отрицательно сказался на тепловых и энергетических характеристиках. Видеокарта обзавелась вторым дополнительным «molex» разъемом, а ее TDP перевалил за 100 ваттный рубеж или на 25% больше чем у 5950 Ultra. Система охлаждения уже не обходится без набиравших популярность тепловых трубок, видеокарта стала занимать два слота расширения.

Выше на фото GeForce 6800 Ultra от Gainward, которая будет защищать честь последней AGP «Ультры». Частота GPU опустилась до 400 МГц, по сравнению с предшественницей, память работает частоте 1100 МГц. Рекомендованная стоимость равнялась $500.

393x489  152 KB

А что дальше?

А дальше AGP интерфейс уступил свое место PCI-Express и настала эпоха «GTX», которые заменили собою «Ультры». Самым быстрым вариантом 7-й серии GeForce в AGP исполнении вначале был GeForce 7800 GS, основанный на GPU с кодовым названием «G70», который содержал 16 пиксельных конвейеров, 16 текстурных блоков, 6 вертексных конвейеров и 8 блоков растеризации, ну и конечно же переходный мост HSI в нагрузку. GPU работал на частоте 375 МГц, память на 1200 МГц. Скажем так — получилось почти как GeForce 6800 Ultra.

500x468  99 KB. Big one: 1300x1217  422 KB
GeForce 7800GS (Club 3D).

Но с появлением более свежего и улучшенного GPU «G71», который перевел индекс 7-го поколения видеокарт на одну позицию с 7800 до 7900 ситуация значительно улучшилась. И 7900-я серия видеокарт от NVIDIA на GPU «G71» стала последней серией с уже устаревшим графическим интерфейсом. Вот ее то мы и возьмем на вооружение!

Ко мне попала не совсем обычная видеокарта, в основе которой лежит GPU «G71», указывающий что это должен быть 7900 GS, но официальное наименование модели 7800 GS, а точнее Gainward Bliss 7800GS AGP.

500x366  98 KB. Big one: 924x677  241 KB

А вот и скриншот GPU-Z этой видеокарты:

393x489  151 KB

Логичным просится название 7900 GS, но в Gainward, видимо, посчитали иначе, в любом случае перед нами «G71», а это значит, что пиксельных конвейеров уже 20 штук, столько же текстурных блоков, 7 вертексных конвейеров и 16 блоков растеризации.

Видеокарта снабжена 512 Мб видеопамяти, работающей на 1250 МГц, GPU функционирует на частоте 425 МГц. Так что я не знаю, чем руководствовались в Gainward, по факту перед нами GeForce 7900 GS.

Результаты тестов

Настало время собрать всех участников тестирования вместе и начать. Скорость процессора не будет ограничивать потенциал всех видеокарт, так что «Да начнется 3D битва топов AGP видеокарт NVIDIA»!

Перед началом тестирования настройки драйвера приведены в значение «Максимальная производительность», вертикальная синхронизация отключена. В бенчмарках все настройки соответствовали настройкам по умолчанию.

В игровых тестах выбиралось разрешение и допустимые настройки движка, выбор версий шейдерной модели отдавался на откуп игре. Благодаря этому выбору стал возможен запуск большинства видеокарт в большинстве игр на поддерживаемой ими версии шейдеров. Картинка на современных видеокартах, естественно, выглядела лучше, но и нагрузка на них была выше, тем самым создавалась ситуация, при которой игрок получал от игры именно максимальный результат от использования более современной видеокарты.

Все игры с бенчмарками прогонялись три раза, по итогу выбирался средний результат.

3DMark 2001 SE Pro b330

3DMark 2001 SE Pro b330

Итоговый балл
Больше — лучше

Включите JavaScript, чтобы видеть графики


3DMark 2001 SE Pro b330, Game3 Lobby, High detail

Итоговый балл
Больше — лучше

Включите JavaScript, чтобы видеть графики


3DMark 2003 v. 3.6.1

3DMark 2003 v. 3.6.1

Итоговый балл
Больше — лучше

Включите JavaScript, чтобы видеть графики


3DMark 2005 v. 1.3.1

3DMark 2005 v. 1.3.1

Итоговый балл
Больше — лучше

Включите JavaScript, чтобы видеть графики


3DMark 2005 v. 1.3.1, GT3 — Canyon Flight

Итоговый балл
Больше — лучше

Включите JavaScript, чтобы видеть графики


3DMark 2006 v. 1.1.1

3DMark 2006 v. 1.1.1

Итоговый балл
Больше — лучше

Включите JavaScript, чтобы видеть графики


Comanche 4 (Benchmark)

260x338  23 KB
500x282  49 KB. Big one: 1276x720  236 KB
500x283  38 KB. Big one: 1274x720  168 KB
Comanche 4 (Benchmark)

1280×1024, 32 bit color, Texture compression — on, Hardware Shaders — on, FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики

Comanche 4 это игра-симулятор полета на прототипе боевого вертолета RAH-66 со встроенным бенчмарком. Игровой движок поддерживает API DirectX 7 и DirectX 8. Используется мультитекстурирование, аппаратное ускорение операций расчета освещенности и преобразования координат (Hardware Transforming & Lightning), пиксельные и вершинные шейдеры.

Unreal Tournament 2003

500x400  62 KB. Big one: 1280x1024  309 KB
Unreal Tournament 2003

1280×1024, D3D, Max Detail, Sound — on, карта — br-Bifrost, FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики

Знаменитый некогда сетевой 3D шутер Unreal Tournament 2003 базируется на графическом движке Unreal Engine, разработанном Epic Games. Сам движок построен на базе DirectX 7 и использует функции Transformation, Clipping and Lighting, доступные в видеокартах с T&<.

Поддерживаются некоторые технологии из API DirectX 8, такие как пиксельные и вершинные шейдеры, но их поддержка минимальна и разница в производительности у видеокарт DirectX 7 и DirectX 8 не должна сильно отличаться. Для тестов использовалась утилита, разработанная [H]ardOCP.

Return to Castle Wolfenstein

500x386  58 KB. Big one: 1280x1024  195 KB
500x400  87 KB. Big one: 1280x1024  358 KB
Return to Castle Wolfenstein

1280×1024, all settings to High, Average FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики

3D шутер от первого лица, разработанный компанией Gray Matter Interactive/ id Software и изданный компанией Activision в ноябре 2001 года. Используется модифицированный движок Id Tech 3, примененный в Quake III.

Max Payne

500x400  46 KB. Big one: 1280x1024  176 KB
500x403  51 KB
500x300  39 KB. Big one: 1280x769  180 KB
Max Payne

1280×1024, PCGH’s Final Scene No.1 (VGA-Demo), Average FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики

В 2001-м году эта игра наделала очень много шума, благодаря своей «кинематографический» графике и известному режиму «Bullet time». Передовые технологии того времени затем воплотились в третий тест тестового пакета 3DMark 2001 Second Edition.

Quake 3 Arena

500x400  79 KB. Big one: 1280x1024  376 KB
Quake 3 Arena

1280×1024, all settings to High, Average FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики


Doom III

500x461  61 KB. Big one: 1024x768  167 KB
500x263  40 KB
500x375  73 KB. Big one: 1024x768  212 KB
Doom III

1024×768, High Quality, Average FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики


Far Cry

500x375  100 KB. Big one: 1024x768  316 KB
Far Cry

1024×768, Max Quality, demo 3DNews — Research, Average FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики

Интересный результат, не правда ли? GeForce2 Ultra обогнала 3, 4 и 5 поколение видеокарт. Выше я писал о том, что игровой движок будет сам выбирать используемую шейдерную модель, причем возможно максимальную, а у GeForce2 Ultra поддержки шейдеров нет, но в FarCry играть можно, пусть и без красивой водички и прочих графических изысков. Отсюда и такой результат.

Resident Evil 5 Benchmark

500x360  65 KB
Resident Evil 5 Benchmark

1024×768, D3D9 version, Middle Quality, Average FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики


Final Fantasy XI Official Benchmark Version 2

436x434  41 KB
500x375  67 KB. Big one: 1024x768  240 KB
500x375  88 KB. Big one: 1024x768  278 KB
Final Fantasy XI Official Benchmark Version 2

1024×768, итоговый результат (очки)
Больше — лучше

Включите JavaScript, чтобы видеть графики


Phantasy Star Online 2 (Benchmark)

500x375  58 KB. Big one: 1024x768  182 KB
500x388  46 KB. Big one: 1030x800  147 KB
Phantasy Star Online 2 (Benchmark)

1024×768, итоговый результат (очки)
Больше — лучше

Включите JavaScript, чтобы видеть графики

Наверное, самый тяжелый тест из выбранных. Данная игра вышла в середине 2012 года и впоследствии была портирована на PlayStation 4. Поддерживаются всевозможные графические эффекты API DirectX 9C, а сам движок обеспечивает очень большое количество полигонов в кадре. Единственный минус — интерфейс полностью японский, так что пришлось повозиться.

Tom Clancy«s Splinter Cell

500x301  35 KB. Big one: 1185x863  180 KB
500x400  59 KB. Big one: 1280x1024  280 KB
Tom Clancy«s Splinter Cell

1024×768, Max Quality, demo Tbilisi, FPS
Больше — лучше

Включите JavaScript, чтобы видеть графики


Заключение

Благодаря проведенным тестам можно увидеть, насколько растет производительность флагманских видеокарт NVIDIA c интерфейсом AGP от поколения к поколению, когда их не сдерживает центральный процессор.

Результаты получились интересными, но еще более интересное ждет вас впереди, когда я добавлю к ним показатели топовых графических ускорителей c интерфейсом PCI-Express, начиная с GeForce 6800 Ultra, 7800 GTX 512 Мб, 8800 Ultra и так далее…

500x366  91 KB. Big one: 744x544  164 KB

Как следствие, можно будет выяснить, какое поколение видеокарт оптимально в качестве основы для игровой ретро-платформы, а также получить представление, насколько Riva TNT2 Ultra слабее GeForce GTX 980 Ti.

500x337  140 KB. Big one: 1100x742  480 KB

И в завершение данного материала предлагаю вашему вниманию скриншот рабочего стола со всеми уведомлениями и предупреждениями о совместимости протестированных видеокарт и тех игр и бенчмарков, где они принимали участие.

500x400  42 KB. Big one: 1280x1024  224 KB
Нажмите для увеличения.
Максим Романов aka Max1024


testedby.png


Полный текст статьи читайте на overclockers.ru