Ретроклокинг: все топы NVIDIA – AGP интерфейс
Оглавление
Вступление
Лаборатория продолжает цикл статей о ретроклокинге. Наступил 2020 год, а значит, настало время подвести кое-какие итоги. Я решил отойти от процессорной темы, посмотреть на развитие видеокарт и изучить двадцатилетний период, применительно к топовым представителям компании NVIDIA.
реклама
Задача не из простых, но результат получился очень интересным, поехали!
В данной статье будут рассмотрены все флагманские видеокарты NVIDIA с AGP интерфейсом, начиная с NVIDIA Riva TNT2 Ultra и заканчивая седьмым поколением GeForce с HSI мостом (High Speed Interconnect bridge). Последний на переходном этапе от AGP к первому поколению PCI-Express давал возможность создавать гибриды из GPU, изначально созданных для поддержки нового графического интерфейса видеокарт, устанавливаемых в AGP разъем.
реклама
На первоначальном этапе развития PCI-Express интерфейса парк AGP машин был просто огромен и для удовлетворения спроса на новые видеокарты с новыми GPU приходилось прибегать к таким промежуточным решениям. Со времен пятой серии GeForce PCX мост HIS располагался поодаль от GPU, ближе к AGP разъему и накрывался отдельным радиатором.
Затем в шестой и седьмой сериях GeForce микросхема HSI и вовсе перекочевала под рамку графического процессора, расположившись рядом с основным кристаллом.
Теперь же, в 2020 году, видеокарты AMD уже перешли на четвертое поколение интерфейса PCI-Express, а ускорители NVIDIA пока лишь готовятся к этому.
Тестовый стенд и нюансы сборки
Беря во внимание поставленную задачу, необходим тестовый стенд, который, во-первых, даст возможность протестировать все видеокарты в абсолютно одинаковых условиях с одними же и теми настройками; во-вторых, с одними и теми же сопутствующими компонентами, будь то оперативная память или процессор. Последний в свою очередь не должен быть слабым звеном по отношению к современным видеокартам и способен их максимально нагрузить.
Брать две материнские платы с обоими интерфейсами — не вариант для такой задачи. В результате выбор сводился к использованию нестандартных решений на Socket 775 производства ASRock с двумя графическими интерфейсами на борту. Речь идет о моделях ASRock серии 775Dual и 4Core в различных вариациях.
Мне удалось найти ASRock 4CoreDual-VSTA, которая имеет AGP 8X разъем, а также PCI-Express. Она также позволяет использовать оперативную память стандарта DDR2 и поддерживает четырех ядерные процессоры семейства Core2 Quad с 8 и 12 Мб кэша второго уровня на ядрах «Kentsfield» и «Yorkfield».
реклама
Столкнувшись вплотную с работой данной материнской платы, я хочу сказать, что её ценность сильно переоценена, как основы для тестового стенда, претендующего на роль «универсальный». Остановлюсь на наиболее неприятных моментах:
- Слабая система питания процессора, так и просящая костюмной оптимизации;
- Крайне неудобная разводка PCB материнской платы, особенно основного ATX разъема питания;
- Отсутствие возможности повышения напряжения на процессор, чипсет;
- Минимальная возможность повышения напряжения на оперативную памяти стандарта DDR2 всего до 2.0 вольт;
- Небольшие возможности разгона по FSB;
- Фактическая неработоспособность режима DDR2 667 МГц и Command rate = 1T.
реклама
Из не всех перечисленных минусов, в плюсы можно отнести поддержку 4-х ядерных процессоров Intel и наличие AGP и PCI-express интерфейса. Но, так как альтернатив для таких целей нет, то попытаюсь дать рекомендации как лучше использовать эти серии материнских плат.
- Используйте последние модифицированные бэта BIOSы. Для моей модификации это BIOS 2.39a. Иначе вышеперечисленных минусов будет гораздо больше: D
- Не используйте DDR2 память на чипах Micron. Хотя решения на Micron D9хх являются самыми быстрыми, но на этой плате вы получите больше синих экранов, чем каких-либо результатов. Лучше будет использовать память на чипах Elpida, а за неимением оных — Qimonda.
- Не выставляйте частоту памяти 667 МГц, так как производительность в этом (4:5) режиме будет меньше, чем при дефолтной частоте 533 МГц, которая находится в соотношении 1:1 по отношению к FSB. К тому же при установке в BIOS значения Command rate = 1T, в реальности вы получите 2T.
- Тайминги памяти лучше оставить по умолчанию. Их уменьшение может не дать положительного результата. Пример из AIDA64.
реклама
В 3DMark 2001SE итоговый результат при неизменных настройках с таймингами 3–3–3 составил 47259 баллов, с 4–4–4 (по умолчанию режим Auto) — 47469.
- Используйте процессор только со свободным множителем, если хотите получить большую производительность при минимуме страданий. Без вольтмодов стабильная частота FSB находится в пределах 280 МГц. В моем случае это 283 МГц, что не позволит раскрыть потенциал большинства Core2 Quad или Core2 Duo.
- При использовании процессора со свободным множителем вам все же придется сделать «pin-mod» процессору, так что без стороннего вмешательства не обойтись.
- При использовании PCI-Express видеокарт, начиная с 8-й серии следует установить в BIOS опции PCIE Downstream Pipeline и PCIE VC1 Request Queue в положение — Disable, иначе есть шанс увидеть лишь черный экран.
- Это лишь малая часть советов, остальное вы найдете в соответствующей теме на форуме.
Вообще у меня сложилось такое отношение к этой плате, что лучше её использовать с настройками по умолчанию, параллельно отключив ненужные устройства и технологии. Я еще не встречал таких плат, когда в режиме Full-Auto они работают лучше, чем настроенные вручную. Хвала и слава инженерам ASRock!
Центральный процессор
Приходим к выбору центрального процессора. Для раскачки серьезных PCI-Express видеокарт, с парой дополнительных разъемов питания необходим самый быстрый процессор, который возможно установить в эту материнскую плату, иначе такая видеокарта будет «простаивать» в ожидании очередной порции данных от CPU. В последнем официальном BIOS таким процессором заявлен Core 2 Extreme QX6800 на ядре «Kentsfield», но с неофициальным BIOS можно использовать Intel Core 2 Extreme QX9650/QX9770 на ядре «Yorkfield».
реклама
В очередной раз, благодаря помощи моего итальянского коллеги по разгону «GRIFF», из команды оверклокеров «XtremeOverdrive OC team Italy», который прилетал в наши края, я получил в свое распоряжение Intel Core 2 Extreme QX9650 и несколько недостающих видеокарт, так что выход данного материала отчасти и его заслуга.
Intel Core 2 Extreme QX9650 имеет тактовую частоту 3000 МГц, свободный множитель (по умолчанию х9) и FSB равную 1333 МГц. Но при установке в материнскую плату он по умолчанию запускается на частоте 2400 МГц (266×9). Мой экземпляр основан на C1 степпинге, поэтому шанс на разгон был неплохим. В таких условиях с материнской платой ASRock я рассчитывал минимум получить стабильные 3.8 ГГц, лучше 4 ГГц ровно, либо чуть больше, используя воздушное охлаждение.
реклама
По умолчанию напряжение на процессоре равнялось 1.250 В, под нагрузкой оно проседало до 1.150 В. В таких условиях без стороннего вмешательства ЦП был стабилен лишь на частоте 3200 МГц. Самый простой способ повысить напряжение на процессоре это «pin mod». Я думал, что 1.40 В будет достаточно для покорения задуманных цифр, что и было сделано.
Но в реальности, благодаря просадке напряжения, по данным мультиметра вышло лишь 1.29 В, что, естественно, недостаточно. И я сразу решил ставить 1.55 В, поскольку комбинация этого варианта «pin mod«a» была также проста.
реклама
В реальности получил 1.42 В, хотя мониторинг BIOS меня убеждал что подается 1.354 В. При таком напряжении процессор стабильно функционировал на частоте 4050 МГц, но для пущей стабильности я установил итоговую тактовую частоту ровно на 4 ГГц.
реклама
В итоге в составе тестового стенда были следующие компоненты:
- Intel Core 2 Extreme QX9650 3,0@4,0 ГГц;
- Thermaltake Big Typhoon;
- ASRock 4CoreDual-VSTA (VIA PT880 Ultra Chipset);
- 2 Гб DDRII Corsair Dominator (4–4–4–12 1Т);
- SSD SATA Kingston SSDNow V300 SATA-III 60 Гб ;
- Zalman ZM1000-EBT, 1000 Вт.
Тестирование проводилось в Windows XP Sp3 с помощью следующего ПО:
- 3Dmark2001SE Pro b330;
- 3Dmark2003 v. 3.6.1;
- 3DMark 2005 v. 1.3.1
- 3DMark 2006 v. 1.1.1;
- Comanche 4 Benchmark;
- Unreal Tournament 2003;
- Return to Castle Wolfenstein;
- Max Payne;
- Quake 3 Arena;
- Doom III;
- Far Cry;
- Resident Evil 5 Benchmark;
- Final Fantasy XI Benchmark;
- Phantasy Star Online 2 Benchmark;
- Tom Clancy’s Splinter Cell.
Список бенчмарков и игр оказался достаточно внушительным. Критерий выбора сводился к тому, чтобы по возможности все видеокарты смогли отличиться своими результатами в большинстве тестов, как ниже представленные с AGP интерфейсом, так и будущие участницы с PCI-Express, которые находятся в процессе поиска и отбора.
Участники тестирования
Riva TNT2 Ultra
Итак, возглавить начало нашего чарт-листа выпала честь представительнице до GeForce эры — Riva TNT2 Ultra. Ниже её я не стал включать в тестирование видеокарты, во-первых из за малого количества видеопамяти, так как считаю что 32 Мб для выше перечисленных тестов это необходимый минимум и во-вторых, отсутствие у GPU поддержки аппаратных технологий ускорения 3D графики, хотя бы такой как аппаратная трансформация и освещение (Transform and Lighting (T&<)). Без неё большинство игр и бенчмарков попросту не запуститься, а ведь еще есть и шейдеры и их версии…
Riva TNT2 Ultra вышла в марте 1999 года, GPU работал на частоте 150 МГц, 32 Мб SDRAM памяти на 183 МГц. GPU Поддерживал DirectX версии 6.0 и начитывал 15 миллионов транзисторов. Рекомендованная стоимость на момент выхода $300.
Типичный представитель Riva TNT2 Ultra от Asus.
Я использовал видеокарту Gigabyte GA-660 Plus (170/180 МГц), эта вариация TNT2, которая даже быстрее чем Ультра, но итоговые частоты я привел с дефолтному значению TNT2 Ultra — 150/183 МГц.
Хотя плата по современным меркам кажется очень простой, но вот коробки к ним, как новогодние елки, смотреть на них даже сейчас — одно удовольствие!
GeForce256
GeForce256 можно сказать был главным событием не только августа, но и всего 1999 года. Новый революционный GPU получил аппаратный геометрический блок Transform and Lighting (T&<), который взял на себя задачи по трансформации и освещению вершин полигонов, освободив от этих расчётов CPU. Частота GPU была меньше чем у предыдущего флагмана и составляла скромные 120 МГц. Было выпущено две модификации видеокарт, одна с SDRAM памятью с частотой 166 МГц, чуть позже с DDR SRDAM с эффективной частотой 300 МГц. GPU Поддерживал DirectX 7-й версии и состоял из 23 миллионов транзисторов. Рекомендованная стоимость на момент выхода $280.
В моем случае честь первого GeForce будет отстаивать вариант ASUS — модель AGP-V6600/32M (TVR) с SGRAM памятью, которая несколько быстрее SDRAM.
За версию GeForce256 с DDR SDRAM память уже просили от $300. Данный вид видеокарт появился в продаже в начале 2000 года, а вот мне сейчас не удалось найти ни одной такой видеокарты.
GeForce2 Ultra
GeForce2 Ultra — представитель второго поколения GeForce и можно сказать вторая ультра, если брать в расчет первую TNT2 Utlra. Видеокарта была представлена публике в середине августа 2000-го года. По сравнению с первым GeForce отличия были количественные, а не качественные. Более «тонкий» тех. процесс производства способствовал увеличению тактовых частот и двукратного увеличения функциональных блоков GPU. Транзисторный пакет составил 25 млн шт., или плюс 2 миллиона транзисторов. Поддержка AGP 4X и API DirectX 7 сохранились, а вот рекомендованная стоимость поднялась до $500.
Графический процессор GeForce2 Ultra работал на частоте 250 МГц, 64 Мб скоростной DDR-SDRAM памяти работали уже на внушительных 460 МГц.
TDP видеокарты подросло до 41 Вт, появились радиаторы на видеопамяти, радиатор GPU также прибавил в размерах. Цифры Fillrat«a, также громко заявляли о 1 Гигапикселе и 1 Гигатекселе соответственно, маркетологи этими цифрами сразу же воспользовались при рекламе видеокарты.
GeForce3 Ti500
GeForce3 Ti500 — Titanium! Представитель новой шейдерной архитектуры и первый Titanium был анонсирован в октябре 2001 года. GeForce3 Ti500 принес с собой новую эру шейдеров и новую версию API DirectX 8.0. Отличия от GeForce2 Ultra были уже эволюционными. GPU обзавелся вершинным конвейером, который поддерживал движок nFinite FX Engine, который отвечал за поддержку пиксельных и вершинных шейдеров стандарта Microsoft Shader language версии 1.1 Отныне началось деление игр, которые могут работать с шейдерами, и те, которые нет. Именно развитие шейдерной архитектуры в последующий период времени будет задавать дальнейший путь развития видеокарт.
Глядя на цифры нового флагмана от NVIDIA можно увидеть всё тот же один Гигапиксель и один Гигатексель. По скорости работы предшествующий ТОП — GeForce2 Ultra обгонял GeForce 3 и GeForce 3 Ti200, но только там, где не было шейдеров, хотя вначале количество более «реалистичных шейдерных» игр было небольшим. А вот уже GeForce3 Ti500 благодаря новой технологии работы видеопамяти, которая получила название LMA (Lightspeed Memory Architecture), выигрывал за счет эффективности управления пропускной способностью и заполнения памяти.
Частота работы GPU составляла 240 МГц, DDR-SDRAM память работала на 500 МГц. Количество транзисторов увеличилось до 57 миллионов, стоимость также подросла до $350. Для тестов использовалась GeForce3 Ti500 производства Leadtek.
А ниже альтернатива ASUS:
GeForce4 Ti4600
Geforce4 Ti 4600 был представлен в начале февраля 2002 года и являлся усовершенствованной версией предыдущего поколения. Количество транзисторов GPU увеличилось, но ненамного — до 63 миллионов. Частота GPU подросла до 300 МГц, видеопамять до 650 МГц, при неизменном тех. процессе. Все те же технологии LMA и nFinite FX Engine обзавелись второй версией, предельный объем видеопамяти, остался прежним — равным 128 Мб.
Изменения коснулись GPU, добавился второй вершинный конвейер, стали поддерживаться шейдеры версии 1.4, появилась технология TwinView, благодаря которой пара RAMDAC, размещенные непосредственно в ядре GPU, дали возможность использовать сразу два монитора. Также появился новый метод сглаживания — 4xSAA, который по своей сути являлся улучшенной версией 4XAA и позволял получить более качественную картинку при минимальных затратах ресурсов GPU. Цена новинки на старте продаж составила $350.
На фото изображена Geforce4 Ti 4600 производства ASUS, я использовал аналогичную видеокарту производства MSI.
А еще ниже можно увидеть альтернативы в исполнении Sparkle, Gainward и Leadtek:
GeForce FX 5800 Ultra
GeForce FX 5800 Ultra была без сомнения уникальной видеокартой в свое время и даже спустя десятилетие, ее рыночная стоимость двукратно или даже больше превышает первоначальную. Секрет такого успеха в провале NVIDIA! Да, в борьбе за трон самой быстрой видеокарты в самом начале 2003 года NVIDIA поспешила, так как нужен был быстрый ответ на «красный» Radeon 9700 PRO.
Основу GeForce FX 5800 Ultra составлял GPU с кодовым именем «NV30», который должен был превзойти по характерам соперника, но инженерам поставили слишком высокую планку, которую не удалось перешагнуть даже к намеченному сроку. «NV30» был первым GPU компании NVIDIA, который соответствовал спецификации API DirectX 9.0 и вторым после Radeon 9700 PRO.
Он производился по более тонкому 130 нм техпроцессу, тогда как «красный» соперник, довольствовался старым 150 нм. Число транзисторов равнялось 125 млн. штук, у Radeon 9700 PRO было на 20 млн. меньше. Частота ядра GPU была поднята до рекордных 500 МГц, против 325 МГц у Radeon 9700 PRO и 300 МГц у предшественника GeForce4 Ti 4600.
Самой отличительной чертой новой «Ультры» была видеопамять стандарта DDR2 SDRAM с частотой 1 ГГц! Radeon 9700 PRO довольствовался DDR SDRAM памятью первого поколения со скромной частотой 620 МГц. Но шина памяти у «NV30» была 128-битной, против 256-ти битного канала у оппонента.
По количеству примененных технологических решений GeForce FX 5800 Ultra должен был стать бомбой, но, несмотря на все технологические изыски, этого не получилось. Карта была ужасно горяча, из-за чего видеопамять часто выходила из строя, и очень шумна.
Да и количество годных GPU было низким, что создавало острый дефицит (как сейчас у Intel) даже для производителей видеокарт, хотя цена за новинку, способную выдавать «кинематографическую графику» того времени, была установлена в $500. В рознице стоимость видеокарт порою доходила до 600–650$.
Еще одной ахиллесовой пятой GeForce FX 5800 Ultra, кроме памяти и ширине доступа к ней, была слабая вычислительная мощь арифметических процессоров, отвечающих за исполнение пиксельных шейдеров, что особенно чувствовалось в DirectX 9 играх, а так же излишне гибкая программируемая архитектура GPU, которая часто давала просадку производительности по отношению к конкуренту. В конечном итоге «NV30» был предан забвению, а всяческие упоминания о нем были «запрещены» на официальных мероприятиях, так «NV30» стал одним из основных провалов NVIDIA с момента появления первой видеокарты на чипе NV1. Через 5 месяцев на смену GeForce FX 5800 Ultra пришла новая ультра с индексов GeForce FX 5900 Ultra, а потом и её улучшенная копия GeForce FX 5950 Ultra.
GeForce FX 5950 Ultra
В пятом поколении GeForce FX было очень много Ультр (FX 5200 Ultra, 5600, 5700, 5800, 5900 и 5950 Ultra). GeForce FX 5950 Ultra является самой последней Ультрой и значит будет принимать участие в сегодняшнем тестировании. Последняя «ультра» пятого поколения была анонсирована в конце октября 2003 года. Новый GPU с кодовым именем «NV38» насчитывал 135 миллионов транзисторов и выпускался по 130 нм. технологии. Видеокарта поддерживала стандарт AGP 3.0 и могла работать в режиме AGP 8X. 256 Мб скоростной DDR-SDRAM видеопамяти с 256 битной шиной работали на 950 МГц, в то время как GPU работал на 475 МГц.
Видеокарты GeForce FX стали представителями гибкой программируемой графической архитектуры, ключевым моментом которой стало наличие поддержки API DirectX 9. Это можно назвать революционным решением. GeForce FX 5950 Ultra снабжен тремя независимыми вершинными процессорами и поддерживал работу с пиксельными шейдерами 2-й версии. За счет применения новых алгоритмов компрессии текстур обеспечивался прирост до 50% в «тяжелых» режимах при использовании полноэкранного сглаживания и анизотропной фильтрации. Рекомендованная стоимость видеокарты составила 500$. В качестве подопытного образца будет выступать Leadtek GeForce FX 5950 Ultra.
GeForce 6800 Ultra
Последней «Ультрой» с AGP интерфейсом стала GeForce 6800 Ultra. Новый флагман появился в апреле 2004 года, он состоял из 222 миллионов транзисторов и изготавливался по аналогичному предшественнику 130 нм. тех. процессу. 6-я «ультра» получила новый тип памяти — DDR3 SDRAM, которая сообщалась с GPU по средством 256 битной шины. Существенно был расширен пиксельный конвейер, он оказался в 4 раза быстрее такового у предшествующего 5-го поколения GeForce FX.
Из новшеств — GPU обзавелся поддержкой API DirectX 9.0C с поддержкой пиксельных шейдеров версии 3.0, а также массой других улучшений. Рост количества транзисторов при использовании «старого» тех. процесса отрицательно сказался на тепловых и энергетических характеристиках. Видеокарта обзавелась вторым дополнительным «molex» разъемом, а ее TDP перевалил за 100 ваттный рубеж или на 25% больше чем у 5950 Ultra. Система охлаждения уже не обходится без набиравших популярность тепловых трубок, видеокарта стала занимать два слота расширения.
Выше на фото GeForce 6800 Ultra от Gainward, которая будет защищать честь последней AGP «Ультры». Частота GPU опустилась до 400 МГц, по сравнению с предшественницей, память работает частоте 1100 МГц. Рекомендованная стоимость равнялась $500.
А что дальше?
А дальше AGP интерфейс уступил свое место PCI-Express и настала эпоха «GTX», которые заменили собою «Ультры». Самым быстрым вариантом 7-й серии GeForce в AGP исполнении вначале был GeForce 7800 GS, основанный на GPU с кодовым названием «G70», который содержал 16 пиксельных конвейеров, 16 текстурных блоков, 6 вертексных конвейеров и 8 блоков растеризации, ну и конечно же переходный мост HSI в нагрузку. GPU работал на частоте 375 МГц, память на 1200 МГц. Скажем так — получилось почти как GeForce 6800 Ultra.
Но с появлением более свежего и улучшенного GPU «G71», который перевел индекс 7-го поколения видеокарт на одну позицию с 7800 до 7900 ситуация значительно улучшилась. И 7900-я серия видеокарт от NVIDIA на GPU «G71» стала последней серией с уже устаревшим графическим интерфейсом. Вот ее то мы и возьмем на вооружение!
Ко мне попала не совсем обычная видеокарта, в основе которой лежит GPU «G71», указывающий что это должен быть 7900 GS, но официальное наименование модели 7800 GS, а точнее Gainward Bliss 7800GS AGP.
А вот и скриншот GPU-Z этой видеокарты:
Логичным просится название 7900 GS, но в Gainward, видимо, посчитали иначе, в любом случае перед нами «G71», а это значит, что пиксельных конвейеров уже 20 штук, столько же текстурных блоков, 7 вертексных конвейеров и 16 блоков растеризации.
Видеокарта снабжена 512 Мб видеопамяти, работающей на 1250 МГц, GPU функционирует на частоте 425 МГц. Так что я не знаю, чем руководствовались в Gainward, по факту перед нами GeForce 7900 GS.
Результаты тестов
Настало время собрать всех участников тестирования вместе и начать. Скорость процессора не будет ограничивать потенциал всех видеокарт, так что «Да начнется 3D битва топов AGP видеокарт NVIDIA»!
Перед началом тестирования настройки драйвера приведены в значение «Максимальная производительность», вертикальная синхронизация отключена. В бенчмарках все настройки соответствовали настройкам по умолчанию.
В игровых тестах выбиралось разрешение и допустимые настройки движка, выбор версий шейдерной модели отдавался на откуп игре. Благодаря этому выбору стал возможен запуск большинства видеокарт в большинстве игр на поддерживаемой ими версии шейдеров. Картинка на современных видеокартах, естественно, выглядела лучше, но и нагрузка на них была выше, тем самым создавалась ситуация, при которой игрок получал от игры именно максимальный результат от использования более современной видеокарты.
Все игры с бенчмарками прогонялись три раза, по итогу выбирался средний результат.
3DMark 2001 SE Pro b330
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
3DMark 2003 v. 3.6.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
3DMark 2005 v. 1.3.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
3DMark 2006 v. 1.1.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Comanche 4 (Benchmark)
1280×1024, 32 bit color, Texture compression — on, Hardware Shaders — on, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Comanche 4 это игра-симулятор полета на прототипе боевого вертолета RAH-66 со встроенным бенчмарком. Игровой движок поддерживает API DirectX 7 и DirectX 8. Используется мультитекстурирование, аппаратное ускорение операций расчета освещенности и преобразования координат (Hardware Transforming & Lightning), пиксельные и вершинные шейдеры.
Unreal Tournament 2003
1280×1024, D3D, Max Detail, Sound — on, карта — br-Bifrost, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Знаменитый некогда сетевой 3D шутер Unreal Tournament 2003 базируется на графическом движке Unreal Engine, разработанном Epic Games. Сам движок построен на базе DirectX 7 и использует функции Transformation, Clipping and Lighting, доступные в видеокартах с T&<.
Поддерживаются некоторые технологии из API DirectX 8, такие как пиксельные и вершинные шейдеры, но их поддержка минимальна и разница в производительности у видеокарт DirectX 7 и DirectX 8 не должна сильно отличаться. Для тестов использовалась утилита, разработанная [H]ardOCP.
Return to Castle Wolfenstein
1280×1024, all settings to High, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
3D шутер от первого лица, разработанный компанией Gray Matter Interactive/ id Software и изданный компанией Activision в ноябре 2001 года. Используется модифицированный движок Id Tech 3, примененный в Quake III.
Max Payne
1280×1024, PCGH’s Final Scene No.1 (VGA-Demo), Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
В 2001-м году эта игра наделала очень много шума, благодаря своей «кинематографический» графике и известному режиму «Bullet time». Передовые технологии того времени затем воплотились в третий тест тестового пакета 3DMark 2001 Second Edition.
Quake 3 Arena
1280×1024, all settings to High, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Doom III
1024×768, High Quality, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Far Cry
1024×768, Max Quality, demo 3DNews — Research, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Интересный результат, не правда ли? GeForce2 Ultra обогнала 3, 4 и 5 поколение видеокарт. Выше я писал о том, что игровой движок будет сам выбирать используемую шейдерную модель, причем возможно максимальную, а у GeForce2 Ultra поддержки шейдеров нет, но в FarCry играть можно, пусть и без красивой водички и прочих графических изысков. Отсюда и такой результат.
Resident Evil 5 Benchmark
1024×768, D3D9 version, Middle Quality, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Final Fantasy XI Official Benchmark Version 2
1024×768, итоговый результат (очки)
Больше — лучше
Включите JavaScript, чтобы видеть графики
Phantasy Star Online 2 (Benchmark)
1024×768, итоговый результат (очки)
Больше — лучше
Включите JavaScript, чтобы видеть графики
Наверное, самый тяжелый тест из выбранных. Данная игра вышла в середине 2012 года и впоследствии была портирована на PlayStation 4. Поддерживаются всевозможные графические эффекты API DirectX 9C, а сам движок обеспечивает очень большое количество полигонов в кадре. Единственный минус — интерфейс полностью японский, так что пришлось повозиться.
Tom Clancy«s Splinter Cell
1024×768, Max Quality, demo Tbilisi, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Заключение
Благодаря проведенным тестам можно увидеть, насколько растет производительность флагманских видеокарт NVIDIA c интерфейсом AGP от поколения к поколению, когда их не сдерживает центральный процессор.
Результаты получились интересными, но еще более интересное ждет вас впереди, когда я добавлю к ним показатели топовых графических ускорителей c интерфейсом PCI-Express, начиная с GeForce 6800 Ultra, 7800 GTX 512 Мб, 8800 Ultra и так далее…
Как следствие, можно будет выяснить, какое поколение видеокарт оптимально в качестве основы для игровой ретро-платформы, а также получить представление, насколько Riva TNT2 Ultra слабее GeForce GTX 980 Ti.
И в завершение данного материала предлагаю вашему вниманию скриншот рабочего стола со всеми уведомлениями и предупреждениями о совместимости протестированных видеокарт и тех игр и бенчмарков, где они принимали участие.
Полный текст статьи читайте на overclockers.ru