Ретроклокинг: все топы NVIDIA – PCI-Express интерфейс
Оглавление
Вступление
Лаборатория продолжает цикл статей о ретроклокинге. В прошлом материале было рассказано о топовых видеокартах компании NVIDIA с AGP интерфейсом, начиная с Rivа TNT2 Ultra и заканчивая GeForce седьмой серии.
реклама
Теперь настал черед посмотреть, как на одной и той же платформе будут чувствовать себя топовые представители с PCI-Express интерфейсом, а также выяснить, насколько они быстрее своих самых быстрых AGP коллег.
Чтобы ощутить всю мощь характеристик и динамику прогресса, я оставил все результаты, полученные AGP видеокартами, и добавил к ним новые значения с PCI-Express «Ультрами» и не только.
Благодаря проведенному сравнению производительности вы увидите, где у тестовой системы слабое место и видеокарту какого поколения лучше использовать в составе сбалансированной ретро-сборки для игр, которым уже много лет. Будет наглядно видно, как самые передовые технологии влияют на производительность видеокарт в старых играх и бенчмарках, которые их не используют.
Всего же в статье присутствуют 277 результатов, полученных в играх и синтетических тестах, показатель, надо отметить, получился внушительным, как и потраченное на это время.
реклама
Тестовый стенд
Благодаря использованию универсальной материнской платы ASRock 4CoreDual-VSTA, которая оснащена двумя графическими интерфейсами (AGP 8X и PCI-Express), а также позволяет использовать четырехъядерные процессоры Intel Core2 Quad c 12 Мбайт кэша второго уровня и оперативную память стандарта DDR2, можно сравнить производительность видеокарт за очень большой промежуток времени.
О самой материнской плате и основных ее «проблемах» было рассказано в материале, посвященном AGP-видеокартам, кто не успел его прочитать, может ознакомиться с ним по ссылке.
Я остановлюсь лишь на деталях, которые будут относиться к сравнению видеокарт с PCI-Express интерфейсом. Хотя оба интерфейса находятся рядом друг с другом и неподалеку от северного моста, одновременное их функционирование физически невозможно.
Интерфейс AGP в самом производительном режиме 8х (спецификация AGP 3.0) позволяет достичь скорости обмена данными с видеокартой на уровне 2.0 Гбайт/с. Графический PCI-Express слот на материнской плате хоть и выполнен в полноформатном факторе х16, но физически он способен отдать только четыре линии PCI-Express, которые относятся к первому поколению. Скорость обмена данными в обоих направлениях в таком режиме (PCI-Express х4 Gen.1.0) равна половине скорости AGP 8x интерфейса или 1.0 Гбайт/с.
Много это или мало — покажут тесты, но на фоне современных показателей такие скорости кажутся просто «детскими»:
Впрочем, попытка протестировать все и вся — от Riva TNT2 Ultra до GeForce GTX 980 Ti (GeForce GTX 980 Ti — последняя видеокарта, которую можно заставить работать в Windows XP) — не удалась. Как всегда, возник один нюанс. И пусть Pentium 4 в исполнении Socket 478 запускался с GeForce GTX 980 Ti без всяческих проблем, на этот раз заморочки возникли из-за использования логики производства VIA, которая не способна работать с видеокартами с интерфейсом PCI-Express третьего поколения.
С рассмотренной ранее ASRock P4i945GC (Socket 478) на чипсете Intel 945 проблем не возникло никаких, но в данном конкретном случае мне пришлось ограничиться видеокартой GeForce GTX 580 с архитектурой Fermi. Проблему эту можно решить, но без вмешательства в микрокод BIOS материнской платы не обойтись, если у кого-то есть мысли на этот счет, можете написать в комментариях либо в ЛС. Так что сравнить лоб в лоб Riva TNT2 Ultra с GeForce GTX 980 Ti не получится, но даже несмотря на этот нюанс, результат получится не менее интересным.
В остальном же перед нами все тот же тестовый стенд, в основе которого лежит разогнанный до 4 ГГц Intel Core 2 Extreme QX9650, на нем и будут тестироваться все участники.
Состав тестового стенда:
- Intel Core 2 Extreme QX9650 3.0@4.0 ГГц;
- Thermaltake Big Typhoon;
- ASRock 4CoreDual-VSTA (VIA PT880 Ultra Chipset);
- 2 Гбайт DDRII Corsair Dominator (4–4–4–12 1Т);
- SSD SATA Kingston SSDNow V300 SATA-III 60 Гбайт;
- Zalman ZM1000-EBT, 1000 Ватт.
Тестирование проводилось в Windows XP SP3 с помощью следующего ПО:
- 3DMark 2001 SE Pro b330;
- 3DMark 2003 v. 3.6.1;
- 3DMark 2005 v. 1.3.1;
- 3DMark 2006 v. 1.1.1;
- Comanche 4 Benchmark;
- Unreal Tournament 2003;
- Return to Castle Wolfenstein;
- Max Payne;
- Quake 3 Arena;
- Doom III;
- Far Cry;
- Resident Evil 5 Benchmark;
- Final Fantasy XI Benchmark;
- Phantasy Star Online 2 Benchmark;
- Tom Clancy’s Splinter Cell.
реклама
Участники тестирования
GeForce 6800 Ultra 512 MB PCI-Express
Начнем с GeForce 6800 Ultra производства MSI с 512 Мбайт видеопамяти и PCI-Express интерфейсом. «Ультра» это не простая, а с удвоенным количеством видеопамяти.
В основе видеокарты лежит GPU с кодовым именем «NV40», работающий на такой же частоте, как и AGP вариант — то есть на 400 МГц. Видеопамять стандарта DDR3 работает на 1100 МГц.
реклама
Единственное отличие от AGP варианта это новый 6-pin коннектор дополнительного питания, который пришел на смену двум «молексам», в остальном все то же самое.
Частотные и иные характеристики обеих «Ультр» можно увидеть ниже на скриншоте GPU-Z:
Цены на новинку весны 2005 года стартовали с отметок $899 и уходили за $1000, тогда как предыдущие флагманы вполне вписывались в 500-долларовый диапазон. При чтении новостей за 2005 год о прогнозах стоимости видеокарт в отдаленном будущем, которые перешагнут $1200 барьер и обзаведутся водяным охлаждением, в это не сильно верилось либо с большим трудом.
реклама
Сейчас же это суровая реальность, достаточно посмотреть на стоимость нынешнего флагмана GeForce RTX 2080 Ti. И это не самый дорогой вариант RTX 2080 Ti с водоблоком, на сегодняшний день стоимость этой модели составляет $1450.
GeForce 7800 GTX 512 Mb
После главного топа шестой серии GeForce с «Ультрой» было решено завязать, хотя и зря. Вышедшая в середине 2005 года NVIDIA GeForce 7800 GTX улучшила характеристики предшественника. Так, пиксельных конвейеров стало 24 вместо 16, добавились два дополнительных вершинных конвейера, остальные характеристики качественно не изменились.
Первая волна нового флагмана GeForce 7800 GTX несла на борту 256 Мбайт DDR3 памяти, работающей на частоте 1200 МГц. GPU c кодовым именем «G70» пахал на частоте 430 МГц, стоимость новинки была установлена в $549.
реклама
Выше на фото можно увидеть обычного представителя GeForce 7800 GTX референсного дизайна. Видеокарта пока еще занимает один слот, но с выходом версии с объемом набортной памяти 512 Мбайт все изменится.
Конкуренция с «красным» лагерем и близость выхода Radeon X1800 XT с 512 Мбайт видеопамяти на борту заставили «зеленый» лагерь поволноваться. Хотя волнения были не очень сильными, опыт производства такой видеокарты у NVIDIA был обкатан еще на шестой «Ультре», а в параллельной вселенной на «G70» компания продавала Quadro FX 4500 с 512 Мбайт видеопамяти тем, кто в ней нуждался и был готов отдать $2499.
Единственный вопрос оставался в поднятии тактовых частот, поскольку выпускать аналогичную видеокарту лишь с удвоенным количеством видеопамяти было нецелесообразно (хотя бы потому, что она на таких частотах проиграет конкуренту). В результате в основу «заряженной» GeForce 7800 GTX с 512 Мбайт видеопамяти лег все тот же GPU «G70» ревизии А2, что и в первоначальной GeForce 7800 GTX с 256 Мбайт, но заранее отобранный на конвейере и способный работать на частоте 550 МГц.
реклама
Количество таких отборных GPU было небольшим по сравнению с теми, которые пошли на изготовление остальных видеокарт седьмой серии, поэтому в дикой природе найти GeForce 7800 GTX с 512 Мбайт проблематично.
Памяти у новой видеокарты стало больше, и ее тактовая частота поднялась с 1200 до 1700 МГц. Осталось водрузить систему охлаждения, проверенную в профессиональном сегменте на Quadro, и конкурент «красным» готов!
Такая двухслотовая система охлаждения начала применяться во всех остальных производительных продуктах седьмой серии. Цена на новинку была установлена $649, а некоторые экземпляры с водяным охлаждением вплотную подобрались к $1000.
реклама
GeForce 7900 GTX
В 2006 году было жарко, и я говорю не о лете, а о конкуренции в мире 3D графики. В итоге после Radeon X1800 XT вышел Radeon X1900 XT, а за ним последовал и Radeon X1950 XTX…
NVIDIA нужно было чем-то отвечать. Благо, ответ не заставил себя долго ждать, +100 к индексу и +500 к карме — и новый флагман GeForce 7900 GTX готов! И пусть хронология событий была несколько иной, но в данном случае это неважно, мы ведь говорим о топовых видеокартах калифорнийской компании. Что же представлял собою новый топ?
GPU «G70» уступил место «G71», который перешел на более тонкий техпроцесс (с 110 на 90 нм). В итоге подросли тактовые частоты, видеопроцессор работал на 650 МГц, видеопамять — на 1600 МГц, что на 100 МГц ниже, чем у GeForce 7800 GTX 512 Мбайт. В остальном же качественные характеристики не изменились, зато рекомендованная стоимость наконец-то уменьшилась до $499.
реклама
Выглядела новинка устрашающе, особенно если это был вариант ASUS.
King Kong должен был быть порвать конкурентов на части, как на экране, так и по результатам тестов:
Как видно, система охлаждения такая же, как у GeForce 7800 GTX 512 Мбайт, просто вендоры наклеили на кожух собственные наклейки. Ниже пример Leadtek — модель WinFast PX7900 GTX TDH Extreme.
Но в конце 2006 года уже был близок закат целой эпохи — эпохи DirectX 9c, Windows XP, седьмой серии GeForce и кое-чего еще…
GeForce 8800 Ultra
Это случилось ранним утром 8 ноября 2006 года. Пока правая часть полушария оправлялась от празднования великой Октябрьской революции и доставала из холодильника рассол или его заменитель, либо занималась повторным просмотром парада на Красной площади, на противоположном конце света все резко все изменилось.
Нет, конец света не наступил и SkyNet не захватил власть и мировое господство (хотя ему это физически не удалось бы в то время), случилось то, что давно ждали, …, но как выяснилось потом, ожидания были напрасны.
В этот солнечный осенний день корпорация Microsoft выпустила новую операционную систему Windows Vista, которая поддерживала API DirectX 10, а компания NVIDIA представила видеокарту, которая могла с этим API работать — GeForce 8800 GTX.
После выпуска революционной GeForce 8800 GTX появилась GeForce 8800 Ultra. Совершенство форм и внешний вид вкупе с названием и позиционированием сделали эту модель в какой-то мере особенной и представляющей интерес даже сейчас.
Последняя «Ультра» — именно такое название закрепилось у этой версии, и больше префикс «Ultra» до сего дня не использовался производителем.
Графический процессор «G80», давший начало многим другим видеокартам, был быстр и горяч. С восьмого поколения в мире видеокарт изменилось многое. Сложность изготовления резко подскочила, количество транзисторов аналогично, резко увеличились энергопотребление и требования к блоку питания.
Если коротко, то видеокарта стала ассоциироваться с печью, впрочем, в русской раскладке GTX как раз и есть «печь».
Архитектура видеокартостроительства изменилась коренным образом. На смену различным блокам пришли универсальные шейдерные процессоры, количество которых у 8800 Ultra составило 128 штук, а также 64 текстурных блока и 24 блока растеризации. В дополнение подсистема видеопамяти объемом 768 Мбайт сообщалась с GPU посредством 384-битной шины. Частота работы DDR3 составляла 2.16 ГГц.
Видеокарта обзавелась двумя дополнительными разъемами питания и была очень горячей, вдобавок с началом использования BGA пайки (по технологии с бессвинцовым припоем) очень большое количество GPU попросту «отвалилось» и до наших дней дожили лишь коллекционные экземпляры. Рекомендованная стоимость новинки составляла $849, поставить в систему их можно было сразу три.
GeForce 9800 GTX+
Девятой серии такого фурора произвести не удалось, и она запомнилась скорее кучей моделей видеокарт и неразберихой с их наименованием. Больших отличий в архитектуре от восьмой серии не было, на смену G80 пришел G92, а после него G92b, по еще более тонкому техпроцессу 55 нм.
Абстрагируясь от этих перипетий и чехарды названий, честь девятой серии будет защищать именно GeForce 9800 GTX+, которая содержит все те же 128 универсальных шейдерных процессоров, 64 текстурных блока и 16 блоков растеризации.
Сам GPU функционирует на частоте 738 МГц, видеопамять на 2.2 ГГц. Шина обмена данными памяти с GPU сократилась по сравнению с 8800 Ultra до 256 бит, объем памяти — до 512 Мбайт.
Вот так флагман! Единственные улучшения — повышенная частота работы GPU и соответственно шейдерного домена, да приятная рекомендованная стоимость в размере $229. Еще стоит отметить, что видеокарта обзавелась PCI-Express интерфейсом второго поколения, но в рамках моего тестирования он не играет роли.
GeForce GTX 285
Следующий представитель высокопроизводительных видеокарт — GeForce GTX 285 –представляет собой эволюцию предыдущего топа в виде GeForce GTX 280, но изготовленного по более тонкому техпроцессу. Похожая картина один в один повторяет историю с GeForce 9800 GTX и GeForce 9800 GTX+.
Но, в отличие от GeForce 9800 GTX+, в данном случае все более серьезно. Хотя GPU c кодовым именем «GT200b» стал развитием восьмой серии, а заодно и девятой, но 1.4 миллиарда транзисторов не зря расположились под крышкой.
GeForce GTX 285 содержит 240 универсальных шейдерных процессоров, 80 текстурных блоков и 32 блока растеризации. По отношению к предыдущему флагману все блоки были переработаны, а их производительность повышена.
Частота GPU равна 648 МГц, один гигабайт видеопамяти сообщался с GPU с помощью 512-ти битной шиной на частоте 2484 МГц. Мне досталась модель BFG c «дьявольски» повышенной частотой до ХХХ МГц. По этическим соображениям раскрывать ее не буду, достаточно посмотреть на скриншот GPU-Z выше. На этой частоте видеокарта и проходила все тесты.
Интересными вариантами на «GT200b» стали версии EVGA GTX 285 Classified…
… и ASUS Matrix GTX 285.
Matrix это интересная и заряженная модель, а EVGA GTX 285 Classified позволяет объединить четыре видеокарты в QUAD SLi. Некоторые производители (например, EVGA, Palit, Gigabyte) вскоре выпустили свои двухгигабайтные версии GeForce GTX 285.
По ценообразованию произошел заметный сдвиг. За GeForce GTX 280 на старте продаж просили $649, а после перевода GPU на более тонкий техпроцесс рекомендованная стоимость опустилась до отметки $359.
GeForce GTX 480
Эту видеокарту ждали долго. Сроки ее выхода переносились. На пути ее появления было слишком много сложностей, но она все же вышла, пусть и с опозданием. Но награда за терпение не заставила себя ждать.
Новый GPU с кодовым именем «GF100» получился интересным во всех смыслах этого слова. Он состоял более чем из трех миллиардов транзисторов и получил устрашающие физические размеры. Взамен игрокам «зеленого» лагеря наконец-таки выдали поддержку DirectX 11 и самые передовые технологии.
В состав GF100 входят 512 потоковых процессоров, собранных в 16 мультипроцессоров по 32 штуки в каждом, 48 блоков растеризации и 60 текстурных блоков. Добавим сюда поддержку Shader Model 5.0 и тесселяции, поддержку вычислений в целочисленном формате, с плавающей запятой, с FP32 и FP64 точностью, и так далее.
По своим функциональным возможностям «GF100», принадлежащий к архитектуре «Fermi», был на голову прогрессивнее конкурирующего решения, в нем были заложены зачатки технологии трассировки лучей, уж очень удачной и гибкой получилась данная архитектура.
Но были у «GF100» и минусы. Если отбросить сложность производства и процент выхода годных чипов, то в основу GeForce GTX 480 легло несколько урезанное ядро с 480 потоковыми процессорами, которое отличилось чудовищным нагревом и энергопотреблением. Шутка ли, 250 Вт и рабочие температуры, близкие к 100°C? Это была поистине настоящая «Печь»! Я бы даже поставил ее на один уровень с GeForce FX 5800 Ultra.
Стандартные частоты GPU — 700 МГц, частота шейдерного домена — 1400 МГц, эффективная частота памяти DDR5 — 3700 МГц.
Большинство видеокарт получило эталонный дизайн и не дожило до сегодняшнего дня благодаря горячему нраву. Я же искал только одну модель на этом GPU — MSI N480GTX Lightning с повышенными частотами, улучшенной системой охлаждения и переработанной элементарной базой.
Именно она и будет выступать в качестве представительницы GeForce GTX 480.
Три разъема питания выдают слишком горячий нрав видеокарты — нечастое явление для графических ускорителей с одним GPU.
GeForce GTX 580
GeForce GTX 580 — венец архитектуры Fermi. Новый GPU «GF110» получил все 512 потоковых процессоров, 48 блоков растеризации и 64 текстурных блока. Инженерам NVIDIA пришлось заново «пересобрать» его с целью оптимизации энергопотребления и возможности работы на более высоких, чем «GF100», частотах. А по прошествии времени TSMC обкатала 40-нанометровый техпроцесс, количество годных процессоров возросло, а их качественные характеристики улучшились.
В «GF110» были внесены косметические изменения, а в остальном перед нами был практически все тот же первый «Fermi».
Спустя семь лет компания NVIDIA без шума и пыли внесла в последние версии драйверов поддержку API DirectX 12 для моделей видеокарт, принадлежащих к архитектуре Fermi, куда относятся семейства GeForce GTX 400 и GTX 500. Вот что значит гибкая программная архитектура и тот задел на будущее, который инженеры компании оставили еще в 2010 году.
В качестве видеокарты на «GF110» будет выступать все та же «Молния», но экстремально заряженная и с тремя гигабайтами видеопамяти — MSI N580GTX Lightning Xtreme Edition 3Gb.
На мой взгляд, это одна из красивейших видеокарт своего поколения. В оппоненты ей можно выставить разве что GeForce GTX 580 Classified Ultra 3Gb.
Новая «Молния» стала не только быстрее, но и значительно холоднее, и даже третий дополнительный разъем питания исчез с обратной стороны ее печатной платы.
Результаты тестов
Вот и настало время собрать всех участников тестирования — с разными интерфейсами — и посмотреть, что из этого получилось. Шутка ли, целых 17 поколений топовых видеокарт, да еще и на одной платформе! И хотя набор тестового ПО я попытался сделать шире, но все технологические новшества различных поколений данными тестами не измерить, да и любыми другими попросту не выйдет, уж больно они разные.
Если по итогам первого теста можно было с уверенностью сказать, что скорость процессора не будет ограничивать потенциал всех видеокарт, то в этой части ее уже не хватает. Но это информация к размышлению при построении оптимальной системы для ретро-игр, при выборе ЦП и соответствующей видеокарты.
В новых графиках я специально оставил полученные ранее результаты AGP топов NVidia, да начнется новая 3D битва PCI-Express флагманов компании NVIDIA!
3DMark 2001 SE Pro b330
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Итоговый FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
3DMark 2003 v. 3.6.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
3DMark 2005 v. 1.3.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Итоговый FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
3DMark 2006 v. 1.1.1
Итоговый балл
Больше — лучше
Включите JavaScript, чтобы видеть графики
Comanche 4 (Benchmark)
1280×1024, 32 bit color, Texture compression — on, Hardware Shaders — on, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Comanche 4 это игра-симулятор полета на прототипе боевого вертолета RAH-66 со встроенным бенчмарком. Игровой движок поддерживает API DirectX 7 и DirectX 8. Используются мультитекстурирование, аппаратное ускорение операций расчета освещенности и преобразования координат (Hardware Transforming & Lightning), пиксельные и вершинные шейдеры.
Unreal Tournament 2003
1280×1024, D3D, Max Detail, Sound — on, карта — br-Bifrost, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Знаменитый некогда сетевой 3D-шутер Unreal Tournament 2003 базируется на графическом движке Unreal Engine, разработанном Epic Games. Сам движок построен на базе DirectX 7 и использует функции Transformation, Clipping and Lighting, доступные в видеокартах с T&<.
Поддерживаются некоторые технологии из API DirectX 8, такие как пиксельные и вершинные шейдеры, но их поддержка минимальна и разница в производительности у видеокарт DirectX 7 и DirectX 8 не должна сильно отличаться. Для тестов использовалась утилита, разработанная [H]ardOCP.
Return to Castle Wolfenstein
1280×1024, all settings to High, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
3D-шутер от первого лица, разработанный студиями Gray Matter Interactive/id Software и изданный компанией Activision в ноябре 2001 года. Используется модифицированный движок Id Tech 3, применяемый в Quake III.
Max Payne
1280×1024, PCGH’s Final Scene No.1 (VGA-Demo), Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
В 2001-м году эта игра наделала много шума, благодаря своей «кинематографической» графике и известному режиму «Bullet time». Передовые технологии того времени затем воплотились в третий тест пакета 3DMark 2001 Second Edition.
Quake 3 Arena
1280×1024, all settings to High, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Doom III
1024×768, High Quality, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Far Cry
1024×768, Max Quality, demo 3DNews — Research, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Resident Evil 5 Benchmark
1024×768, D3D9 version, Middle Quality, Average FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Final Fantasy XI Official Benchmark Version 2
1024×768, итоговый результат (очки)
Больше — лучше
Включите JavaScript, чтобы видеть графики
Phantasy Star Online 2 (Benchmark)
1024×768, итоговый результат (очки)
Больше — лучше
Включите JavaScript, чтобы видеть графики
Наверное, самый тяжелый тест из выбранных. Данная игра вышла в середине 2012 года и впоследствии была портирована на PlayStation 4. Поддерживаются всевозможные графические эффекты API DirectX 9C, а сам движок обеспечивает очень большое количество полигонов в кадре. Единственный минус — интерфейс полностью японский, так что пришлось повозиться.
Tom Clancy«s Splinter Cell
1024×768, Max Quality, demo Tbilisi, FPS
Больше — лучше
Включите JavaScript, чтобы видеть графики
Заключение
В тестах стоит оценить динамику в 3DMark 2001 SE, Quake 3 и Doom III — интересные цифры, если присмотреться. Номинация «Удивление» это, пожалуй, Return to Castle Wolfenstein с лидером чарта GeForce 7800 GTX. А самым реалистичным в плане полной отдачи от DirectX 9.0c стал тест Phantasy Star Online 2, в нем все серьезно, с такой же нагрузкой на видеокарту.
В самом тестировании не все участники были в равных позициях и в тех условиях, для которых они предназначались. Думаю, в Windows 7 расстановка сил была бы иной, но цель была посмотреть, как поведут себя 17 поколений видеокарт в Windows XP — лучшей ретро-ОС для ретро игр. Задумываясь о построении такой системы, можно смело брать AGP ускоритель седьмой серии, его точно хватит для любых игр тех лет, либо озадачиться поиском GeForce 7800 GTX (больно уж она мне понравилась). Смысла гоняться за дополнительной производительностью, устанавливая PCI-Express монстров недавнего прошлого, старше, чем GeForce 7900 GTX, нет. Ведь какая разница, будет на экране 150 или 500 FPS?
И в завершение последний график, где в кратных величинах будет продемонстрирована производительность в 3DMark 2001 SE всех 17 видеокарт (за основу/единицу производительности взята Riva TNT2 Ultra).
Мне остается лишь выразить благодарность компании NVIDIA, которая все эти годы была рядом с нами. Радовала и огорчала новыми топами, давала надежды одним и разочаровала других, заставляла ждать и, в конце концов, выпускала новые интересные продукты, предоставляя возможность устраивать словесные перепалки на форумах (и все это независимо от того, к какому лагерю относишься — «красному» или «зеленому»). На горизонте маячит еще и «синий» лагерь, а это значит, что битва топов продолжается, и пламя флейма разгорится с большей силой, ведь это и есть прогресс.
И закончу ссылкой на новость про видеокарту NVIDIA GeForce RTX 2080 Ti Cyberpunk 2077 Edition, которую нельзя купить. Мне придется долго ее караулить, пока она станет героиней одной из будущих статей, но это того стоит!
Полный текст статьи читайте на overclockers.ru