Обзор GeForce 8800 GTX от Reg Hardware

Исследовать производительность GeForce 8800 GTX, мы не имеем возможности, но перевести материал с иностранного источника можем попытаться, с сохранением всей концепцией (ну, почти). Итак, обзор с Reg Hardware (о котором мы уже упоминали):

Не играется с 10-ым DirectX без Windows Vista? Не расстраивайтесь. Наконец-то NVIDIA сорвало покрывало с нового DX10 совместимого графического процессора GeForce 8800 ака G80 – но стоит ли бежать и хватать новые девайсы сейчас или все-таки подождать выхода Windows Vista? Читайте дальше, дабы узнать, насколько хорош GF8800…

Первая партия чипов G80, выпущенная одной из тайванских фабрик, имеет референсную частоту процессора и потому видеоадаптеры разных производителей мало, чем отличаются друг от друга, но Sparkle, любезно предоставивший для обзора Reg Hardware, отличился аккуратненькой наклейкой своей торговой марки на кулере.



В дополнение к самой карте были в комплекте: Call of Duty II, Cyberlink PowerDVD 6 (2ch версия), s-video кабель, два переходника DVI-to-VGA, два SLI-кабеля и две штуки шестиконтактных кабелей питания… только вы все равно не обратите на это внимание, потому что будете просто очарованы этим устройством (как сказал автор данного обзора – прим.ред.).



А это устройство - двухслотовая видеокарта длиной 26,5 сантиметра. Для сравнения, видеокарта от ATI - Radeon X1950 XTX имеет в длину всего лишь 22,8 см.

Процессор GeForce 8800 GTX произведен TSMC по 90nm технологии и содержит 651 миллион транзисторов, что гораздо больше, чем в любых других существующих адаптерах. Количество памяти GDDR3 на борту - 768 мегабайт, работающие на частоте 900(1800 – DDR) МГц. Эффективная полоса пропускания памяти – 86,4 Гб/сек благодаря 384-битной шине доступа.

На карте установлено два DVI разъема, поддерживающие два дисплея с разрешением до 2048x1536 и частотой обновления 85Hz, либо же два TFT монитора с разрешением 2560x1600. Также на карте присутствует 7-ми контактный mini-DIN разъем HDTV.

GeForce 8800 GTX поддерживает DirectX10 Shader Model 4.0 и технологию физических расчетов Nvidia Quantum Effects в играх, поддерживающих алгоритм Havok 4.0. NVIDIA оставила в стороне дискретные пиксельные шейдеры, а также вершинные шейдеры, используя вместо них объединенную шейдерную архитектуру, которая именуется как Stream Processors. Введение в DirectX10 поддержки Shader Model 4.0 потребовало значительного увеличения числа дополнительных регистров для обеспечения эффективной обработки текстурных шейдеров, однако кроме всего прочего, в новый единый алгоритм добавлена еще и обработка геометрических шейдеров. Если рассмотреть архитектуру GeForce 7900 и Radeon X1950, основанную на раздельной обработке пиксельных, вершинных и геометрических шейдеров, то окажется, что всегда будет возникать ситуация, при которой GPU будет частично простаивать, ожидая, когда будет обработан тот или иной эффект. С едиными шейдерами – простите, с Stream Processors – нагрузку процессора можно довести до максимума. Ранее, DirectX 10 обрабатывал алгоритмы физических расчетов как часть работы с унифицированными шейдерами, однако на данный момент NVIDIA выделила эту функцию в отдельный физический движок Quantum Effects.

Ядро, имея 24 блока растровых операций, судя по отчету Coolbits, работает на частоте 575 МГц. Однако, как бы то ни было, 128 stream-процессоров работают на 1350 мегагерцах.

Упомянутые выше два разъема питания – это плата за огромное количество транзисторов нового чипа, потому как Sparkle, как и другие 8800 GTX, потребляют около 140 ватт. NVIDIA рекомендует использовать как минимум 450 ватные блоки питания, что кажется слишком оптимистичным заявлением.

Теперь перейдем к вопросу о тестовой платформе. Естественным выглядит выбор в пользу Intel Core 2 Extreme QX6700, однако не хотелось бы ограничиваться полностью одним INTEL для выбора материнской платы, и, обратившись к руководству, выяснилось, что рекомендуемой платформой является nForce 680i, что вызывает, мягко говоря, недоумение – а как можно использовать еще не выпущенный продукт?

В конце концов, тестовая конфигурация была представлена процессором Core 2 Extreme QX6700 на материнской плате D975XBX2, двумя гигабайтами оперативной памяти CORSAR XMS2 и жестким диском WD150 Raptor с установленной ОС Windows XP SP2.

В любом случае, это максимум, что мы можем предложить видеоадаптеру, основанному на DirectX 10, тестируя его под девятым DirectX и Win XPSP2, так как нет пока даже релиз-кандидата Windows Vista – соответственно нет и DirectX10. Ко всему прочему, тестируя оборудование 2007 года на программном обеспечении 2006-го, неясно, насколько эффективно будет функционирование новой видеокарты, т.к. именно DX10 "перемещает" большую часть графической нагрузки с центрального процессора на процессор видеоадаптера.

Первые впечатления после запуска системы – вентилятор работает невероятно тихо, имея 72 мм в диаметре и высоту 20 мм, и как следствие, большую площадь поверхности лопастей. В течение всего тестирования температура не поднималась выше 65C, а уровень шума был крайне незначителен.

Драйверы версии ForceWare 96.89 обеспечивали поддержку стандарта High Dynamic Range (HDR) и 16-и уровневого антиальясинга благодаря использованию нового графического движка Lumenex.

Итак, запустив 3DMark06 с настройками по умолчанию, было получено 11606 "попугаев", которые превратились в 9080 после включения 4x антиальясинга (АА) и 16х анизотропной фильтрации (AF). Разгон Core 2 Extreme до 2,92 ГГц ничего не изменил в результатах 3DMark06, а повышение частоты GPU и памяти до 626/1900 МГц привели к едва заметному изменению, что стало некоторым сюрпризом.



Видеокарты Sapphire Radeon 1950 XTX, работающие в режиме CrossFire (частота CPU была 2,92 ГГц) при частоте в 648/2000 МГц показал результат в 11954 единицы, что практически идентично результату G80.

После этого пришло время немного поиграть в игры. Вначале был запущен Far Cry, но видимо, его дни в области тестирования высокопроизводительного оборудования уже прошли, и следующим кандидатом оказался Elder Scrolls: Oblivion, являющийся фаворитом компании ATI (AMD) (тем интереснее).

Запустив утилиту FRAPS и включив Ultra High Quality с HDR при разрешении в 1600x1200, перешли к игровому процессу: персонаж спустился вниз по холму навстречу солнцу, затем, взглянув на светило, нырнул в озеро. С такими установками этот жуткий тест вызвал бы бурю гнева и море проклятий из уст любого геймера в связи с чудовищными "тормозами" картинки на экране, но Core 2 Extreme и 8800 GTX справились с этим заданием просто великолепно (ну еще бы – прим. ред.).

На частоте процессора 2,92 ГГц в одиночном режиме Sapphire 1950 XTX показал среднюю частоту кадров в 52,7 единицы. Добавив вторую такую же карту в CrossFire режим, величина fps поднялась до отметки в 63,9. Запустив GeForce 8800 GTX величина fps поднялась на ошеломляющую высоту (как показалось автору – прим.ред.) - 73,7 fps. Тогда было увеличено разрешение экрана до 1920x1440, однако количество fps упало всего лишь на 0,4 единицы – в итоге 73,3.

Несомненно, с выходом в ближайшие месяцы новых ревизий драйверов потенциал G80 раскроется еще больше, но не зависимо от этого GeForce 8800 GTX уже является мощнейшим устройством в своем классе на данный момент (и с высочайшей ценой - прим.ред.).


И немного от нас. В данном обзоре, график с результатами в игре F.E.A.R. остался непонятен – к чему он? :)



Источник:
Reg Hardware

©  overclockers.com.ua