Графические войны #1: лагающее пиксельное XX столетие

50 лет истории видеокарт (1970–2020): Полная история видеокарт и их прародителей


Часть 1


Компьютерная графика. Услышав эти слова, мы представляем поражающие воображение спецэффекты из крупных блокбастеров, красивейшие модели персонажей из ААА-игр, и всё, что связано с визуальной красотой современных технологий. Но компьютерная графика, как и любой технологический аспект, развивалась не одно десятилетие, преодолев путь от отображения нескольких символов на монохромном дисплее до поражающих воображение пейзажей и героев, с каждым годом всё сложнее отличимых от реальности. Сегодня мы начнем рассказ о том, как начиналась история компьютерной графики, вспомним, как появился термин «видеокарта» и сокращение GPU, и какие технические рубежи год за годом преодолевали лидеры рынка, в стремлении покорения новой аудитории.

image

Предисловие эпохи. Зарождение компьютеров (1940-е/1950-е)


Эпоха компьютерных технологий у многих вызывает ассоциации с началом эпохи персональных компьютеров в начале 80-х, но на самом деле первые компьютеры появились гораздо раньше. Первые разработки таких машин начались еще до Второй Мировой войны, а прототипы, отдаленно напоминающие будущие ПК, увидели свет уже в 1947 году. Первым таким устройством стал IBM 610 — экспериментальный компьютер, разработанный Джоном Ленцем из Уотсоновской лаборатории при Колумбийском университете. Он первым в истории получил гордое название «Персонального автоматического компьютера» (Personal Automatic Computer, PAC), хотя оно и было слегка преувеличенным — машина стоила $55 тысяч, и было изготовлено всего 150 экземпляров.

Первые впечатляющие визуальные системы появлялись в те же годы. Уже в 1951 году IBM при участии General Electric и ряда военных подрядчиков разработала летный симулятор для нужд армии. В нем использовалась технология трехмерной виртуализации — пилот, находившийся за тренажером, видел проекцию кабины и мог действовать так, как это происходило бы за штурвалом настоящего самолета. Позже графический прототип использовала компания Evans & Sutherland, создавшая полноценный тренажер для пилотов CT5, работающий на базе массива компьютеров DEC PDP-11. Только задумайтесь — на дворе всё еще 50-е, а у нас уже тогда была трехмерная графика!

1971–1972. Magnavox Odyssey и PONG


Бум полупроводниковых технологий и производства микросхем полностью поменял расклад сил на рынке, прежде принадлежавшем громоздким аналоговым компьютерам, занимавшим целые залы. Отказавшись от вакуумных ламп и перфокарт, индустрия шагнула в эпоху развлечений для всей семьи, познакомив западный мир с «домашними игровыми видеосистемами», прабабушками современных консолей.

Первопроходцем видеоигровых развлечений стало устройство под названием Odyssey Magnavox, первая официально выпущенная игровая система. У «Одиссеи» были диковинные по современным стандартам контроллеры, а вся графическая система выводила на экран телевизора только линию и две точки, которыми управляли игроки. Создатели устройства подошли к делу с фантазией, и в комплекте с консолью шли специальные цветные накладки на экран, способные «раскрасить» игровые миры нескольких проектов, идущих в комплекте с Odyssey. Всего для устройства было выпущено 28 игр, среди которых был простой на первый взгляд пинг-понг, вдохновивший энтузиастов из молодой компании Atari на выпуск игрового автомата Pong с идентичной игрой. Именно Pong стал началом магии игровых автоматов, которая, к слову, полностью захватила и Японию и западный мир к началу 80-х.

Несмотря на очевидную простоту, Magnavox Odyssey использовал настоящие картриджи — правда, во многом лишь для эффекта. Никаких чипов памяти в них не было — картриджи служили набором перемычек, волшебными образом превращающих одно расположение линии с точками в другое, тем самым меняя игру. До полноценного видеочипа примитивной приставке было далеко, но популярность Magnavox Odyssey показала однозначный интерес публики, и многие компании взялись за разработку своих собственных устройств, чувствуя потенциальную прибыль.

1976–1977. Fairchild Channel F и Atari 2600


Ждать первой серьезной схватки за новорожденный игровой рынок пришлось недолго. В 1975 году стремительно устаревающая Magnavox Odyssey исчезла с прилавков, а на её место за титул лучшей консоли нового поколения бились сразу два устройства — Channel F от компании Fairchild и Atari VCS от той самой компании, что подарила миру Pong.

image

Несмотря на то, что разработка консолей шла практически одновременно, Atari не успевала — и Fairchild первой выпустила своё устройство под названием Fairchild Video Entertainment System (VES).

Консоль от Fairchild появилась на полках магазинов в ноябре 1976 года, и стала настоящей кладезю технических преимуществ. Вместо невнятных контроллеров Odyssey появились удобные, бутафорские картриджи сменились на настоящие (внутри которых стояли ROM-чипы с данными игр), а внутри консоли был установлен динамик, воспроизводящий звуки и музыку из запущенной игры. Приставка умела отрисовывать изображение с использованием 8-цветовой палитры (в режиме черно-белой строки либо цветной) в разрешении 102×54 пикселя. Отдельно стоит заметить, что процессор Fairchild F8, установленный в системе VES, был разработан Робертом Нойсом, который в 1968 году основал небольшую, но перспективную фирму Intel.

Atari была на грани отчаяния — проект Stella, основа будущей консоли, сильно отставал по темпам разработки, а рынок, как известно, ждать не будет. Множество вещей, казавшихся инновационными с выходом Fairchild VES, вот-вот должны были стать неотъемлемой чертой всех будущих консолей. Понимая, что на кон нужно ставить всё, основатель компании Atari Нолан Бушнелл подписывает соглашение с Warner Communications, продавая своё детище за $28 миллионов с условием, что консоль Atari выйдет на рынок в кратчайшие сроки.

Warner не подвели, и работа над приставкой закипела с новой силой. Для упрощения логики и удешевления производства к разработке привлекли знаменитого инженера Джея Майнера, который переработал чипы видеовывода и обработки звука TIA (Television Interface Adaptor) в единый элемент, что и стало последним штрихом перед готовностью консоли. Чтобы позлить Fairchild, маркетологи Atari назвали консоль VCS (Video Computer System), вынудив конкурента переименоваться в Channel F.

Но это не слишком помогло Channel F успешно конкурировать с новинкой — хотя на этапе релиза консоли в 1977 году было готово всего 9 игр, разработчики достаточно быстро осознали наступление новой технологической эры, и принялись использовать мощности приставки на полную. Atari VSC (позже ставшая Atari 2600), была первой приставкой, в основе которой лежал комплексный чип, не только обрабатывающий видео и звуковую дорожку, но и команды, получаемые с джойстика. Скромные продажи, поначалу смутившие Warner, сменились феноменальным успехом после решения лицензировать аркаду Space Invaders авторства японской компании Taito. Картриджи, поначалу ограниченные 4 Кб памяти, со временем доросли до 32 Кб, а число игр исчислялось сотнями.

Секрет успеха Atari крылся в максимально упрощенной логике устройства, возможности разработчиков гибко программировать игры с использованием ресурсов 2600 (например, иметь возможности менять цвет спрайта во время отрисовки), а также внешняя притягательность и удобные контроллеры, названные джойстиками (от буквального joystick — палка счастья). Поэтому, если вы не знали, откуда пришел этот термин, можете поблагодарить за него разработчиков Atari. Как и за главный образ всего ретро-гейминга — забавного пришельца из Space Invaders.

После того, как успех Atari 2600 вышел за рамки всех прогнозируемых величин, Fairchild покинула рынок видеоигр, решив, что направление скоро сойдет на нет. О подобном решении, скорее всего, в компании жалеют до сих пор.

1981–1986. Эпоха IBM PC.


Несмотря на то, что уже в 1979 году компания Apple представила Apple II, навсегда изменивший образ доступного компьютера, понятие «персональный компьютер» появилось немногим позже, и принадлежало совсем иной компании. Монументальная IBM, за плечами которой были десятилетия работы с громоздкими мейнфреймами (с шумом бобин и мерцающими лампочками), неожиданно сделала шаг в сторону и создала рынок, которого прежде не существовало.
В 1981 году в продаже появился легендарный IBM PC, появление которого предваряла одна из лучших рекламных кампаний в истории маркетинга. «Никого еще не увольняли за покупку IBM» — гласил тот самый слоган, навсегда вошедший в историю рекламы.

Однако не только слоганы и яркие рекламные вклейки сделали имя персональному компьютеру IBM. Именно для него впервые в истории была разработана сложная графическая система из двух видеоадаптеров — Монохромного адаптера дисплея (MDA, Monochrome Display Adapter) и Цветного графического адаптера (CGA, Color Graphics Adapter).

MDA предназначался для набора текста с поддержкой 80 колонок и 25 строк на экране для набора ASCII символов при разрешении 80×20 пикселей. Адаптер использовал 4 Кб видеопамяти, и отображал зеленый текст на черном экране. В таком режиме было легко и удобно работать с командами, документами и другими повседневными задачами бизнес-сектора.
CGA, напротив, можно было назвать прорывным с точки зрения графических возможностей. Адаптер поддерживал 4-битную палитру в разрешении в разрешении 640×200 пикселей, располагал 16 Кб памяти, и лег в основу стандарта компьютерной графики для активно расширяющейся линейки компьютеров IBM PC.

Впрочем, у использования двух разных адаптеров видеовывода были серьезные недостатки. Масса возможных технических проблем, дороговизна устройств и ряд других ограничений подтолкнули энтузиастов к работе над универсальным решением — графическим адаптером, способным работать в двух режимах одновременно. Первым таким продуктом на рынке стала Hercules Graphics Card (HGC), разработанная одноименной компанией Hercules в 1984 году.

image
Hercules Graphics Card (HGC)

По легенде основатель компании Hercules Ван Сиваннукул (Van Suwannukul) разработал систему специально для работы над своей докторской диссертацией на родном тайском языке. Стандартный MDA-адаптер IBM не отображал тайский шрифт корректно, что и побудило разработчика приступить к созданию HGC в 1982 году.

Поддержка разрешения 720×348 точек как для текста, так и для графики, а также возможность работы в режимах MDA и CGA, обеспечило адаптеру Hercules долгую жизнь. Наследие компании в виде универсальных стандартов видеовывода HGC и HGC+ использовалось разработчиками IBM-совместимых компьютеров, а позже и ряда других систем вплоть до конца 90-х. Однако мир не стоял на месте, и бурное развитие компьютерной отрасли (как и её графической части) привлекло множество других энтузиастов — среди них были четверо мигрантов из Гонконга — Хво Юн Хо (Kwak Yuan Ho), Ли Лау (Lee Lau), Френсис Лау (Francis Lau) и Бенни Лау (Benny Lau), основавшие Array Technology Inc, — компанию, которую весь мир узнает как ATI Technologies Inc.

1986–1991. Первый бум рынка графических карт. Ранние успехи ATI


После выпуска IBM PC компания IBM недолго оставалась в авангарде развития компьютерных технологий. Уже в 1984 году Стив Джобс представил первый Macintosh с впечатляющим графическим интерфейсом, и для многих стало очевидно, что графические технологии вот-вот сделают настоящий скачок вперед. Но, несмотря на потерю лидерства в отрасли, IBM выгодно отличалась от Apple и других компаний-конкурентов своим видением направления. Философия открытых стандартов, которой придерживалась IBM, открыла двери производству любых совместимых устройств, что и привлекло в сферу многочисленные стартапы своего времени.

В их числе была и молодая компания ATI Technologies. В 1986 году гонконгские специалисты представили свой первый коммерческий продукт — OEM Color Emulation Card.

image
Color Emulation Card

Расширив возможности стандартных монохромных контроллеров, инженеры ATI обеспечили вывод трех цветов шрифта на черном экране — зеленого, янтарного и белого. Адаптер располагал 16 Кб памяти и зарекомендовал себя в составе компьютеров Commodore. За первый год продаж изделие принесло ATI более $10 миллионов.

Конечно же, это стало лишь первым шагом для ATI — следом за расширенным графическим решением с 64 Кб видеопамяти и возможностью работы в трех режимах (MDA, CGA, EGA) на рынок вышла линейка ATI Wonder, с появлением которой прежние стандарты можно было записывать в архаизмы.

Звучит слишком смело? Судите сами — адаптеры серии Wonder получили буфер в 256 Кб видеопамяти (в 4 раза больше!), а вместо четырехцветной палитры на экран выводилось 16 цветов при разрешении 640×350. При этом никаких ограничений при работе с различными форматами вывода не было — ATI Wonder успешно эмулировала любой из ранних режимов (MDA, CGA, EGA), а, начиная со 2-ой серии, получила поддержку новейшего стандарта Extend EGA.

image
ATi Wonder

Кульминацией развития линейки в 1987 году стала знаменитая ATI EGA Wonder 800, выводившая 16-цветовую палитру уже VGA-формата в невероятно высоком разрешении 800×600. Адаптер продавался в формате более доступной VGA Improved Performance Card (VIP) с ограниченной поддержкой VGA-вывода.

Первый расцвет рынка видеокарт. Инновации ATI, начало конкурентной борьбы
Значительные успехи ATI в развитии коммерческих графических адаптеров привлекли внимание множества других компаний — в период с 1986 по 1987 год были основаны и представили первые продукты на рынке адаптеров такие бренды, как Trident, SiS, Tamarack, Realtek, Oak Technology, LSI (G-2 Inc), Hualon, Cornerstone Imaging и Windbond. Помимо новых лиц в выходе на графический рынок заинтересовались и действующие представители Кремниевой долины — такие компании, как AMD, Western Digital/Paradise Systems, Intergraph, Cirrus Logic, Texas Instruments, Gemini и Genoa — каждая из них так или иначе представила первый графический продукт в том же промежутке времени.

В 1987 году ATI выходит на OEM-рынок уже в качестве компании-поставщика, выпуская серию продуктов Graphics Solution Plus. Эта линейка была рассчитана на работу с 8-битной шиной компьютеров IBM PC/XT на базе платформы Intel 8086/8088. Адаптеры GSP тоже поддерживали форматы вывода MDA, CGA и EGA, но с оригинальным переключением между ними на самой плате. Устройство прекрасно приняли на рынке, и даже схожая модель от Paradise Systems с 256 Кб видеопамяти (у GSP было всего 64 Кб) не помешала Ati пополнить портфолио новым успешным продуктом.

Все следующие годы канадская компания ATI Technologies Inc. оставалась на пике графических инноваций, постоянно опережая конкурентов. Хорошо известная тогда линейка адаптеров Wonder первой на рынке перешла на 16-битный цвет; получила поддержку EVGA (в адаптерах Wonder 480 и Wonder 800+) и SVGA (в Wonder 16). В 1989 году ATI снизила цены на линейку Wonder 16 и добавила разъем VESA для возможности соединять друг с другом два адаптера — можно сказать это были первые фантазии на тему связок из нескольких устройств, которые появятся на рынке гораздо позже.

Из-за разрастания рынка с бесчисленным числом форматов и производителей требовалась специальная организация, способная урегулировать их и разработать ключевые стандарты для игроков рынка. В 1988 году усилиями шести ключевых производителей была основана VESA (Video Electronics Standard Association, Ассоциация стандартов видеоэлектроники), взявшая на себя централизацию стандартов и форматов разрешений, а также цветовой палитры графических адаптеров. Первым форматом стал SVGA (800×600 точек), который уже использовался в картах Ati Wonder 800. В дальнейшем их становилось больше, а некоторые (включая HGC и HGC+) использовались на протяжении десятилетий.

image

Технологическое лидерство ATi укрепляла и на заре 90-х. В 1991 году в продажу вышла Wonder XL — первый графический адаптер с поддержкой 32 тысяч цветов и поддержкой разрешения 800×600 при частоте обновления в 60 Гц. Подобного удалось добиться благодаря использованию конвертера Sierra RAMDAC. Помимо этого, Wonder XL стала первым адаптером с 1 Мб видеопамяти на борту.

В мае того же года ATI представила Mach8 — первый продукт из новой линейки Mach для работы с обработкой простых 2D-операций — например, отрисовки линий, заполнения цветом и битмаппинга. Mach8 был доступен для приобретения как в виде чипа (для последующей интеграции — например, в бизнес-системы OEM-формата), так и в виде полноценной платы. Сейчас многим покажется странным выпуск отдельного адаптера для таких вещей, но 30 лет назад многие специальные вычисления всё еще лежали на плечах центрального процессора, тогда как графические адаптеры предназначалась для узкого круга задач.

Впрочем, такой уклад вещей сохранялся недолго — следом за интересной VGA Stereo F/X, симбиозом графического адаптера и платы Sound Blaster для эмуляции кодека в формате моно «налету», лидер индустрии представил продукт для работы как с двухмерной, так и с трехмерной графикой — VGA Wonder GT. Объединив возможности Mach8 и Wonder Ati смогли первыми решить проблему необходимости дополнительного адаптера для работы с разными типами задач. Значительному успеху новинок поспособствовал выход популярной ОС Windows 3.0, в которой впервые ставили акценты на широкий круг задач в работе с 2D-графикой. Wonder GT пользовалась спросом и у системных интеграторов, что благотворно сказалось на прибылях компании — в 1991 году оборот ATI превысил $100 млн. Будущее обещало быть светлым, но конкуренция на рынке никогда не ослабевала — лидеров ожидали новые испытания.

1992–1995. Разработка OpenGL. Второй бум рынка графических карт. Новые рубежи в 2D и 3D
В январе 1992 года, компания Silicon Graphics Inc представила первый мультиплатформенный программный интерфейс OpenGL 1.0, поддерживающий работу как с 2D, так и с 3D-графикой.

image

В основу будущего открытого стандарта легла проприетарная библиотека IRIS GL (Integrated Raster Imaging System Graphical Library, Интегрированная системная библиотека обработки растровой графики). Понимая, что в скором времени множество компаний представят на рынке свои библиотеки подобного рода, в SGI приняли решение сделать OpenGL открытым стандартом, совместимым с любыми платформами на рынке. Популярность такого подхода было трудно переоценить — на OpenGL обратил внимание весь рынок.

Изначально Silicon Graphics нацеливалась на профессиональный рынок UNIX-систем, планируя определённые задачи для будущей открытой библиотеки, но благодаря доступности для разработчиков и энтузиастов OpenGL быстро занял место на развивающемся рынке трехмерных игр.

Однако не все крупные игроки рынка приветствовали такой подход SGI. Примерно в то же время компания Microsoft разрабатывала собственную программную библиотеку Direct3D, и совсем не спешила интегрировать поддержку OpenGL в операционную систему Windows.

image

Direct3D открыто раскритиковал и знаменитый автор Doom Джон Кармак, собственноручно портировавший Quake на OpenGL для Windows, подчеркнув преимущества простого и понятного кода открытой библиотеки на фоне сложного и «мусорного» варианта Microsoft.

image
Джон Кармак

Но позиция Microsoft осталась неизменной, и после выхода Windows 95 компания отказалась лицензировать MCD-драйвер OpenGL, благодаря которому пользователь мог самостоятельно решить, через какую библиотеку запускать приложение или новую игру. В SGI нашли лазейку, выпустив драйвер в формате установщика (ICD, Installable Client Driver), который помимо растеризации OpenGL получил поддержку обработки эффектов освещения.

Ударный рост популярности OpenGL привел к тому, что решение SGI стало популярным и в сегменте рабочих станций, что вынудило Microsoft выделить все возможные ресурсы на создание своей проприетарной библиотеки в кратчайшие сроки. Основу для будущего API предоставила купленная в феврале 1995 года студия RenderMorphics, чья программная библиотека Reality Lab и сформировала основные принципы работы Direct3D.

Второе рождение рынка видеокарт. Волна слияний и поглощений


Но вернемся немного в прошлое. В 1993 году рынок видеокарт переживал второе рождение, и в поле зрения публики попало множество новых перспективных компаний. Одной из них стала NVidia, основанная Дженсеном Хуангом, Кёртисом Прэмом и Крисом Малаховски в январе 1993 года. Хуанг, успевший поработать программным инженером в LSI, давно вынашивал идею создания компании по производству графических адаптеров, а его коллеги из Sun Microsystems как раз успели поработать над графической архитектурой GX. Объединив усилия и собрав 40 тысяч долларов, трое энтузиастов дали начало компании, которой было суждено сыграть ключевую роль в индустрии.

image
Дженсен Хуанг

Впрочем, в те годы заглядывать в будущее никто не решался — рынок стремительно менялся, новые проприетарные API и технологии появлялись чуть ли не каждый месяц, и было очевидно, что в бурном круговороте конкуренции выживут далеко не все. Многие из компаний, вступивших в гонку графических вооружений к концу 80-х, были вынуждены объявить о банкростве — среди них оказались Tamerack, Gemini Technology, Genoa Systems и Hualon, тогда как Headland Technology была выкуплена SPEA, а Acer, Motorola и Acumos стали собственностью Cirrus Logic.

Как вы уже могли догадаться, особняком в этом скоплении слияний и приобретений стояла ATI. Канадцы продолжали усердно трудиться и выпускать инновационные продукты, несмотря ни на что — пусть это и стало значительно сложнее.
В ноябре 1993 года ATI представила карту видеозахвата VideoIt! в основе которой лежал чип-декодер 68890, способный записывать видеосигнал в разрешении 320×240 при 15 кадрах в секунду или 160×120 при 30 кадрах в секунду. Благодаря интеграции чипа Intel i750Pd VCP владелец новинки мог проводить компрессию-декомпрессию видеосигнала в реальном времени, что было особенно полезно при работе с большими объемами данных. VideoIt! первую на рынке научили использовать центральную шину для общения с графическим ускорителем, и никаких кабелей и коннекторов, как прежде, уже не требовалось.

Проблемы ATI и успехи S3 Graphics


Для ATI 1994 год стал настоящим испытанием — из-за серьезной конкуренции компания понесла убытки в размере $4,7 миллиона. Главной причиной неприятностей канадских разработчиков стали успехи компании S3 Graphics. Графический ускоритель S3 Vision 968 и адаптер Trio64 обеспечили американской компании-разработчику дюжину крупных ОЕМ-контрактов с такими лидерами рынка, как Dell, HP и Compaq. В чем была причина такой популярности? Невиданный ранее уровень унификации — графический чип Trio64 собрал под одной крышкой цифро-аналоговый преобразователь (DAC), синтезатор частот и графический контроллер. Новинка от S3 использовала объединенный кадровый буфер и поддерживала аппаратное наложение видео (реализованное путем выделения части видеопамяти в процессе рендеринга). Масса достоинств и отсутствие явных недостатков чипа Trio64 и его 32-битного собрата Trio32 привели к появлению множества вариантов партнерских исполнений плат на их основе. Свои решения предлагали Diamond, ELSA, Sparkle, STB, Orchid, Hercules и Number Nine. Вариации разнились — от базовых адаптеров на базе VirGe за $169, до сверхмощной Diamond Stealth64 с 4 Мб видеопамяти за $569.

В марте 1995 года ATI вернулась в большую игру с набором инноваций, представив Mach64 — первый на рынке 64-битный графический ускоритель, а также первый, способный работать в системах на базе PC и Mac. Наряду с популярной Trio 958 Mach64 обеспечивал возможность аппаратного ускорения видео. Mach64 открыл для ATI выход на профессиональный рынок — первыми решениями канадцев в данном секторе стали ускорители 3D Pro Turbo и 3DProTurbo+PC2TV. Новинки предлагались по цене в $899 за целых 4 Мб видеопамяти.

Еще одним важным новичком на рынке графических ускорителей стал технологический стартап 3Dlabs. Приоритетным направлением для молодой компании был выпуск высококлассных графических ускорителей для профессионального рынка — Fujitsu Sapphire2SX с 4 Мб видеопамяти предлагалась по цене от $1600, а ELSA Gloria 8 с 8 Мб памяти на борту стоила немыслимые для тех лет $2600. Пытались 3Dlabs выйти и на рынок массовой игровой графики с Gaming Glint 300SX, но высокая цена и всего 1 Мб видеопамяти не принес популярности адаптеру.

Свои продукты на потребительском рынке представляли и другие компании. Trident, ОEM-поставщик графических решений для 2D-задач, представил чип 9280, обладавший всеми преимуществами Trio64 по доступной цене от $170 до $200. Тогда же в продажу вышли Weitek«s Power Player 9130 и Alliance Semiconductor«s ProMotion 6410 обеспечившие прекрасную плавность при воспроизведении видео.

NV1 — Дебют NVidia и проблемные полигоны


В мае 1995 года к новичкам присоединилась и NVIDIA, представив свой первый графический ускоритель с символическим названием NV1. Продукт первым на коммерческом рынке объединил возможности 3D-рендеринга, аппаратного ускорения видео и графического интерфейса. Сдержанный коммерческий успех никак не смутил молодую компанию — Дженсен Хуанг с коллегами прекрасно понимали, что на рынке, где новые решения представляют каждый месяц, «выстрелить» будет очень непросто. Но прибыли с продажи NV1 оказалось достаточно, чтобы удержать компанию на плаву и дать стимул продолжать работу.

image
Diamond EDGE 3D 2120 (NV1)

Производством чипов на базе 500 нм техпроцесса заведовала компания ST Microelectronics, но к несчастью для Nvidia всего через несколько месяцев после появления на рынке партнерских решений на основе NV1 (например, Diamond Edge 3D) Microsoft представила первую версию долгожданного графического API DirectX 1.0. «Наконец-то!» — воскликнули геймеры со всего мира, но производители графических ускорителей такого энтузиазма не разделяли.

Главной особенностью работы DirectX стали полигоны треугольной формы. Многие ошибочно полагают, что пресловутые треугольники были всегда, но на самом деле это заблуждение. Инженеры Nvidia закладывали в свой первый продукт квадратичный маппинг текстур (вместо треугольников-полигонов были квадраты), из-за чего приложения и первые игры с поддержкой DirectX вызвали массу проблем совместимости у владельцев NV1. Для решения проблемы Nvidia включили в драйвер обработчик для перевода квадратной разметки текстур в треугольную, но производительность в таком формате оставляла желать лучшего.

Большинство игр c поддержкой квадратичного маппинга текстур были портированы с приставки Sega Saturn. В Nvidia сочли эти проекты настолько важными, что разместили на 4 Мб модели NV1 два порта новой консоли, подключенные к карте через ленточные разъемы. На момент выхода в продажу (в сентябре 1995 года) первый продукт Nvidia обошелся покупателям в $450.

Большинство производителей графических ускорителей к моменту запуска API от Microsoft сильно зависели от проприентарных решений других компаний — когда разработчики компании Билла Гейтса только начинали работу над собственной графической библиотекой, на рынке уже присутствовало множество API, таких как S3d (S3), Matrox Simple Interface, Creative Graphics Library, C Interface (ATI) и SGL (PowerVR), а позже в их число вошли NVLIB (Nvidia), RRedline (Rendition) и знаменитый Glide. Такое разнообразие сильно усложняло жизнь разработчикам нового «железа», так как API были несовместимы друг с другом, а разные игры поддерживали разные библиотеки. Выход DirectX поставил крест на всех сторонних решениях, ведь использование других проприентарных API в играх для Windows попросту не имело смысла.

Но нельзя сказать, что новинка от Microsoft была лишена серьезных недостатков. После представленного DirectX SDK у многих производителей графических ускорителей исчезла возможность аппаратно управлять ресурсами видеокарт при воспроизведении цифрового видео. Многочисленные проблемы с драйверами на недавно вышедшей Windows 95 возмущали пользователей, привыкших к стабильной работе ОС Windows 3.1. Со временем все проблемы были решены, но главная битва за рынок ожидала впереди — взявшая паузу ATI готовилась покорять вселенную трехмерных игр с новой линейкой 3D Rage.

ATI Rage — Трехмерная ярость


Демонстрация нового графического ускорителя прошла в рамках лос-анджелесской выставки E3 1995 года. Инженеры ATI объединили преимущества чипа Mach 64 (и его выдающихся возможностей работы с 2D-графикой) с новым чипом для обработки 3D, взяв максимум от предыдущих разработок. Первый 3D-ускоритель ATI 3D Rage (известный также как Mach 64 GT) вышел на рынок в ноябре 1995 года.

image
ATI 3D Rage

Как и в случае с Nvidia, инженерам пришлось столкнуться с массой проблем — поздние ревизии DirectX 1.0 вызывали многочисленные проблемы, связанные с отсутствием глубокого буфера. Карта располагала всего 2 Мб видеопамяти EDO RAM, поэтому 3D-приложения и игры запускались в разрешении не более 640×480 при 16-битном цвете или 400×300 при 32-битном, тогда как в 2D-режиме разрешение экрана было значительно выше — до 1280×1024. Попытки запустить игру в режиме 32-битного цвета с разрешением 640×480 обычно заканчивались цветовыми артефактами на экране, да и игровую производительность 3D Rage нельзя было назвать выдающейся. Единственным бесспорным преимуществом новинки была возможность воспроизводить видеофайлы в формате MPEG в полноэкранном режиме.

В ATI провели работу над ошибками и переработали чип, выпустив Rage II в сентябре 1996 года. Исправив аппаратные недочеты и добавив поддержку кодека MPEG2, инженеры по какой-то причине не подумали о необходимости увеличить объем памяти — первые модели всё еще имели на борту смешные 2 Мб видеопамяти, что неизбежно било по производительности при обработке геометрии и перспективы. Недочет был исправлен в более поздних ревизиях адаптера — например, в Rage II+DVD и 3D Xpression+ буфер памяти вырос до 8 Мб.

Но война за 3D-рынок только начиналась, ведь целых три новых компании готовили свои продукты для новейших игр — Rendition, VideoLogic и 3dfx Interactive. Именно последней удалось в кратчайшие сроки представить графический чип, значительно опередивший всех конкурентов и начавший новую эру в 3D-графике — 3Dfx Voodoo Graphics.

1996–1999. Эпоха 3Dfx. Величайший графический стартап в истории. Последний этап большой конкуренции за рынок


Невероятная история 3Dfx стала хрестоматийным воплощением стартапа, символизирующего как невероятный успех и головокружительные прибыли, так и некомпетентность самоуверенного руководства, и как итог — крах и забвение. Но печальный финал и горький опыт не в силах отрицать очевидного — 3Dfx в одиночку сотворила графическую революцию, застав врасплох многочисленных конкурентов, и задав новую, феноменально высокую планку производительности. Ни до, ни после этого невероятного периода в истории развития видеокарт мы не видели ничего, даже отдаленно похожего на сумасшедший взлет 3Dfx во второй половине девяностых.

image

3Dfx Voodoo Graphics была графическим адаптером, нацеленным исключительно на работу с 3D-графикой. Предполагалось, что покупатель новинки будет использовать для работы с двухмерными нагрузками другую плату, подключая её к Voodoo через второй VGA-разъем.
Такой подход не смутил многочисленных энтузиастов, и инновационное решение сразу же привлекло многих производителей-партнеров, выпустивших собственные варианты Voodoo.

Одной из интересных карт на базе первого чипа 3Dfx была Orchid Righteous 3D от Orchid Technologies. Фирменным отличием адаптера за $299 было наличие механических реле, издающих характерные щелчки при запуске 3D-приложений или игр.

image
Orchid Righteous 3D

В поздних ревизиях эти реле заменили на твердотельные компоненты, и прежний шарм был утрачен. Вместе с Orchid свои варианты новейшего ускорителя представили и Diamond Multimedia (Monster 3D), Colormaster (Voodoo Mania), Canopus (Pure3D и Quantum3D), Miro (Hiscore), Skywell (Magic3D), и самая пафосная в ряду названий 2theMAX Fantasy FX Power 3D. Раньше видеокарты называть не стеснялись!

Причины подобного ажиотажа вокруг новинки были очевидны — при всех возможных недостатках Voodoo Graphics обладала невероятной производительностью, и её появление сразу же перевело в разряд устаревших множество других моделей — особенно тех, что могли работать только с 2D-графикой. Несмотря на то, что в 1996 году более половины рынка 3D-ускорителей принадлежало компании S3, 3Dfx ударными темпами завоевывала миллионы фанатов и уже к концу 1997 года компании принадлежало 85% рынка. Это был феноменальный успех.

Конкуренты 3Dfx. Rendition и VideoLogic


Громкие успехи вчерашнего новичка не вычеркнули из игры конкурентов, о которых мы упоминали ранее — VideoLogic и Rendition. VideoLogic создала технологию отложенного мозаичного рендеринга (TBRD), благодаря которой пропадала необходимость предварительной Z-буферизации кадра. На финальной стадии рендеринга вычищались скрытые пиксели, а обработка геометрии началась только после того, как будут наложены текстуры, тени и освещение. Технология TBRD работала по принципу разбития кадра на прямоугольные ячейки, рендеринг полигонов в которых происходил независимо друг от друга. При этом полигоны, расположенные за пределами видимой области кадра, отсеивались, а рендеринг остальных начинался только после обсчета общего числа пикселей. Такой подход позволял сэкономить массу вычислительных ресурсов на этапе отрисовки кадра, существенно повышая общую производительность.

Компания вывела на рынок три поколения графических чипов производства NEC и ST Micro. Первое поколение было эксклюзивным продуктом в составе компьютеров Compaq Presario под названием Midas 3 (Модели Midas 1 и 2 были прототипами, и использовались в аркадных автоматах). Вышедшие позже PSX1 и PSX2 были ориентированы на ОЕМ-рынок.
Чипы второго поколения легли в основу приставки Sega Dreamcast — японской платформы, сыгравшей свою роль в печальной судьбе 3Dfx. При этом VideoLogic не успели выйти на потребительский рынок графических карт — к моменту премьеры их модель Neon 250 морально устарела, проиграв всем бюджетным решениям, и это неудивительно, ведь до прилавков новинка добралась лишь в 1999 году.

Комп

© Habrahabr.ru