Прощай видеокарта?
Мы стоим на пороге революции — графический и центральный процессоры вот-вот сольются в единое целое. Станет ли это концом видеокарты как устройства?
Введение ↑ ≈
Главным новшеством будущих решений Fusion от AMD и Sandy Bridge от Intel станет интеграция графического ядра прямо в центральный процессор. Данным шагом производители надеются поставить точку в конкуренции CPU-GPU и вернуть центральному процессору звание главной детали в компьютере, которое последние десять лет неожиданно начало ускользать в сторону видеокарты всё ускоряющимися темпами. Станут ли интегрированные APU пресловутым «One Ring to rule them all», отправив видеокарты на свалку истории, или же лишь подстегнут противостояние — этим вопросом задаются нынче многие.
Урок истории ↑ ≈
Ничто не ново под луной ↑ ≈
Идея встроить, частично или полностью, видеосистему в центральный процессор посещала светлые умы человечества уже давно. Одним из передовиков интеграции была, не удивляйтесь, сама компания Intel. В 1988 году был выпущен уникальный для тех времён продукт i860. В основе i860 лежала архитектура RISC, нацеленная на быстрое выполнение простых инструкций, хотя в ту пору Intel еще ориентировалась на CISC в «настольных» процессорах. Он имел мощный блок операций с вещественными числами (с плавающей запятой) и даже поддерживал суперскалярность для некоторых операций FPU. Наконец, один блок FPU был специально ориентирован на использование в качестве ускорителя операций с графикой, имея, в частности, 128-разрядные регистры и поддержку SIMD, за восемь лет до появления MMX-инструкций. Рабочая частота составляла до 50 МГц — в то время как самый быстрый процессор компании семейства x86 имел частоту не более 33 МГц.
По иронии судьбы, i860 практически не нашел применения в качестве центрального процессора, зато устанавливался на многие профессиональные видеокарты начала 90-х именно в качестве GPU.
Следующий важный шаг предприняла компания Cyrix в 1997 году. Линейка процессоров MediaGX представляла собой почти законченные системы-на-чипе (SoC), содержащие в числе прочего SVGA-контроллер и блок ускорения 2D-графики. Поздние модификации дополнились и функциями ускорения трёхмерной графики и MPEG-видео. Cyrix удалось удержать минимальной цену решения — отпускная цена не превышала $100, и хотя процессор требовал специальную материнскую плату с чипом-компаньоном, MediaGX некоторое время был популярным решением для мультимедийных ПК начального уровня. Но саму Cyrix спасти ему было уже не под силу.
Сменив несколько владельцев, архитектура в конце концов оказалась в AMD. AMD и сейчас продает продукты Geode — далёких потомков MediaGX, но кроме успеха в программе OLPC дороги к потребителям продукт так и не нашел.
Наиболее известной и амбициозной попыткой соединить традиционные преимущества центральных процессоров с мощью параллелльных операций над данными в стиле GPU был разработанный альянсом IBM-Toshiba-Sony в 2005 году процессор Cell, применённый в игровой консоли PlayStation 3. Процессорное ядро уже неплохо зарекомендовавшей себя архитектуры IBM Power было дополнено 8-ю вычислительными блоками SPE — максимально упрощёнными RISC-процессорами, ориентированными на быстрое исполнение SIMD-инструкций, устройство которых имеет довольно много схожего с устройством пиксельных шейдерных конвейеров GPU того времени. Благодаря передовой архитектуре теоретическая вычислительная производительность первых чипов Cell могла достигать 230 GFLOPS — выше, чем у большинства графических процессоров того времени (скажем, столь же передовое тогда среди графических процессоров ядро Xenos от ATI, использующееся в Xbox 360, имеет теоретическую производительность 240 GFLOPS).
Достоверно неизвестно, но вполне вероятно, что поначалу Cell планировался как единственный вычислительный чип в PlayStation 3. Но в конечном дизайне в консоль всё-таки был добавлен выделенный графический процессор (в лице RSX/G70 от NVIDIA). Ни IBM, ни Sony не предложили сразу законченной графической библиотеки для рендеринга на Cell, и хотя такие библиотеки и появились впоследствии, разработчики игр предпочли пользоваться GPU со знакомыми OpenGL-подобными приёмами работы, реализуя на Cell лишь отдельные второстепенные функции. Проекты же энтузиастов, например драйвер Cell OpenGL-библиотеки Mesa3D, были заморожены после решения Sony удалить поддержку Linux из новых Slim версий консоли. Переход Apple на процессоры Intel закрыл самому процессору Cell простой путь на широкий потребительский рынок. Какое-то время его пытались пристроить в компьютеры и ноутбуки в виде плат расширения для ускорения кодирования видео, но следующее поколение графических процессоров, вооружённых аппаратными блоками видеоускорения и GPGPU-интерфейсами, не оставило подобным продуктам места на рынке.
Звук вокруг? Дешевле глюк! ↑ ≈
Перед вами экспонат №1 — звуковая карта Creative SoundBlaster AWE64. Подзабыли, как они выглядят, не правда ли? Уже много лет наличие сзади материнской платы колодки звуковых входов-выходов воспринимается как норма. А ведь когда-то именно звуковые карты на годы задержали полный переход с шины ISA на шину PCI — индустрия покорно ждала, пока лидеры звукового рынка в муках рожали PCI-карты. Но маленькое изобретение компании Intel в 1998 году похоронило огромный и процветающий рынок. Десяток тысяч транзисторов в чипсете материнской платы и «копеечная» микросхема малоизвестной компании Realtek уже к 2001 году превратили производителей звуковых карт из властителей цифрового мира в вымирающих динозавров, тщетно цепляющихся за уплывающую из-под ног землю.
Производители звуковых карт не сдались без боя. Сохранить рынок были призваны две технологии: многоканальность и реалистичная обработка звуковых эффектов в играх. Увеличив число колонок с двух до четырёх и применив специальные алгоритмы разделения звука по каналам можно было получить эффект «звука вокруг», учитывающий звуковой фон (ambient) и вторичные отражения звуковых волн от поверхностей. Особенно перспективно технология выглядела для создания домашних кинотеатров и достижения нового уровня реализма в компьютерных играх. Однако, действительность не оправдала надежд производителей аудиокарт. Подвёл носитель — Audio CD и его злой преследователь MP3 довольствовались обычным стерео, и стерео же довольствовались конечные пользователи — далеко не у всех есть возможность разметить четыре колонки вокруг компьютера, да и качество звучания музыки у многих первых многоканальных комплектов потребительского уровня оказалось не на высоте. Технологиям трёхмерного звука в играх повезло несколько больше, EAX и A3D какое-то время получили широкую поддержку, но этого оказалось слишком мало для удержания рынка на прежнем уровне.
Дальнейшая борьба за существование разворачивалась уже чисто на количественном уровне: 5.1, 6.1, 7.1…EAX 3.0, 4.0, 5.0… К приходу DVD и SACD разработчики интегрированных кодеков малой кровью и по большей части на программном уровне обеспечили многоканальность для фильмов и музыки, ликвидировав преимущества звуковых карт. Для игр же разработчики популярных библиотек звуковой подсистемы предложили CPU-эффективные программные алгоритмы, позволяющие относительно легко получить некое подобие трёхмерного звука, и это подобие вполне устроило большинство игроков: главное, чтобы было «что-то», а какое оно в сравнении, уже второй вопрос. Ситуацию с использованием аппаратных звуковых эффектов в играх лучше всего показывает официальный список игр с поддержкой EAX, из которого хорошо видно, что Microsoft в 2006 году почти ничем не рисковала, убрав аппаратную подсистему DirectSound из Windows Vista.
К настоящему моменту узкий рынок звуковых карт поделён между производителями профессиональных решений и лагерем строгого режима им. Creative. Слабый эффект попыток Via (Envy24) и ASUS (Xonar) расшатать монополию Creative лишний раз показал, что звуковая карта как устройство компьютера практически мертва.
Тебе НЕ повезло, ты НЕ работаешь в офисе ↑ ≈
Перед вами экспонаты №№2 и 3 — видеокарты S3 Trio3D 4 Мб AGP и ATi 3DRage Pro 4 Мб AGP. Много лет они проработали верой и правдой в самых обычных офисных ПК. Вероятно, за всю свою жизнь «для галочки» присутствующие функции ускорения 3D-графики ни разу не использовались, как и полный объем видеопамяти. Тем не менее, карты в свое время были отдельно заказаны в составе компьютера, отдельно установлены в компьютер, отдельно занимали один слот шины, в меру внося вклад в глобальное потепление. Затраты на видеокарту были лишними на 50% её стоимости, и были они сделаны лишь потому, что на тот момент интегрированная графика делала только первые шаги…
В офисе интегрированные ядра уже одержали полную победу. Желающие могут поискать дискретную видеокарту в компьютере у себя на работе. Если найдёте, значит пора бы уже просить начальника списать пенсионный Celeron и дать вам новый компьютер.
Полный текст статьи читайте на nvWorld.ru