Конференция Nvidia GTC 2015: основные анонсы и события

Основные анонсы и события logo.jpg Содержание Введение Компания Nvidia уже давно старается пробиться на разные рынки, открывая для себя всё новые ниши и не ограничиваясь исключительно традиционным для них рынком игровых графических процессоров, который переживает не самые лучшие времена. Игровые ПК в последние годы в относительном застое, и причин этому множество: как проблемы с освоением новых техпроцессов, не позволяющие сделать качественный скачок в производстве новых GPU, так и засилье мультиплатформенных игровых проектов, не слишком требовательных к мощности графических процессоров.

Nvidia уже предлагает свою продукцию в сфере профессиональных графических решений, на рынках процессоров для высокопроизводительных вычислений, компактных игровых устройств и автомобильных систем. Интерес к вычислительным применениям графических процессоров за последние несколько лет вырос в сотни раз, и уже сейчас GPU производства компании Nvidia успешно применяются во многих сферах.

Ещё несколько лет назад компания организовала собственное крупное мероприятие, посвященное различным аспектам использования графических процессоров в широком наборе задач — GPU Technology Conference. Прошедшая в конце марта очередная ежегодная конференция компании Nvidia стала уже шестой, и она традиционно проходит в городе Сан-Хосе, в штате Калифорния, США. С тех пор конференция стала главным мероприятием года для Nvidia, и именно на нем делаются все самые крупные анонсы компании и раскрываются некоторые планы на будущее.

img_0411_small.jpg «Графически-вычислительная» конференция GTC с каждым годом привлекает все большее внимание со стороны исследователей и ученых из различных учебных заведений и компаний, собирая сотни компаний и тысячи участников, так или иначе связанных с темой использования графических процессоров.

В этом году число участников уже превысило 4000 человек (в прошлом году их было 3500), и они приехали в Сан-Хосе со всего мира для того, чтобы принять участие в этом интереснейшем мероприятии: выступить со своими докладами, послушать других участников, познакомиться и пообщаться с единомышленниками и конкурентами. Польза участия в GTC связана не только с ключевыми выступлениями лидеров индустрии, но и с сотнями интереснейших сессий по разной тематике — с кучей полезной информации о том, как графические процессоры Nvidia облегчают выполнение задач разработчиков в разных сферах.

Titan X — высокопроизводительное решение на основе топового чипа Maxwell Выступления первого дня конференции всегда включают присутствие на сцене лидера компании — Дженсена Хуанга, который рассказывает о последних достижениях Nvidia в деле применения GPU в самых различных задачах, и практически ни один год не обходился без громких анонсов. Поэтому именно первое ключевое выступление главы компании вызывает у публики неподдельный интерес.

img_0299_small.jpg Начало GTC всегда связано с подведением итогов года, прошедшего с предыдущей конференции, и для Nvidia он был достаточно успешным. Компания добилась определённых успехов (в том числе и финансовых) для множества своих подразделений: GeForce, Quadro, Tesla и Tegra (по крайней мере, в автомобилях).

img_0296_small.jpg Основной темой нынешней конференции стало так называемое глубокое обучение (deep learning) — быстрорастущий в последние годы набор алгоритмов машинного обучения, тесно связанный с реализацией искусственного интеллекта. Nvidia в лице Дженсена считает глубокое обучение тем локомотивом, который способен продвинуть индустрию по многим направлениям, от автономных автомобилей до применения в медицинских исследованиях.

img_0291_small.jpg По ходу своего ключевого выступления, перед тысячами участников GTC, Дженсен представил несколько новых программных и аппаратных технологий, которые принесут лёгкость использования и высокую производительность в сферу глубокого машинного обучения. И началось всё с мощнейшего графического процессора Titan X.

img_0307_small.jpg Titan X — это мощнейший GPU игровой серии GeForce, который основан на второй версии графической архитектуры Maxwell и отлично подходит для применения в сфере deep learning. Анонс Titan X на GTC получился несколько скомканным, так как решение уже было фактически анонсировано и показано на конференции игровых разработчиков Game Developers Conference в Сан-Франциско несколькими днями ранее. Где также был показан демонстрационный ролик, показывающий возможности игрового движка Unreal Engine 4:

img_0318_small.jpg На данный момент, Titan X является самым мощным решением компании Nvidia и он вдвое энергоэффективнее аналогичных GPU из предыдущих поколений. Содержащиеся в новом GPU потоковые процессоры в количестве 3072 штук обеспечивают производительность вычислений с одинарной точностью до 7 терафлопов, а объём локальной видеопамяти у новинки достигает впечатляющих 12 гигабайт.

img_0319_small.jpg Кроме объёма, память Titan X обладает ещё и высокой пропускной способностью — более 336 ГБ/с, что также очень важно в задачах по тренировке нейросетей при deep learning. Так, при помощи стандартной модели AlexNet, новый Titan X достиг показателя в менее чем три дня для тренировки модели при помощи 1.2 миллионов изображений из набора ImageNet — сравните это с более чем 40 днями для 16-ядерного CPU или шестью днями для первого Titan.

img_0323_small.jpg Не очень понятно, зачем Nvidia указала на слайде столь смешную производительность для вычислений с двойной точностью — ведь подобным показателем погордиться вряд ли получится… Впрочем, из песни слов не выкинешь, что есть, то есть. Зато на GTC наконец-то стала известна розничная цена решения для рынка США. Начиная со дня анонса, GeForce GTX Titan X поступил в продажу на североамериканском рынке по цене $999. Кстати, обзор этой видеокарты вы уже можете прочитать на нашем сайте.

DIGITS и DIGITS DevBox — решения для построения и обучения нейросетей В ходе своего главного выступления, Дженсен анонсировал также и DIGITS и DIGITS DevBox — новые возможности для простого и быстрого построения глубоких нейросетей, которые предлагает Nvidia. Использование нейросетей при тренировке машинных алгоритмов для самостоятельного обучения, классификации и распознавания объектов, является непростой и требующей серьёзной работы задачей. Эта тема сейчас является одной из самых обсуждаемых, и GPU-ускоренный deep learning используется в работе множества компаний:

img_0328_small.jpg img_0334_small.jpg Представленная на конференции система тренировки глубокого обучения DIGITS, использующая графические процессоры Nvidia, даёт пользователям всё необходимое для того, чтобы построить глубокие нейросети максимально простым и быстрым способом.

Данное программное средство доступно для скачивания с сайта компании Nvidia. Это первая подобная графическая система всё-в-одном для разработки, тренировки и использования глубоких нейросетей, предназначенных для классификации изображений.

img_0347_small.jpg Система DIGITS даёт пользователю простые возможности для установки, конфигурации и тренировки нейросетей, максимально облегчая работу исследователей и ускоряя получение результатов. Подготовка и тренировка DIGITS проста и имеет интуитивно-понятный интерфейс и возможности по управлению. Она поддерживает GPU-ускоренную версию Caffe — популярного фреймворка, используемого многими учеными и исследователями при постройке нейросетей.

Более того, чисто программными средствами дело не ограничивается. Глава Nvidia представил на GTC и специальный высокопроизводительный аппаратный комплекс для совместного использования с DIGITS — DIGITS DevBox. Это специализированная платформа для ускорения исследования задач deep learning.

img_0352_small.jpg DIGITS DevBox содержит максимально оптимизированное аппаратное обеспечение, дающее высокую производительность и эффективность в задачах глубокого обучения, начиная с четырёх графических процессоров Titan X и заканчивая подсистемами памяти и ввода-вывода данных. Каждый из четырёх GPU Titan X обеспечивает по 7 терафлопу вычислений одинарной точности, имеет пропускную способность в 336.5 ГБ/с для 12 гигабайт памяти.

img_0484_small.jpg img_0481_small.jpg Система основана на материнской плате ASUS X99, имеющей восемь слотов PCI-E и высокопроизводительном процессоре Intel Core i7, может иметь до 64 ГБ памяти типа DDR4, до трёх 3 ТБ дисков в RAID 5 массиве плюс SSD. Установленное на систему программное обеспечение Nvidia DIGITS включает стандартную операционную систему Ubuntu 14.04 с установленным ПО: популярными фреймворками deep learning (Caffe, Torch, Theano), cuDNN 2.0 (ускоренная на GPU библиотека deep learning) и CUDA 7.0. В общем, всё необходимое для работы исследователей и учёных в области deep learning установлено в системе и готово к работе.

Мощность системы питания обеспечивается до 1500 Вт, то есть эту систему можно считать обычным настольным решением, которое присоединяется к типичной розетке, не требуя специальных линий питания. Решение тихое, прохладное, энергоэффективное, да ещё и выглядит неплохо. Стоимость готового решения Nvidia для deep learning составляет $15000.

img_0354_small.jpg Уже первые оценки от применения DIGITS DevBox показывают почти четырёхкратное увеличение производительности по сравнению с одиночным графическим адаптером Titan X в ключевых тестах deep learning. Так, тренировка AlexNet может быть закончена всего лишь за 13 часов при помощи DIGITS DevBox, по сравнению с более чем двумя днями на лучшем из GPU, не говоря уже о полутора месяцах расчётов при CPU-системе.

Свежие данные о Pascal — следующем поколении графической архитектуры Nvidia Глава Nvidia традиционно рассказал немного нового и о следующем поколении графической архитектуры — Pascal. Ничего особенно интересного о ней мы не услышали, а о самом существовании проекта было давно известно. Pascal — это следующая архитектура GPU компании, которая ожидается к выходу в 2016 году. Кроме всего прочего, от новинки ожидают до 10-кратного увеличения производительности в задачах deep learning по сравнению с текущими чипами Maxwell.

img_0361_small.jpg По ходу своего выступления Дженсен раскрыл некоторые детали Pascal и показал обновленный план по выпуску графических решений в ближайшие годы, выразив надежду, что новая архитектура после более чем трёхлетней разработки проявит себя с положительной стороны. Так как основной темой нынешней GTC является deep learning (использование самообучающихся нейросетей), то рассказали о том, как это сказалось на дизайне Pascal, анонсированном на прошлой конференции.

Графические решения архитектуры Pascal будут иметь три основных достоинства, связанных с подобным применением, что вызовет более точное и быстрое обучение сложных и глубоких нейросетей. Вместе с максимальным объёмом памяти в 32 гигабайта (что почти втрое больше, чем у анонсированного только что Titan X), выделяется ещё одна модификация — Pascal поддерживает вычисления смешанной точности. Также в GPU следующей архитектуры будет применяться 3D-память (stacked DRAM), которая в 5 раз быстрее в приложениях deep learning. Также необходимо помнить и о поддержке высокоскоростных межчиповых соединений NVLink, объединяющих два или более GPU. Всё вместе это в результате должно дать 10-кратный прирост в указанных задачах.

img_0366_small.jpg Вычисления смешанной точности в Pascal используются для двойного ускорения расчётов, которым достаточно 16-битной «половинной» точности вычислений — они вдвое быстрее, чем привычные FP32 (одинарная точность). Увеличенная производительность таких вычислений даст прирост скорости классификации и свёртки (convolution) — двух важных шагах deep learning, при сохранении достаточной точности вычислений.

Применение многоэтажной (stacked) 3D-памяти позволит увеличить скорость доступа к данным и одновременно с этим улучшить энергоэффективность. Это очень важно, так как именно ограничения ПСП зачастую определяют и конечную скорость сложных параллельных расчётов, и внедрение 3D-памяти обеспечит трёхкратный рост ПСП при таком же увеличении объёма буфера кадра (объема видеопамяти) — это позволит исследователям строить нейросети большего размера и ускорить некоторые из частей тренировки машинного алгоритма при глубоком обучении.

Как уже было известно, графические процессоры архитектуры Pascal будут иметь микросхемы памяти поставленные друг на друга и на GPU, вместо того, чтобы быть размещёнными на печатной плате. Снижение длины дорожек от чипов памяти к GPU вызовет ускорение вычислений и повышение энергоэффективности.

Добавление поддержки скоростного соединения NVLink к Pascal ускорит перемещение данных между GPU и CPU в 5–12 раз, по сравнению с передачей данных по ныне используемой PCI Express, что также серьёзно ускорит приложения deep learning, требующие быстрого сообщения между графическими процессорами. Это особенно важно для глубокого обучения, так как одно только появление NVLink позволит вдвое увеличить количество GPU в системе, одновременно работающих над одной и той же задачей deep learning.

Полную презентацию Дженсена Хуанга с GTC этого года вы можете посмотреть по ссылке.

Ключевые выступления Google и Baidu по теме deep learning Так как главной темой конференции было глубокое обучение (deep learning) — современная реинкарнация того, что в 80–90-е годы называлось нейросетями, то и ключевые выступления других двух основных дней работы GTC 2015 были посвящены именно этому. Так, в разные дни перед тысячами посетителей выступили представители Google и Baidu (глобальный и китайский поисковики, соответственно). Их выступления во многом пересекались, что было вполне логично, так как работают они примерно над одинаковыми проблемами.

img_0422_small.jpg Самое главное в выступлениях от Google и Baidu было то, что для глубокого обучения нейросетей очень нужны значительные вычислительные ресурсы, которые есть у графических процессоров. Более того, многим из этих задач вполне достаточно половинной точности вычислений с плавающей запятой (FP16), что сделает будущие GPU ещё более подходящими для deep learning.

img_0426_small.jpg Из основных примеров применения этого метода, который уже используется Google и Baidu, можно привести распознавание изображений и речи. Так, несколько раз в выступлениях на GTC была затронута тема того, что машинное распознавание изображений уже обогнало возможности человека — точность распознавания у хорошо обученной нейросети оказалась выше, чем у среднего представителя человечества.

img_0415_small.jpg Надо отдельно отметить, что между точностью распознавания (изображений, речи, да чего угодно) в 95% и 99% есть огромная разница. Так, 99%-ная точность приближает возможности машинных алгоритмов к человеческим, и это может изменить не только индустрию поиска информации, а и многое окружающее нас.

img_0440_small.jpg Важно понимать, что deep learning позволяет не писать специфические алгоритмы для каждого конкретного случая, а обходиться общими возможностями анализа, которые самообучаются при «скармливании» нейросети большого количества информации для обучения. Гипотетических применений методу очень много, вот лишь некоторые из них:

img_0418_small.jpg А из уже используемых применений GPU-ускоренного обучения можно привести 47 продуктов Google за последние пару лет, вот только часть из них: поиск по изображениям, распознавание речи в Android, размещение контекстной рекламы, просмотр улиц в Google Maps и др. В итоге, компьютерный анализ изображений позволяет добиться весьма точного описания того, что изображено на них, хотя и не без ошибок:

img_0447_small.jpg img_0508_small.jpg Чтобы уменьшить количество ошибок, надо лишь увеличить количество входных данных для обучения машинного алгоритма. Представитель Baidu привёл интересную аналогию, представив deep learning как ракетный двигатель, а данные для обучения нейросети — как топливо для него. Чем больше топлива для двигателя, тем большую точность и тем более богатые возможности можно получить:

img_0499_small.jpg Подводя итог этой пары ключевых выступлений, отметим, что в Google и Baidu видят за deep learning большое будущее умных систем с наличием признаков искусственного интеллекта. Хорошо обученные нейросети помогут в большом количестве разнообразных задач в областях распознавания речи и изображений, моделировании, предсказании, переводе с разных языков, и многих других.

img_0449_small.jpg И в этом исследователям со всего мира может очень помочь применение GPU и массивов из графических процессоров. Ведь именно применение GPU позволяет в десятки и сотни раз увеличить возможности глубокого обучения, позволяя получить гораздо лучше обученные нейросети — особенно с учётом отличного масштабирования алгоритмов deep learning и применения будущих GPU с 16-битной точностью вычислений, которая ещё вдвое поднимет производительность.

img_0502_small.jpg Будем надеяться, что графические процессоры вскоре ещё больше облегчат нашу с вами жизнь и станут тем самым локомотивом прогресса, который продвинет машинное обучение ещё дальше вперёд, сделав искусственный интеллект чем-то похожим на человеческий. И его возможности не будут ограничены просто очень продвинутым поиском по картинкам и безошибочным распознаванием голоса, хотя и это было бы неплохо.

Перспективы применения платформы Drive PX в автомобилях, в том числе автономных Ещё одной важнейшей темой на конференции GPU Technology Conference стало применение чипов семейства Tegra в автомобилях, а в будущем даже полностью автономное управление автомобилями с их помощью. Компания Nvidia уже давно проявляет живой интерес к этой теме, и он только усиливается со временем.

img_0460_small.jpg Так, ещё на выставке Consumer Electronics Show в январе была представлена мощная платформа Drive PX, предназначенная для разработки автономных автомобилей, предлагающая возможности использования обучаемых нейросетей в будущих проектах. Система Drive PX основана на паре компактных чипов Nvidia Tegra X1, обеспечивающих 2.3 терафлопов производительности при одинарной точности вычислений с плавающей запятой, вполне достаточной для планируемых для этого решения задач.

img_0471_small.jpg Этой мощи вполне достаточно для того, чтобы получать и анализировать визуальные данные с 12 камер, что позволяет одновременно использовать широкий набор вспомогательных систем, предназначенных для облегчения работы водителей: просмотр всего пространства вокруг автомобиля, предотвращение столкновений, определение пешеходов и избежание наездов на них, управление без применения зеркал внешнего вида, мониторинг автомобильного трафика вокруг автомобиля и многое другое. На стенде Nvidia стояло несколько рабочих макетов, показывающих Drive PX в работе:

img_0473_small.jpg img_0467_small.jpg Но все эти уже существующие на данный момент времени системы помощи водителям и так умеют обнаруживать знаки, разметку, пешеходов и автомобили. Они могут предпринимать лишь ограниченный ряд действий, умеют только предупреждать водителя об опасности и тормозить, не поворачивая и не разгоняясь.

img_0367_small.jpg А вот будущие системы в автомобилях планируется делать гораздо более продвинутыми, они уже будут определять границы безопасной области дорожного полотна, точно измеряя дистанцию до всех объектов на дороге. И смогут не только предупреждать водителя или тормозить при опасности, но также и ускоряться и даже уметь поворачивать руль при необходимости.

img_0369_small.jpg Платформа Drive PX вполне подойдёт для создания куда более продвинутой системы автономного управления, основанной на deep learning. Нынешние системы просто распознают объекты на дороге, классифицируя их и действуют только по жёстким алгоритмам. Это неплохо работает в ограниченном смысле, но этого недостаточно для будущего. Мощные системы вроде платформы для разработки Drive PX смогут работать с глубоко обучаемыми нейросетями при помощи анонсированного пакета DIGITS, дополненного библиотеками для захвата и обработки видеоданных.

img_0469_small.jpg Развивая тему глубокого обучения, показали её применимость и для полностью автономного управления движущимся транспортом. Пока что это был не полноразмерный автомобиль, но небольшой самодвижущийся агрегат из проекта Dave:

img_0374_small.jpg Отличие Dave от других проектов автономно движущихся аппаратов состоит в том, что в нём нет заранее закодированных вариантов последовательности действий, в зависимости от изображения, считываемого с камер (ы). Этот проект использует глубокое обучение — хорошо обученную нейросеть на основе тренировочных данных, полученных от водителя в лице обычного человека. Иными словами, Dave анализирует полученное с камеры изображение и действует на основании обученной нейросети примерно так, как это делал человек в аналогичной ситуации в примерах, на которых нейросеть обучалась.

img_0378_small.jpg Чем лучше обучена нейросеть, тем более правильные решения принимает эта машина. В проекте Dave используется нейросеть с 3.1 миллионами соединений при 12 кадрах в секунду, получаемых с камеры, а внедрение аналогичной системы на базе нейросети AlexNet и применении аппаратного обеспечения Drive PX от Nvidia, можно поднять количество кадров в секунду до 184 FPS, а число соединений до 630 млн. Итоговую разницу в производительности Nvidia оценивает в 3000 раз. Если даже с меньшими возможностями робот неплохо ездит по довольно сложной пересечённой местности, то уж с Drive PX его можно обучить ездить на порядки лучше.

img_0381_small.jpg По сути, из Drive PX может получиться неплохой автомобильный компьютер для полностью автономного управления на базе обучаемой нейросети, который сможет действовать аналогично человеку, поворачивая руль, тормозя и ускоряясь тогда, когда это необходимо. Будем надеяться на интерес со стороны автопроизводителей, тем более, что в рамках конференции GTC 2015 была объявлена цена и сроки доступности Drive PX на рынке:

img_0387_small.jpg Эту продвинутую автомобильную систему на базе двух чипов Tegra X1 от Nvidia, предназначенную для разработчиков, можно будет заказать за $10000, а доступна она станет в мае текущего года. И разработчики автомобильных систем во всём мире смогут использовать deep learning в своих разработках, которые самосовершенствуются и самообучаются.

Самые известные авторазработчики уже получают подобные системы в своё пользование, и есть большая вероятность, что мы скоро увидим такие самоуправляемые автомобили на дорогах — если не у нас в стране, то в других краях. Так, один из партнёров компании Nvidia анонсировал планы по запуску автономных автомобилей по дорогам США, а компания Audi в январе уже испытала свой концепт A7 на обычных дорогах, который проехал от Кремниевой долины до Лас-Вегаса.

img_0474_small.jpg Пока что в прототипе Audi применяется довольно крупная физически аппаратная система для автономного управления автомобилем, но использование такой платформы, как Drive PX, позволит уменьшить её до привычных размеров и освободит багажник легкового автомобиля, когда дело приблизится к серийному производству.

В рамках своего главного выступления на GTC, глава Nvidia Дженсен Хуанг прямо на сцене обсудил тему автономных автомобилей на дорогах с Илоном Маском (Elon Musk) — известным бизнесменом, основателем компаний PayPal, SpaceX и Tesla Motors. Последняя хорошо известна во всём мире, как автомобильная компания из Кремниевой долины, производящая одноимённые электромобили.

img_0396_small.jpg Разговор был сравнительно долгим и особых откровений в нём не было, но услышать мнение одного из лидеров индустрии по поводу автономных автомобилей было в любом случае интересно. Илон рассказал о том, что он не видит никаких проблем в скором появлении самоуправляемых автомобилей на дорогах (США), и что он ожидает их распространения уже через несколько лет. Привёл знаменитый бизнесмен и одну интересную аналогию, сравнив автомобили с… лифтами. Действительно, ведь если раньше ими управляли только специально обученные люди (лифтеры), то теперь с нажатием кнопок прекрасно справляются и обычные люди. С автомобилями будет примерно то же самое, считает Илон Маск.

Для Nvidia же крайне полезным стало признание Илона в том, что он считает мощные чипы этой компании важным фактором для развития автономных автомобилей. Маск сказал прямо: то, что делает Nvidia с компактными чипами Tegra, действительно интересно и очень важно в том числе и для автономных автомобилей будущего. Подобное признание дорогого стоит, будем надеяться на появление автономных «Тесл» под управлением «Тегр» в ближайшем будущем!

Анонсы профессиональной графики: Iray 2015, новые модели Quadro и обновление VCA Компания Nvidia не была бы собой, если бы не сделала на GTC несколько анонсов, связанных с профессиональной 3D-графикой. В целом, стремление компании улучшить профессиональные графические возможности для партнёров в этот раз можно описать привнесением быстрого и качественного рендеринга, основанного на физических принципах (Physically-Based Rendering), в массы.

Компания Nvidia давно занимается качественным 3D-рендерингом, зачастую опрашивая своих читателей в соцсетях на тему того, было ли отрендерено изображение или же это фотография? В основном, продвинутому читателю не составляет труда отделить реальность от его виртуального отображения, но эта задача становится всё сложнее.

И это не просто баловство, для многих клиентов компании создание физически корректно просчитанных изображений виртуального пространства жизненно необходимо. К примеру, чтобы посмотреть, как будет выглядеть автомобиль с теми или иными вариантами отделки без необходимости постройки полноразмерного макета, можно просто отрисовать его модель, но обязательно с максимально реалистичными материалами и освещением. Именно поэтому Physically-Based Rendering настолько важен.

pbr.jpg Чтобы визуализация была фотореалистичной, требуются качественно проработанные материалы и реалистичный физический расчёт того, как они взаимодействуют с источниками света. Например, для того же автомобиля это означает, что при определённом угле падения лучей света на панель приборов, яркие блики на одних материалах появятся, а на других — нет, хотя разница между этими материалами на первый взгляд невелика.

Чтобы рендеринг максимально точно повторял физические основы, используются специальные методы physically-based rendering, требующие очень значительных вычислительных мощностей — в частности, самых быстрых графических процессоров. Именно с PBR-рендерингом получается аккуратный и предсказуемый результат, достаточный для самых требовательных клиентов Nvidia.

В рамках конференции GTC компания анонсировала сразу несколько продуктов, связанных с темой профессиональной визуализации высокого качества, которые предназначены для тысяч дизайнеров. Анонс можно условно разделить на три части: новая версия рендерера, основанного на физических принципах Iray 2015, выход новой профессиональной модели Quadro и обновление комплекта Quadro Visual Computing Appliance, предназначенного для профессионалов 3D-графики.

Первым по значимости анонсом можно считать пакет Iray 2015 — последнюю версию GPU-ускоренного рендерера, основанного на физике взаимодействия света и материалов, теперь с новыми возможностями по обмену материалами между несколькими различными 3D-приложениями, улучшенной масштабируемостью и производительностью рендеринга.

Основанный на законах физики Iray 2015 рассчитывает, как материалы сцены взаимодействуют со светом, он работает на решениях Nvidia Quadro и Quadro VCA, масштабируясь от ноутбуков до серверов. Поддерживаются все самые распространённые 3D-пакеты вроде Autodesk Revit, 3dsmax, Maya, Bunkspeed, Catia, Rhinoceros, Maxon, и других.

iray_bunkspeed_small.jpg iray_3dsmax_small.jpg Из новых возможностей особенно отметим внедрение языка описания материалов (Material Definition Language — MDL), который сделает возможность использования одних и тех же физически корректных материалов в различных приложениях. Пока что этот язык описания материалов не поддерживается в другом ПО, но это — вопрос будущего.

Не менее важным можно считать анонс новейшей профессиональной видеокарты из линейки Quadro. Модель Quadro M6000 является последним дополнением профессиональной серии Nvidia, она основана на полноценном чипе GM200 архитектуры Maxwell — ровно как и вышедшая недавно видеокарта GeForce GTX Titan X, обзор которой можно прочитать на нашем сайте.

quadro_m6000_1_small.jpg Новинка для 3D-профессионалов также имеет 3072 потоковых CUDA-ядер и 12 гигабайт памяти, что очень полезно для рендеринга самых сложных сцен. Хотя Quadro M6000 основана на том же чипе GM200, его частоты несколько снижены для лучшей стабильности работы. Так, частота GPU составляет меньше 1 ГГц, а пропускная способность видеопамяти равна 317 ГБ/с. Из-за этого удалось немного снизить типичную величину потребляемой энергии — до 250 Вт.

quadro_m6000_2_small.jpg Несмотря на это, производительность новинки не снизилась ниже 7 терафлопов при вычислениях одиночной точности. Более того, новая Quadro M6000 является первой профессиональной моделью, которая поддерживает известную по игровым видеокартам технологию увеличения тактовой частоты GPU Boost — до 10 значений повышенной частоты, на которых будет работать GPU в определённых 3D-приложениях.

В итоге, новинка обеспечивает более чем 2,4-кратный прирост скорости рендеринга в Iray 2015, по сравнению с лучшей моделью Quadro на базе чипа архитектуры Kepler, работающей под управлением Iray 2014 (какая часть прироста относится к программной, а какая к аппаратной части — остаётся пока что загадкой). Клиенты компании Nvidia, небезызвестные LucasFilm, в своём собственном ПО для трассировки лучей на модели Quadro M6000 отмечают прирост до 55%.

Это не единственная модель Quadro, представленная сегодня. Также компанией была анонсирована модель Quadro K1200 — самая мощная видеокарта, предназначенная для рабочих станций малого форм-фактора (small form factor — SFF), которые получают всё большее распространение.

quadro_k1200_1_small.jpg Такие системы сейчас достаточно востребованы, и для них требуется специально сертифицированная продукция для применения в профессиональных приложениях. Модель Quadro K1200 как раз способна заметно ускорить основанный на физических законах рендеринг — в этой задаче она до четырёх раз быстрее, чем восьмиядерный серверный CPU модели Intel Xeon E5 2687W.

quadro_k1200_2_small.jpg Ну и последним анонсом на GTC, связанным с профессиональной 3D-графикой, стало обновление Quadro Visual Computing Appliance (VCA) — теперь эта система может включать до восьми видеокарт, аналогичных свежеанонсированной Quadro M6000, что даёт потрясающий прирост скорости в задачах 3D-рендеринга, в том числе и в упомянутом Iray 2015.

vca.jpg Все представленные на конференции в Сан-Хосе новые продукты Nvidia должны дать дизайнерам и конструкторам новые возможности, ускорив производительность их систем в 1,5–2 раза. Так, обновленная система VCA в принципе является самым быстрым серверным узлом для рендеринга на GPU, хотя на российском рынке она и не продаётся (вероятно, по причине отсутствия спроса).

Бонус: экскурсия по самым интересным помещениям Nvidia в Санта-Кларе В качестве бонуса предлагаем вашему вниманию небольшой фотоотчёт. Ваш покорный слуга получил шанс посетить одни из самых интересных помещений в зданиях компании Nvidia, расположенных неподалеку от места проведения GTC — в Санта-Кларе, и мы предлагаем вам посмотреть фотоотчёт об этой экскурсии. Хотя компания уже давно строит для себя новые здания большей площади, пока что сотрудники Nvidia располагаются в привычных четырёх основных и нескольких вспомогательных, о которых мы уже писали в прошлые годы.

img_0256_small.jpg Офисные здания и растительность вокруг них ухожены и выглядят весной очень красиво — по всей территории цветут вишнёвые деревья, а зелень всё ещё молода и свежа. Путь посетителя в основном здании Nvidia начинается со списка достижений, среди которых представлены как самые важные патенты компании (не все, естественно — так как всего их несколько тысяч), так и кубки и другие экспонаты, полученные за всё время работы:

img_0107_small.jpg Самым забавным трофеем среди выложенных можно посчитать гитару с логотипом AMD Opteron, которая вызывает всеобщий интерес. Всё очень просто — в своё время, ещё до приобретения ATI компанией AMD, компании были партнёрами и тесно взаимодействовали друг с другом, и ничего особенного в этом нет.

img_0109_small.jpg Первой комнатой, которую посетили журналисты, с

Полный текст статьи читайте на iXBT