Процессоры Intel Core i7-8705G и i7-8809G (Kaby Lake-G): новейший класс систем на подложке, интегрирующий дискретную графику

Методика тестирования компьютерных систем образца 2017 года

Первые новости о возможном появлении на свет процессоров Intel с графикой AMD появились примерно за год до самих процессоров и вызвали (что естественно) массу слухов и спекуляций. Все они прекратились в этом году — вместе с фактическим появлением процессоров семейства Kaby Lake-G, но год оказался достаточно насыщенным и в этом плане: несмотря на то, что богат был и другими событиями. Теперь настало время пытаться заглянуть в будущее (например, в связи с планами Intel вернуться и на рынок дискретных GPU — уже понятно, какими могут быть первые использующие их продукты; и это вовсе не видеокарты), а также изучать текущие модели… Но есть смысл и немного заглянуть в историю — ведь на деле работа над этим решением началась вовсе не в 2017 году и даже не в 2016. Скорее всего, произошло это не позднее 2015 года. А чтоб понять — как и зачем, нам вообще стоит вернуться лет на 20–30 назад.

Интегрированная графика: первые шаги

Возможно, кому-то из наших читателей будет сложно в это поверить, но когда-то все графические решения, применяемые в персональных компьютерах, были исключительно интегрированными. Не в современном смысле слова, когда вообще все получается упаковать в один полупроводниковой кристалл — первые персоналки, с точки зрения современности архаичные как паровоз Стефенсона, требовали использования сотен микросхем, а то и тысяч таковых. Просто никакого «GPU» в них не было — этот термин появился намного позже. А вся обработка любой графики выполнялась исключительно силами центрального процессора. Причем в первых платформах вся она ограничивалась системной же памятью, емкость которой измерялась лишь десятками килобайт — на все про все. В общем, единственное, что в тогдашних системах можно было отнести, собственно, к графике — некоторое количество микросхем, занимающихся непосредственным выводом видеосигнала наружу. А графические характеристики любой персоналки были неотъемлемой частью используемой в ней платформы.

Это было верно и для первых модульных ПК, типа Apple II, где понятие карт расширения уже появилось, но графика осталась прерогативой платформы. Создавая же первые PC, компания IBM этот подход углубила и расширила. Не от хорошей жизни — просто основным рынком для этих компьютеров считался «деловой», где на тот момент вообще обходились черно-белым (чаще, впрочем, черно-зеленым) текстом. Цветные же графические мониторы были либо дорогими, либо имели невысокое качество изображения (бытовые ПК и вовсе ориентировались на использование телевизоров — так дешевле; пусть и качество никакое), либо и то, и другое сразу, но отказываться принципиально от возможности их использования было бы не слишком правильным решением. Вот и не стали. Заложив в варианты комплектации первой «писишки» возможность поставки с одной из видеокарт, а, может быть, и двумя сразу — работать адаптеры MDA и CGA могли параллельно и не мешая друг другу, благо использовали разные мониторы (причем несовместимые друг с другом). Первый обеспечивал отображение качественного монохромного текста, у второго с символами было похуже, зато поддерживались графические режимы — с разрешением до 640×200 и числом цветов до четырех, но не одновременно.

В принципе, и тот, и другой видеоадаптеры можно было бы просто «припаять» к плате, что не было сделано только из-за необходимости хоть немного сэкономить. Но такой подход принципиально закрепил идею, что в персональном компьютере могут быть разные видеоадаптеры. Что позднее позволило выпускать на рынок их улучшенные версии, типа EGA или VGA. Последний, кстати, в собственных компьютерах IBM уже как правило интегрировался на плату. Аналогичным образом поступали и другие крупные производители — так получалось дешевле. Но, естественно, интеграция была именно простой и «лобовой»: просто те же чипы располагались не на плате расширения, а прямо на системной. По понятным причинам, особых выигрышей такой подход не сулил, так что слишком массовым не становился. Тем более, что и технологии начали развиваться достаточно бурно…

Первым звоночком оказалось внедрение графических операционных систем, резко повысившее требование к видеосистеме. Хотя бы потому, что режимы с низким разрешением и количеством цветов для такого подходили плохо, так что потребовалось увеличивать объемы памяти, который начал иногда считаться в мегабайтах. Да и повышать вычислительные мощности тоже — чтобы «разгрузить» центральный процессор, сняв с него кучу типовых операций: типа перетаскивания окон (что решалось пересылками данных внутри памяти) и/или поддержки курсора мыши. Первые Windows-акселераторы по меркам современности были очень простыми, но со своими задачами неплохо справлялись. Правда вот быстро оказалось, что и обычная системная шина ISA для них недостаточна — лучше освоить что-то более быстрое. Например, VLB или PCI. В общем, этот сегмент начал бурно развиваться, делая видеокарты еще одним видом оборудования, подверженным апгрейду — наряду с центральными процессорами.

Тем более, что с этого момента исчезли проблемы совместимости, ранее сильно сдерживающие ПО. Просто потому, что последнее во времена DOS работало с оборудованием напрямую, так что до конца дней существования последней системы в основном ориентировалось на VGA как на наименьший общий знаменатель. В принципе, уже в 1989 году была создана ассоциация стандартизации видеоэлектроники (VESA), спустя два года предложившая рынку стандартные расширения видео-BIOS с поддержкой режимов «SuperVGA» (т. е. всего того кавардака с выходящими за рамки VGA возможностями), но на их доведение до ума и освоение «железе» тоже требовалось время. А тут как раз подоспела уже Windows 95 и иже с ней, где работа прикладного программного обеспечения была отделена от оборудования толстым слоем системного ПО. Что очень сильно помогло «видеореволюции», поскольку от производителей требовалась только реализация стандартов (в т. ч. и 3D API) в драйверах, а сами видеокарты могли быть очень разными — и по аппаратным возможностям, и по производительности.

Полная интеграция и проблемы памяти

Примерно к тем же годам относится и появление действительно интегрированных (в современном смысле слова) видеорешений. Как это соотносилось с прогрессом? Да очень просто — оказалось, что полный набор возможностей топовых GPU нужен далеко не всем пользователям, так что рынок быстро начал расслаиваться по сегментам. Самые мощные (как сейчас принято говорить «флагманские») видеокарты бодро становились все более навороченными, но и более дорогими. Старые ценовые позиции при этом не пустели, а занимались устройствами нового поколения, но сопоставимыми по возможностям с былыми «флагманами», а то и превосходящими их. При этом оказалось, что потребности многих пользователей расти вслед за рынком не собирались — людям требовалась «просто» видеокарта как переходник к монитору. Конечно, и эти «переходники» должны были эволюционировать, но лишь вслед за другими компонентами, а не опережая их. А вот стоить при этом должны были максимально дешево.

Как получить искомое? Для этого достаточно взять типовой GPU и выбросить из него все «лишнее», чем является все, отличное от жизненно-необходимого. А все жизненно-необходимое по возможности следует разделять с другими компонентами. Например, не нужна отдельная видеопамять — ведь в системе уже установлен определенный объем ОЗУ, которым и следует пользоваться. Соответственно, не нужен и отдельный контроллер памяти — таковой уже есть в чипсете (позднее — процессоре). Вот туда же интегрируем все оставшиеся после первого этапа транзисторы, получив в итоге практически бесплатное решение. Нет, разумеется, какие-то расходы на эти квадратные миллиметры будут —, но на фоне видеокарты даже начального уровня, включающей в себя несколько микросхем, кусок печатной платы, затраты на сборку конечного продукта и т. п. это копейки. Которые в итоге еще и можно размазать «тонким слоем» на всех покупателей. В итоге каждый из них отдаст, допустим, доллар — чего не заметит. Но те клиенты, которым интегрированного решения достаточно, сэкономят как минимум долларов 20–40, а это уже заметно. Кому недостаточно, тот все равно будет покупать дискретную видеокарту за несколько десятков (или уже сотен) долларов, так что потенциальная экономия на отсутствии интегрированной графики его все равно не спасла бы.

В итоге уже первые интегрированные решения быстро начали набирать популярность — оказалось, что их, действительно, достаточно многим. Например, офисным пользователям, требования которых к видеосистеме всегда находились на уровне плинтуса, а вот экономия при закупке десятков компьютеров уже была заметной. Причем и обеспечиваемый IGP «плинтус» постепенно рос — ведь все затраты приходились всего лишь на дополнительные транзисторы, которые по мере усовершенствования техпроцессов дешевели, так что их количество можно было увеличивать, обучая графические ядра новым фокусам. Разумеется, о прямой конкуренции с топовыми GPU речь не шла — те быстро обогнали процессоры по площади и энергопотреблению, а встроить «большее» в «меньшее» без помощи магии невозможно, но это и не требовалось. И не только в офисах — ведь, например, старые игры никуда не исчезали после окончания продаж. Но, если во время жизненного цикла им требовались серьезные видеокарты, то через несколько лет оказывалось, что и интегрированной достаточно. А для человека, который не прошел какой-нибудь первый Far Cry сразу после его появления, таковой оставался вполне «новой» игрой до самого момента прохождения. Хотя если и прошел — мог захотеть повторить позднее.

В общем, интегрированная графика захватывала новые плацдармы. По мере этого сокращались продажи младших дискретных видеокарт, так что для сохранения уровня доходов производители последних вынуждены были постоянно повышать цены на «не младшие». А это в свою очередь привлекало к IGP внимание все новых и новых потенциальных покупателей.

Но были у этой идиллической картины и недостатки, самым важным из которых оказывалась проблема памяти. Действительно — мы уже условились, что для удешевления собственной видеопамяти не будет, а будет только системная. Первое время это не мешало, но по мере увеличения производительности GPU росли и их требования к емкости и скорости памяти. В дискретных видеокартах это решалось расширением шины и быстрым переходом к новым стандартам, системная память же всегда была более консервативной. В частности, уже много лет назад максимумом для массовых платформ стала шина, шириной 128 бит — два канала. В HEDT или, тем более, серверах бывает и больше — уже до шести каналов, т. е. 384 бита, что сопоставимо с топовыми видеокартами. Но сделать это массовым решением нельзя — дорого. Да и покупать придется сразу несколько модулей памяти, что тоже цену мягко говоря не снижает. В итоге идея полностью противоречит главной цели интеграции: минимизации цены.

Можно повышать частоты, что в видеокартах делается. Но для системной памяти и этот метод не слишком применим, поскольку высокая частота видеопамяти достигается во многом благодаря отказу от контроля ошибок. Последние не слишком критичны — в худшем случае появятся артефакты изображения (хорошо заметные при ручном переразгоне памяти) да и все. А вот если начнут сбоить программы — пользоваться компьютером станет невозможным. Да и использование для памяти отдельных слотов (вместо простого припаивания чипов к основной плате) проблему тактовых частот только усугубляет. Поэтому лучшее, что можно обеспечить интегрированной графике при прямолинейном подходе — уровень самых-самых дешевых видеокарт. Мультимедийных, а не игровых. Но хотелось бы играть в игры…

«В полный рост» эта проблема встала после появления платформы AMD FM1, поскольку в Llano компания встроила неплохое по тем временам видеоядро: на уровне собственных дискретных решений среднего уровня. А вот с памятью все было хуже: интегрированный Radeon HD 6550D (использовался в процессорах линейки А8) обходился в лучшем случае DDR3–1866, что примерно соответствовало Radeon HD 5570 (DDR3–1800), но было вдвое хуже, чем GDDR5–4000 Radeon HD 5670. При этом количество графических процессоров, их частота, а также ширина шины памяти у этих решений были сопоставимы. В идеале сопоставимы — к сожалению, APU AMD оказались (да и сейчас остаются) слишком уж «дураконеустойчивыми»: слишком уж легко испортить формальные характеристики. Например, большинство готовых компьютеров на этой платформе продавалось с одним модулем DDR3–1600, а то и DDR3–1333 — потому, что так дешевле. В итоге покупатель компьютера получал несколько не то, что он мог видеть в обзорах. За что клял и материл как их авторов, так и компанию AMD… розничного продавца лишь постольку-поскольку уже, хотя именно ему и стоило предъявлять претензии.

В последующих линейках проблема не исчезла — только усугубилась: поскольку они получили еще более производительные GPU, но при той же ПСП даже номинально. Позднее производительность графики опять заметно увеличили с переходом на новую архитектуру, а номинальная частота памяти подросла на 15%. Реальная же как уже было сказано выше вела себя по-всякому: заставить сборщиков для изначально бюджетного сегмента использовать более дорогие конфигурации AMD не могла. При этом, что забавно, более дорогие «игровые» компьютеры от таких проблем не страдали — им это не мешало. И даже если «не совсем игровые», но с дискретной видеокартой — тоже. Понятно, что производители с младшими моделями последних мухлевали по-всякому, занижая частоты относительно официальных в частности, но какая-то предсказуемость была. А вот с интегрированной графикой — не было. Что сильно «било» по популярности последней за пределами того самого «уровня плинтуса».

Продукция компании Intel долгое время от подобных проблем не страдала, поскольку этот производитель ориентировался как раз на этот уровень — работает и ладно. Вместо этого производитель старался максимально насытить рынок хотя бы такими графическими решениями, встраивая их во все массовые процессоры. Это давало свои плоды — многим пользователям хватало (особенно в каком-нибудь Celeron, который весь стоил дешевле любой видеокарты, но при этом еще и как-то работал), а остальные дискретные решения докупали, все равно не портя Intel статистику продаж. Однако компании тоже пришлось увеличивать мощность встроенной графики — из-за переориентации рынка на портативные компьютеры, куда дискретная графика «лезла» плохо. Вернее, в классический ноутбук помещалась —, но вот в ультрабук или планшет уже не очень. Поэтому и систему памяти требовалось как-то «подстегнуть», но не экстенсивным путем — слишком уж много на последнем было граблей. Выбрали интенсивный — добавив в часть процессоров семейства Haswell дополнительный уровень кэш-памяти на базе отдельного кристалла eDRAM. Небольшой емкости (всего-то 128 МБ), зато быстрой. На первых порах решение казалось правильным — производительность Haswell с GPU GT3e оказалась очень высокой: по крайней мере не уступающей решениям AMD даже при использовании последних «в лучшем виде». С дуракоустойчивостью же и энергопотреблением дела обстояли лучше, чем в APU. Кроме того, четвертый уровень кэш-памяти могли использовать и процессорные ядра, что в ряде приложений обеспечивало дополнительный прирост производительности и вне связи с графикой. Поэтому решено было сделать это направление магистральным.

И, вскоре, перерешить. В Haswell 2013 года совместно с 40 графическими конвейерами результат был отличным. В Broadwell их количество увеличили до 48 — и тоже с неплохим итогом. В Skylake компания попыталась сделать большой скачок, увеличив количество графических конвейеров до 72, но производительность GT4e в играх, внезапно, не увеличилась. Более того — она оказалась сопоставимой с GT3e CULV-процессоров этого семейства, хотя последние представляли собой лишь половинку старших моделей: два ядра, а не четыре, 64 МБ eDRAM, а не 128 МБ… энергопотребление же и вовсе отличалось примерно в три раза. В итоге GPU линейки Iris так и остались только в этом семействе и практически не изменились при переходе от Skylake к Kaby Lake, а для мощных, но компактных компьютеров компания начала искать принципиально-другие решения. Не позднее 2015 года, повторимся — может, даже, и раньше. Правда, из-за принципиальности изменений результата пришлось ждать достаточно долго, хотя в принципе решение лежало на поверхности.

Kaby Lake-G: дискретно-интегрированная графика

Можно ли считать GPU этой линейки «интегрированным» — вопрос дискуссионный: все-таки для него используется отдельный чип, да еще и 4 ГБ собственной памяти HBM2 присутствует. С другой стороны, многокристальные сборки на одной подложке для Intel давно не редкость — как минимум с 2010 года, когда появились процессоры семейств Clarkdale/Arrandale. Было в них два чипа — собственно процессорный и бывший северный мост, включающий в себя GPU. При этом компания считает именно эти линейки процессоров своими первыми решениями с интегрированной графикой. Соответственно, и Kaby Lake-G можно считать такими. А что касается количества чипов, то в Haswell, Broadwell, Skylake и Kaby Lake с графикой Iris Plus/Pro их уже на одной подложке было три: процессор, южный мост и eDRAM. Двумя (без последнего) обходились модели с GPU HD Graphics.

Те же чипы присутствуют и в этой линейке — процессорно-чипсетная часть Kaby Lake-G полностью идентична ноутбучным Kaby Lake-H: процессор Kaby Lake и южный мост НМ175. Сейчас эти процессоры уже заменяются на Coffee Lake-H, где количество вычислительных ядер может достигать шести — такую же операцию можно провести и с –G-семейством. Благо менять для этого вряд ли что-то придется — связь «процессора» с GPU осуществляется не при помощи каких-то сложных интерфейсов, а при помощи обычного (пусть и немного разогнанного) PCIe. Соответственно, можно заменять любую часть, хотя мы не удивимся, если это решение окажется временным — недаром же все больше и больше информации появляется о собственных графических GPU Intel. Будет ли компания выходить с ними на рынок дискретных видеокарт или ограничиться контролируемым целиком и полностью сегментом? Покажет время. Но в пользу второй версии доводов много. Тем более, в этом случае можно и что-то придумать с межчиповым интерфейсом, и специализированный процессорный кристалл выпустить. И контроллер PCIe, кстати, не нужен будет ни ему, ни GPU — это тоже может оказаться полезным.

Пока же в процессорах используется графика от AMD, но в дополнение к собственному (традиционному для Kaby Lake) видеоядру HD Graphics 630. «Внешний» GPU — специализированный заказной. Называется Radeon RX Vega M (и существует в двух модификациях: GL и GH), хотя очень много доводов в пользу того, что это Polaris — предыдущая версия микроархитектуры GPU AMD. С учетом длительного цикла разработки — немудрено. С другой стороны, есть и факты, позволяющие утверждать, что это действительно Vega. В любом случае, речь идет о специальном заказном чипе, причем по утверждениям представителей Intel им вовсе не обязательно должна была быть разработка AMD — просто эта компания сумела предложить более выгодные условия, чем один ее известный конкурент.

На деле, конечно, более важно, что сможет на практике получить покупатель — позднее мы это оценим. А пока посмотрим — на что можно рассчитывать в теории, сравнив обе модификации GPU с дискретными решениями линейки Radeon RX 500 (что более чем корректно, если это вдруг и правда Polaris, а не Vega) и с графикой APU Ryzen 3 2200G (Vega 8) и Ryzen 5 2400G (Vega 11).

  RX 550 RX Vega 8 RX Vega 11 RX 560 RX Vega M GL RX Vega M GH RX 570
Количество ALU 512 512 704 1024 1280 1536 2048
Частота ALU, МГц 1100 1100 1250 1175 1011 1190 1168
Количество ROP 16 8 8 16 32 64 32
Шина памяти, бит 128 128 128 128 1024 1024 256
Частота памяти, МГц 7000 2933 2933 7000 1400 1600 7000
ПСП, ГБ/с 112 46,9 46,9 112 179,2 204,8 224

В принципе, последней строчки достаточно, чтобы понять — APU прекрасны невысокой ценой, но от них сложно ждать высокой производительности: ПСП вдвое ниже, чем у дискретных решений. А вот Vega M, напротив, с этой точки зрения просто замечательна, поскольку каждому ALU достается больше, но вот стоимость памяти HBM2 очень высока. Собственно, поэтому ее здесь только 4 ГБ, хотя в дискретном 570 может быть и 8 ГБ — зато более дешевой GDDR5. С другой стороны, 550/560 могут снабжаться и 2 ГБ памяти, а APU больше двух и не адресуют. Впрочем, с такой ПСП и количеством ROP им, пожалуй, больше и не нужно — на деле даже RX 550 лучше во всем, кроме цены. А вот Radeon Vega M в любом виде классом выше, чем Radeon RX 560. Не так уж много —, но и не так уж мало. Учитывая, что эти процессорные сборки в первую очередь ориентированы на использование в ноутбуках, так что имеют ограниченный теплопакет. Да и весьма компактны как раз благодаря использованию памяти HBM2 — вот для связи последней с GPU используется фирменный интерфейс EMIB. Вполне возможно, повторимся, именно на него целиком и полностью перейдут наследники Kaby Lake-G, которые станут в итоге «еще более» интегрированными.

Конфигурация тестовых стендов

Процессор Intel Core i7–8700G Intel Core i7–8809G
Название ядра Kaby Lake-G Kaby Lake-G
Технология производства 14 нм 14 нм
Частота ядра, ГГц 3,¼,1 3,¼,2
Количество ядер/потоков 4/8 4/8
Кэш L1 (сумм.), I/D, КБ 128/128 128/128
Кэш L2, КБ 4×256 4×256
Кэш L3, МиБ 8 8
Оперативная память 2×DDR4–2400 2×DDR4–2400
TDP, Вт 65 100
GPU Radeon Vega M GL + HD Graphics 630 Radeon Vega M GH + HD Graphics 630

Что же касается практических испытаний, то нам достались две модели Kaby Lake-G, используемые самой компанией Intel в новых NUC. Соответственно, мы их и протестируем. Отметим, что отличаются они фактически только GPU —, но из-за этого старшая модель получила и более широкий теплопакет, что на реальных тактовых частотах процессорных ядер тоже может сказаться благотворно. Во всяком случае тогда, когда дискретный GPU не используется или слабо нагружен: значения в 65 или 100 Вт, привычные для настольных процессоров, в данном случае относятся ко всей сборке.

Процессор AMD Ryzen 5 2400G Intel Core i7–5775C Intel Core i7–7700
Название ядра Raven Ridge Broadwell Kaby Lake
Технология производства 14 нм 14 нм 14 нм
Частота ядра, ГГц 3,6/3,9 3,3/3,7 3,6/4,2
Количество ядер/потоков 4/8 4/8 4/8
Кэш L1 (сумм.), I/D, КБ 256/128 128/128 128/128
Кэш L2, КБ 4×512 4×256 4×256
Кэш L3 (L4), МиБ 4 6 (128) 8
Оперативная память 2×DDR4–2933 2×DDR3–1600 2×DDR4–2400
TDP, Вт 65 65 65
GPU Vega 11 Iris Pro Graphics 6200 Radeon RX 480

Вот с чем сравнивать — вопрос сложный, поскольку другие ноутбучные решения такого рода мы не тестировали. Что ж — придется ограничиться более привычными настольными. Например, Ryzen 5 2400G — это не прямой конкурент, но лучшая реализация «классической» интегрированной графики. А Core i7–5775C — практически она же, но в исполнении Intel. И бескомпромиссный вариант: Core i7–7700 + Radeon RX 480. Понятно, что нам бы больше подошли RX 560 и 570 (почему — понятно из таблицы с ТТХ), но их под рукой не оказалось. С другой стороны, «оценка сверху» тоже не повредит.

Окружение мы старались сделать одинаковым, «танцуя» от NUC — в них можно использовать только накопители формата М.2, а энергопотребление измеримо только средствами мониторинга. К сожалению, как выяснилось, работает он только для «процессорной части», даже в те моменты, когда к работе «подключается» GPU. С другой стороны, для Ryzen и такого не получилось. Компания AMD реализовала в новых процессорах много разных датчиков, но не один, судя по всему, не позволяет следить за всей SoC. А тот, который называется созвучно такому назначению, умудряется выдавать значения большие, чем получает вся плата с процессором и памятью от блока питания, что, очевидно, лишено физического смысла. В общем, пока мы мониторинг на АМ4 победить не смогли. Надеемся, что история с предыдущими платформами AMD, где и «побеждать» нечего, не повторится — иначе тестировать ноутбуки после их появления будет слишком печальным занятием.

В итоге повторно тестировать Ryzen 5 2400G и Core i7–5775C в обновленном окружении мы не стали — данные по производительности взяли из «основной линейки» тестов, а за энергопотребление приняли то, что поступает по линии +12 В. Для LGA1150 и LGA1151 эти данные точно совпадают с показателями мониторинга, так что мы продолжаем исходить из предположения, что и для АМ4 такие измерения верны — проверить их сейчас все равно пока нечем из-за описанной ситуации с датчиками. Влиянием SSD решено было пренебречь, поскольку Core i7–7700 мы совместно с Intel 760p на 512 ГБ как раз и протестировали — после чего убедились, что как он, так и Radeon RX 480 на результатах сравнительно с «просто» процессорной графикой и обычно используемым Corsair Force LE 960 ГБ не сказываются: расхождение в пределах 5%. Но на диаграммах мы на всякий случай Ryzen 5 2400G и Core i7–5775C «нарисуем» немножко в сторонке от прочих участников тестирования.

Методика тестирования

Методика подробно описана в отдельной статье. Здесь же вкратце напомним, что базируется она на следующих четырех китах:

Подробные результаты всех тестов доступны в виде полной таблицы с результатами (в формате Microsoft Excel 97—2003). Непосредственно же в статьях мы используем уже обработанные данные. В особенности это относится к тестам приложений, где все нормируется относительно референсной системы (AMD FX-8350 с 16 ГБ памяти, видеокартой GeForce GTX 1070 и SSD Corsair Force LE 960 ГБ) и группируется по сферам применения компьютера.

В отличие от большинства «процессорных» тестирований, большой интерес сегодня представляют игровые тесты. Обычно для интегрированных решений мы ограничиваемся тестами в минимальном качестве, однако для дискретных решений (а в Kaby Lake-G как уже было сказано выше «интегрировано» практически таковое) такие режимы не имеют высокого смысла. Поэтому большинство участников тестирования поработали и с настройками на максимальное качество — за исключением Core i7–5775C, который такие режимы совсем «не тянет». Как оказалось (но нас не удивило), и про Ryzen 5 2400G можно сказать тоже самое — некоторые игры на нем в максимальном качестве запускаться отказываются, а некоторые… лучше бы тоже не запускались. Но что есть, то есть.

iXBT Application Benchmark 2017

Понятно, что ноутбучный Kaby Lake от настольного отличается только теплопакетом — и, соответственно, рабочими тактовыми частотами. Не в лучшую сторону, так что оба наших испытуемых немного, но отстали от Core i7–7700. С другой стороны, их производительности более чем достаточно, чтобы обогнать не менее настольные старые Core i7 или Ryzen 5 с тем же количеством ядер.

Результаты идентичные предыдущей группе тестов. Что неудивительно — так и должно быть.

А вот в этих программах разброс показателей увеличился. Но связано это с тем, что некоторые из них уже «умеют» нагружать работой GPU, причем мощность четырехъядерных восьмипоточных процессоров такова, что и производительность последнего уже немного, но сказывается. Однако относительное положение испытуемых, разумеется, остается примерно тем же, что и ранее: процессоры семейства Kaby Lake-G (как и лежащие в их основе Kaby Lake-H) немного медленнее настольных моделей того же поколения, но способны обгонять более старые и/или отличные по микроархитектуре устройства.

В очередной раз способна «выстрелить» видеокарта —, но не в плане абстрактной производительности, а в связи со скоростью обмена данными между CPU и GPU. Этот фактор вообще очень часто мешает использованию последних в расчетах — за пределами очень специализированных приложений накладные расходы на пересылку данных таковы, что способны «съесть» все ускорение. В этом плане интеграция процессоров разных типов с целью улучшения связи между ними очень интересна — поскольку, как видим, весьма эффективна.

Возвращаемся на грешную землю :) Все, что требуется этой программе — побольше целочисленных (и относительно простых) потоков вычисления, но не более того.

А архиваторы сразу показывают разницу между ускорением доступа к памяти при помощи дополнительных уровней кэширования и… просто выделенной областью для GPU: кэш четвертого уровня в Broadwell могут использовать и процессорные ядра. С пользой для себя :) Так что хотелось бы увидеть и развитие этого подхода. Впрочем, тут топовый Kaby Lake-G все равно сумел немного опередить своего настольного собрата, но не на много — вполне возможно, что из самих модулей памяти (разных по понятным причинам — в NUC устанавливаются SO-DIMM) удалось выжать немного меньшие задержки.

Тем более, что вот тут мы опять возвращаемся на круги своя — небольшой, но быстрый L4 в Core i7–5775C позволяет ему до сих пор демонстрировать высокую производительность. При том, что процессору уже три года, вообще-то. И там, где дополнительным уровнем кэша воспользоваться не удается, он совсем не блещет — что мы не раз видели выше.

В общем и целом же, результат предсказуемый — ноутбучные Kaby Lake немного, но медленнее настольных, хотя в принципе их можно считать относящимися к одному классу. Со всеми его достоинствами и недостатками — например, всего четыре ядра могут не позволить уже в некоторых сценариях конкурировать с теми устройствами, где таковых шесть-восемь. Впрочем, понятно, что обновить линейку, взяв в качестве основного кристалла уже не Kaby Lake-H, а шестиядерный Coffee Lake-H с технической точки зрения не сложно. Другой вопрос, что основное предназначение этих процессоров — не демонстрация каких-то рекордов производительности на обычном х86-коде. Но с этим мы разберемся чуть позже.

Энергопотребление и энергоэффективность

Пока же посмотрим на энергопотребление. Несложно заметить, что программы мониторинга собственно «процессорную часть и мониторят — датчики те же. Не сказать, что ее потребление рекордно-низкое (рекорды давно уже ставят в основном двухъядерные процессоры), но ниже настольных моделей.

А вот производительность — даже не всегда ниже. Поэтому процессоры демонстрируют выдающуюся энергоэффективность, позволяющую использовать их в ноутбуках — для чего и выпускаются. При этом младшая модель выглядит лучше старшей, но так обычно и бывает — с ростом частоты потребление энергии растет быстрее, чем производительность.

iXBT Game Benchmark 2017

Основным же преимуществом 8809G над 8705G является более мощный GPU. Впрочем, с минимальными-то настройками в этой игре справляются все и с запасом. Однако на максимальные запаса уже не хватает — даже на RX 480 частота кадров в Full HD снижается. Ryzen 5 2400G же в таком случае и вовсе «сдувается» до 30 FPS —, а ведь это лучшее интегрированное видео на рынке! Если рассматривать «интегрированное» в традиционном понимание, поскольку в сборке Kaby Lake-G оно тоже не совсем дискретное, как уже было сказано выше:) Но способное обеспечивать комфортную игру и на максимальных настройках, причем и в высоком разрешении тоже — во всяком случае, Vega M GH это может.

В этой игре «замахиваться» на максимум пока рановато. С другой стороны, при снижении разрешения уже можно поиграть — на Ryzen 5 2400G еще нельзя. А лучшее из того, что было у Intel раньше, еще медленнее последнего.

В стратегиях архиважна процессорная производительность — поэтому тут радикальное улучшение качества картинки не так уж радикально «просаживает» производительность, да и от разрешения она ограничено зависит. Впрочем, «классическая» интегрированная графика в лучшем случае справлялась с минимальными настройками, да и то не всегда. Равно как и некоторые ноутбучные дискретные видеокарты начального уровня. Поэтому то, что на Kaby Lake-G вообще-то можно выбрать и максимальное качество (хотя бы в HD-разрешении) уже многого стоит.

Дискретная видеокарта, интегрированная в процессорную сборку, по поведению и производительности остается дискретной. Просто такое решение получается более компактным и (в идеале) более экономичным, но остается способным на то, что недоступно интегрированной графике. По уже указанным в начале причинам — пропускная способность «системной» памяти пока недостаточна для мощных GPU и вряд ли когда-то станет достаточной: требования-то к ней тоже постоянно растут. Появление APU на базе Ryzen хотя бы позволило играть в эту игру —, но только на мини

Полный текст статьи читайте на iXBT