Изменения в дата-центрах: Технологические решения

1a02c21d4b6f4cd7ac14a937f3705865.png

/ фото Arthur Caranta CC

Мы в команде IaaS-провайдера 1cloud много пишем о развитии облачных технологий и своем понимании управленческих подходов в сфере разработки и проектирования решений для предоставления виртуальной инфраструктуры.

Нам интересны не только новинки, но и технологии, оставившие след в истории. Например, недавно мы рассказывали об удивительном компьютере ENIAC, который ознаменовал своим появлением начало новой эпохи.

С момента его «рождения» прошло немало времени, появились более совершенные и мощные вычислительные системы. Об этом мы сегодня и поговорим: о технологических трендах, развивающихся в сфере управления данными.

Одной из причин совершенствования дата-центров является экономия денежных средств. Компании и стартапы стараются создать более эффективные системы, оптимизируя занимаемое ими пространство и стоимость содержания. Например, чтобы снизить затраты на охлаждение, некоторые организации строят дата-центры в холодных регионах планеты или под землей, а компания Microsoft, вообще, спустила ЦОД в морские глубины. Подобные дата-центры, несомненно, решают проблему размещения оборудования.

Также, в попытке сократить размеры площадей, занимаемых стойками, и связанные с этим операционные и капитальные издержки, в игру вступила компания Vapor IO, анонсировав в марте 2015 года новый подход к разработке дата-центров: проект модульного ЦОД Vapor Chamber.

68829967ce814f33b9fb8f9a8342a993.jpg

/ фото vapor.io — Vapor Chamber

По словам генерального директора Vapor IO Коула Кроуфорда (Cole Crawford), им удалось заключить дата-центр в удобный корпус, который легко грузить и транспортировать. Один такой цилиндр диаметром в три метра может вместить шесть монтажных стоек 42 U с общей ИТ-нагрузкой до 150 кВт, потому хорошо подходит для развертки в тесных городских условиях.

На веб-сайте Vapor IO говорится, что 36 блоков Vapor Chamber могут поместиться в том же пространстве, которое необходимо для размещения 120 стандартных монтажных стоек в конфигурации с «горячим» и «холодным» коридорами, но при этом Vapor Chamber значительно снижает коэффициент эффективности использования электроэнергии PUE.

Помимо прочего, Vapor IO разработала свое программное обеспечение под названием Vapor CORE (Core Operating Runtime Environment). Софт позволяет операторам дата-центров определять производительность ИТ-оборудования с использованием различных метрик (будь то количество обработанных URL-адресов или транзакций).

Этот подход похож на тот, который использовала компания eBay при создании своей концепции Digital Service Efficiency, представленной в марте 2013 года. При этом разработка Vapor IO гораздо более универсальна.

Работу Vapor Chamber дополняет OpenDCRE (Open Data Center Runtime Environment) — открытый API-интерфейс Vapor IO, дающий приложениям возможность интегрироваться с любым работающим центром обработки данных. Информация, предоставляемая в реальном времени, позволяет операторам дата-центров правильно определять потребность в ресурсах и распределять мощности.

Открытые решения — будущее ЦОД
Кажется, что все больше мировых компаний начинают работать с открытыми технологиями. В 2015 году компания Microsoft приняла Linux, компания Apple показала код своего новейшего и популярнейшего языка программирования, а облачные сервисы просто не могли функционировать без Linux. Эту большую волну подняла компания Facebook, когда запустила проект Open Compute.

Facebook работает над созданием открытого аппаратного обеспечения, сразу внедряя новые технологии в своих дата-центрах. Компания использует все передовые разработки — SSD, GPU, NVM и JBOF, что является частью нового видения компании по созданию сети мощных дата-центров.

«В следующие 10 лет мы плотно займемся технологиями искусственного интеллекта и виртуальной реальности, — поясняет Марк Цукерберг. — Все это потребует гораздо больших вычислительных мощностей, чем у нас есть сегодня».

0988b38115b1413b943c2b7b4238b5c9.jpg

/ фото gothopotam CC

Facebook полностью переделал свою инфраструктуру. Вместо обычного двухпроцессорного сервера появилась однокристальная система (SoC) на базе Intel Xeon-D с меньшей потребляемой мощностью.

«По вопросам разработки нового процессора мы тесно сотрудничаем с Intel. Параллельно идет процесс переделки серверной инфраструктуры, для того чтобы система отвечала нашим потребностям и была масштабируемой», — пишут представители компании.

Этот однопроцессорный сервер с CPU меньшей мощности справляется с веб-загрузкой лучше, чем двухпроцессорный вариант. В то же время серверная инфраструктура был перестроена таким образом, что количество процессоров на один уровень удвоилось.

«Рабочие цифры нового процессора полностью соответствуют нашим ожиданиям, — сообщают инженеры Facebook. — Более того, односокетный сервер имеет менее жесткие требования к теплоотводу».

Все это позволило Facebook создать серверную инфраструктуру, в которую можно упаковать гораздо больше производительной мощности на уровень, оставаясь в пределах 11 кВт на стойку.

Также в Facebook поделились своим новым подходом к использованию графических процессоров, которым в последние годы уделяется повышенное внимание. Изначально GPU применялись для увеличения производительности настольных ПК при работе с графикой, а сегодня они активно встраиваются в суперкомпьютеры для решения более сложных задач.

Компания использует мощности GPU в своих системах искусственного интеллекта и машинного обучения. Соответствующая лаборатория внутри компании разрабатывает нейронные сети для решения специфических задач. Очевидно, что это требует совершенно иных уровней производительности.

Система Big Sur, например, использует ускоренную вычислительную платформу Nvidia Tesla с восемью графическими высокопроизводительными процессорами по 300 Вт каждый. Инженеры Facebook оптимизировали показатели мощности и теплоотдачи новых серверов, что позволило задействовать их в существующих дата-центрах компании совместно с классическими серверами. В итоге существенно сократилось время на обучение нейронных сетей.

Еще одна сфера, куда Facebook направил свои стопы — это память. Компания использует флэш-технологию для ускорения загрузочных дисков и кэширования уже много лет. Инженеры заменили жесткие диски твердотельными накопителями, трансформировав хранилище из JBD (Just a Bunch of Disks) в JBOF (Just a Bunch of Flash).

Новый JBOF-модуль в Facebook разработали совместно с Intel — он получил название Lightning. За счет использования протоколов NVM Express и интерфейса PCI Express, оптимизированного под SSD, удалось добиться высокой скорости. Однако, как заявляют в компании, этого им все равно недостаточно.

Ответ компания пытается найти в технологии 3D XPoint, разрабатываемой Intel и Micron. Она основана на элементах с изменением фазового состояния и переключателе с памятью на элементах Овшинского, что позволяет получить ЗУ с объемом большим, чем у DRAM, и производительностью, превышающей возможности флеш-памяти.

Эта технология способна породить новую категорию энергонезависимой памяти: достаточно быструю, чтобы использовать шину DRAM, и достаточно емкую, дабы хранить большое количество данных.

Разработчики архитектур дата-центров уже экспериментируют с появляющимися новыми технологиями хранения данных. Например, известны попытки создания кластера из микросхем флеш-памяти под управлением чипа, эмулирующего контроллер диска.

В будущем структура хранилищ данных кардинально изменится: DRAM станет емким массивом высокопроизводительной флеш-памяти, что позволит «обойти» операционную систему и гипервизор, работая с серверными DIMM в режиме прямого доступа. Благодаря этому значительно снизится латентность, а накопители данных можно будет располагать рядом с серверами.

Open Compute меняет рынок ЦОД и облачных технологий. Совместные усилия крупных представителей ИТ-рынка стандартизируют и удешевляет разработку серверных решений. Основной целью открытых проектов является создание максимально эффективных и масштабируемых серверных систем с низкими издержками на содержание и энергопотребление. Пока что можно с уверенностью сказать, что все идет в этом направлении.

P.S. Мы стараемся делиться не только собственным опытом работы над сервисом по предоставлению виртуальной инфраструктуры 1cloud, но и рассказывать о смежных областях знаний в нашем блоге на Хабре. Не забывайте подписываться на обновления, друзья!

Комментарии (0)

© Habrahabr.ru