Экскурсия по шведскому дата-центру Facebook недалеко от Полярного круга

Чуть южнее Полярного круга, посреди леса на окраине шведского городка Лулео, находится серверная ферма — гипермаштабный дата-центр компании Facebook. Фасад гигантского здания обрамляют тысячи прямоугольных металлических панелей, при этом само оно выглядит как заправский космический корабль. Серверная ферма компании в Лулео огромна. Она имеет 300 метров в ширину и 100 метров в длину, что примерно соответствует размеру четырех футбольных полей.

916d669daeb34202aa23d7f61747efdf.jpg

Интересно, что проект Facebook по строительству кампуса ЦОД в Швеции в один момент оказался крайне близок к провалу. Один местный эколог заявил, что новый дата-центр может навредить птицам, включая редкого трехпалого шведского дятла, который гнездится рядом с кампусом. Но чиновники из муниципалитета Лулео отклонили возражение. Слишком уж привлекательным выглядел проект Facebook, предполагавший инвестирование сотен миллионов долларов в строительство и создание множества рабочих мест.

6c900acb537443a091bc493444a56565.jpg

Серверная ферма Facebook является одной из самых энергоэффективных вычислительных объектов в человеческой истории. Около столетия назад Швеция начала строительство многочисленных гидроэлектростанций для организации электроснабжения своей сталелитейной и целлюлозно-бумажной промышленности. Такие ГЭС появились и в Лулео. Теперь они используются для запитки дата-центра Facebook, который, к слову, потребляет примерно столько же электроэнергии, как сталелитейный завод. По словам инженеров Facebook, целью компании является обеспечение электроснабжения своих дата-центров на 50% за счет экологически чистых и возобновляемых источников энергии к 2018 году. И шведский кампус существенно приблизил Facebook к этому уровню. На кампусе также расположились три мощных дизельных генератора квадратной формы, которые понадобятся в случае маловероятных перебоев в работе центральной электросети.

«К региональной электросети подключено так много ГЭС, что генераторы попросту не нужны», сказал Джей Парк, директор Facebook по развитию инфраструктуры. По словам Парка, при подключении подстанций к новому ЦОД инженеры Facebook использовали схему резервирования »2N», то есть электричество поступает из независимых сетей, используя различные маршруты. В первом случае используются подземные кабели, в то время как во втором — воздушные ЛЭП.

7697639c972a40efa9e09e55ce3033de.jpg

2d552bce010048db9850d610d9525021.jpg

bbbe5846a69e45c593247bee68c7a967.jpg

Серверная ферма помогает Facebook обрабатывать около 350 миллионов фотографий, 4,5 млрд. «лайков» и 10 млрд. сообщений в день. Строительство шведского дата-центра компания начала с целью повышения качества обслуживания европейских пользователей, которые генерируют все больше электронных данных. При этом сейчас есть высокая вероятность того, что если вы загрузите селфи в Лондоне или опубликуете обновление статуса в Париже, ваши данные будут храниться в Лулео. В обычном дата-центре на каждый ватт IT-нагрузки приходятся полтора-два ватта электромеханического оборудования и систем охлаждения, ЦОД Лулео работает в разы эффективнее: его коэффициент PUE равен 1.04.

Концепция «Шасси»


Facebook возводил серверную ферму, повторяя концепцию «шасси». Воспользовавшись подсказками из разных индустрий, где широко применяется автоматизация и стандартизация производства, удалось сформировать виденье идеи и реализовать «шасси» — основу (в данном случае это стальная рама с ориентировочными габаритами 3.6 м на 12.2 м) и использовать сборочную линию для доставленных на место осуществления работ элементов.
ccc674466ad54b5e80c8f0721a8f5dc7.png

Марко Магарелли инженер-дизайнер проекта возведения ЦОД для Facebook:

К элементам создания ДЦ также относят всю ту инфраструктуру, которая сопутствует серверным стойкам: кабельные лотки, прокладка силовых линий, устройство контрольно-измерительных узлов и освещение. Наше «шасси» уже поддерживает всю инфраструктуру, которая сопутствует серверным стойкам. В контейнерных решениях помимо самого оборудования приходится транспортировать также «воздух», находящийся в контейнере. В данной же идее транспортируется исключительно базовая конструкция, которая размещается над серверными стойками и уже готова к подключению коммуникаций.


После сборки шасси загружают в кузов и транспортируют непосредственно к самой серверной ферме. В самом же сооружении доставленную сборку монтируют на подготовленные бетонные столбы.

4917496ff853461ab83403b0e448b7e9.png

Два соединенных шасси образуют 18-метровый проход. Обычный машинный зал ЦОД будет вмещать в себя 52 шасси, образуя тем самым 13 коридоров, предназначенных в том числе и для охлаждения серверных сборок.

511df0326def49cf9fd40a6345b070b8.jpg

Высокие показатели эффективности и экологичности ЦОД обусловлены его расположением. В распоряжении шведских операторов дешевая электроэнергия, генерируемая надежными гидроэлектростанциями, а также холодный климат, который IT-специалисты могут обернуть в свою пользу. Это обусловлено среди прочего и низкими температурами в регионе (в зимнее время столбик термометра держится в среднем около отметки в -20 C). Инженеры Facebook вместо того, чтобы затрачивать средства на огромные энергозатратные кондиционеры для охлаждения десятков тысяч серверов в Лулео, используют наружный воздух, запуская его в машзалы ЦОД, после того как воздух проходит процес фильтрации, а также оптимизации температуры и влажности и этим охлаждают серверные системы. Новый дата-центр функционирует как один большой механизм.
Внутри длинные коридоры, многочисленные серверы с мигающими индикаторами и гул гигантских вентиляторов.

bd5f5e5a954c41a1901fc2267b905659.jpg

ed828f126fb04d87a22b8cc62e6cbd94.jpg

757774299f4d474d8dd106cdf36ea38d.jpg

8e1750b3a27f48b4abbf2e5d2611404f.jpg

Удачное географическое место позволит восемь месяцев в году охлаждать этот северный ЦОД исключительно за счет наружного воздуха, что делает его дешевле в обслуживании в среднем на 40% по сравнению с аналогичным дата-центром в США. Немаловажным фактором для инвестиций Facebook также стало то, что для строительства своего дата-центра американская компания получила субсидии от Евросоюза в размере 10 миллионов фунтов, кроме того, именно здесь были предложены наименьшие цены на электричество среди всей Европы.

7d9238a8e0c5421883b8fb813a2b832d.png

4e847bb3f213428982afcb1027dc29f7.jpg

348cb8de9bad423394cad26a165336dd.jpg

Инженеры Facebook упростили конструкцию серверов за счет отказа от использования ряда стандартных компонентов, таких как дополнительные слоты памяти, кабели и защитные пластиковые корпуса. Эти серверы, с ни чем не защищенными материнскими платами, размещаются внутри стандартной монтажной стойки размером с холодильник.

2f683e592b1e46daadb896ef0b38fafb.png

6a0961c31925461dadb82ab28f70a32c.png

Специалисты уверенны, что подобная конструкция позволяет интенсифицировать воздушные потоки, проходящие через каждый сервер. Для эффективной работы подобных вычислительных систем требуется меньшая холодопроизводительность, ведь благодаря сократившемуся количеству компонентов они выделяют меньше тепловой энергии, чем стандартные аналоги. И кроме того, машины Facebook способны функционировать при повышенных температурах.
a7dc9ba17d7441d7a62e14642a31ef13.jpg

9d45f57422c14f5e8723d5dfcd193a36.jpg

Когда инженеры Facebook начали выносить свои идеи на «публику», большинство экспертов в области ЦОД все же были настроены скептически, особенно касательно эксплуатации серверных систем при повышенных температурах. Но, как говорится, время расставило все на свои места. При этом дальнейшее улучшение инфраструктурных систем участниками инициативы Open Compute Project (помимо Facebook проект развивают многие производители аппаратного обеспечения и микрочипов, хостинг- и колокейшн-провайдеры, а также далекие от IT-сегмента банковские организации) позволило использовать их и вдалеке от заполярья. Следующий крупный дата-центр Facebook было решено построить в штате Айова (США), где умеренный климат. Как и в Швеции там более чем достаточно дешевой электроэнергии из возобновляемых источников (в Айове роль гидроэлектростанций выполняют ветряные фермы). Компания также начала разработку своих собственных систем хранения данных и сетевого оборудования.

0e064462a29241208eef22771db97277.jpg

c252b9c7864447c783fd2dba2c67795d.jpg

fc9edef5495d48fda505f548bb392aeb.jpg

HP оперативно отреагировала на инициативу соцсети, начав продажи микросервера под названием Moonshot, который лишен всего лишнего, комплектуется маломощными чипами и характеризуется высокой энергоэффективностью. Релиз Moonshot стал наиболее радикальным изменением линейки продуктов для серверных ферм, предпринятых американской компанией за последние годы. HP также работает над механизмами повышения энергоэффективности серверов за счет водяного охлаждения.

По мнению руководства сетевого гиганта, лишь немногие компании захотят иметь дело со столь специализированными системами, которые были разработаны в первую очередь для удовлетворения потребностей крупных интернет-компаний, владеющих гипермасштабными ЦОД. По словам пресс-секретаря Cisco Дэвида Маккалока, сетевой гигант не рассматривает новый тренд как угрозу для своего бизнеса. Шесть лет назад еще один крупный американский вендор Dell создал специальную команду инженеров, чтобы те разрабатывали вычислительные системы без «излишеств», которые приобретались интернет-компаниями. С тех пор доход Dell значительно вырос. Это говорит о том, что вендор избрал правильно направление развития своего бизнеса.

Если специализированное аппаратное обеспечение, разработанное в стенах веб-гигантов Google и Amazon, доступно лишь операторам ЦОД этих компаний, то открытость Facebook и желание соцсети делиться своими наработками стали причинами роста интереса в адрес ее дата-центров не только со стороны других интернет-компаний — наработками соцсети в области повышения эффективности ЦОД активно интересуются даже субъекты малого и среднего бизнеса. Facebook было создано пошаговую инструкцию по созданию гипермасштабной серверной фермы, воспользоваться которой может любая компания, обладающая достаточным количеством человеко-часов и денег.

0b8288fb4edd49f89c584ca59ad7040b.jpg

5d550992ca4d4c49985244a1ebe57036.jpg

79260554d187477ba0f197fb2dd5a970.jpg

711b740c34974e918ba2413225561701.jpg
топ-менеджер Facebook Фрэнком Франковскии

В состав совета директоров некоммерческой организации Open Compute Project Foundation, возглавляемого топ-менеджер Facebook Фрэнком Франковскии, вошли руководители таких грандов от мира высоких технологий и финансов как Intel и Goldman Sachs, соответственно. При этом многие крупные азиатские производители аппаратного обеспечения вроде Quanta Computer и Tyan Computer уже начали продавать серверные системы на основе спецификаций, созданных участниками Open Compute Project. Инициатива соцсети оказалась действительно популярной.

Кампус серверной фермы


По периметру кампуса ЦОД проложен длинный забор, который на самом деле возведен для того, чтобы помешать местным лосям попадать внутрь кампуса.

Внутри здания культура Швеции смешивается с американской. На входе можно увидеть красочные картины оленей, соседствующих с логотипом Facebook и часами, которые показывают время на других кампусах компании в американских штатах Северная Каролина, Айова и Орегон.

e8e7945b9c9f4a989f2a8949c8a0f42a.png

Большинство из полутора сотен сотрудников шведского кампуса являются местными жителями. Сотрудники добираются на работу на снегоходах и велосипедах, украшенных логотипом Facebook. Они также часто проводят время вместе, к примеру, устраивая, рыбалку на льду.

6d0f95a47f804bd39998502ce228bc30.png

f94b7b6fb49f4e00b63c2f30f7cbd120.png

© Geektimes