Хабрахабр

Дата-центры, похожие на курятники, и работа в Антарктиде: подборка необычных ЦОД

Сегодня мы решили рассказать вам о нескольких необычных дата-центрах, построенных в самых разных уголках планеты. Как обеспечить работу ЦОД в суровых условиях Антарктиды? И почему дата-центры Yahoo похожи на курятники? Об этом далее.


/ фото Krishna CC

Самый «холодный» ЦОД на планете

По меркам нынешних дата-центров, Ice Cube Lab не самый крупный и не самый мощный. В распоряжении ЦОДа 1,2 тыс. вычислительных ядер и хранилище данных на три петабайта. Однако одна особенность выделяет его на фоне других — он расположен в Антарктике на станции «Амундсен — Скотт».

Система помогает ученым регистрировать вспышки нейтрино, вызванные различными астрономическими явлениями, это нужно для изучения темной материи. Дата-центр подключен к нейтринному детектору обсерватории IceCube, состоящему из массивов оптических сенсоров, погруженных в лед на километровую глубину.

Остальная поддержка осуществляется удаленно. Штат ИТ-специалистов Ice Cube состоит всего из нескольких человек, большая часть из которых приезжает только в летний период для проведения запланированных работ. Для большинства коммуникаций с центром используется сеть спутников «Иридиум», хотя скорость передачи данных всего 2400 бит/с.

Однако не все так плохо. При такой низкой скорости команде приходится идти на ряд ухищрений: ужимать почтовые вложения, прибегать к мультиплексированию, даже использовать беспроводные сервера, чтобы подключать полевые станции. Восемь часов в день спутник Nasa GOES-3 (который ранее был метеоспутником) все же обеспечивает станцию мегабитным каналом связи.

Одной из основных проблем является практически нулевая влажность. Управляя работой ЦОДа в условиях Антарктиды, нужно учитывать ряд особенностей. Из-за этого сотрудники, находясь рядом с серверами, вынуждены носить антистатические жилеты и следить, чтобы выполнялись все требования по заземлению.

Инженерам даже приходится их слегка увлажнять. К тому же низкая влажность выводит из строя использующиеся для хранения и переноса данных магнитные кассеты, которые в буквальном смысле начинают крошиться. Сотрудники станции даже хотели поместить в серверную увлажнитель, однако из-за возможных проблем с конденсатом от этой идеи решили отказаться. Для этого кассеты периодически помещаются в теплицу.

Казалось бы, можно просто «открыть дверь» и позволить холоду решить проблему. Еще одной трудной задачей является охлаждение дата-центра. В таких условиях для контроля над температурой воздуха используется специальная система вентиляции (без кондиционирования воздуха), управляющая потоками холодного воздуха снаружи. Однако температура снаружи может достигать -70 градусов по Цельсию, что в короткое время выведет из строя всю технику. Однако как говорят сотрудники станции, случается, что в экстремальных условиях замерзает и она.

Несмотря на все трудности, члены команды гордятся тем, что могут поддерживать работу 150 серверов Ice Cube Lab вблизи Южного полюса, обеспечивая доступность на уровне большем, чем 99,5%.

Посмотреть его вы можете по ссылке. Команда Ice Cube Lab в прошлом году опубликовала небольшое видео, в котором провела экскурсию по дата-центру.

Один из самых «зеленых» ЦОД

LEED — это частная программа сертификации «зеленого строительства», которая была запущена еще в 1998 году. Компании, здания которых выполняют нормы LEED, экономят до 25% больше энергии, а также могут получать налоговые льготы от государства.

Одним из первых его получил занимающий 2 гектара Citi Data Center во Франкфурте еще в 2009 году. На сегодняшний день около 25 дата-центров во всем мире имеют платиновый статус LEED — наивысший статус в этой программе.

Сам центр спроектирован таким образом, чтобы 65% времени в основе системы охлаждения выступал свежий воздух снаружи. Citi Data Center использует сразу несколько энергосберегающих технологий. Для полива зеленых насаждений на территории ЦОД дополнительно применяют дождевую воду. За счет процесса обратного осмоса уменьшается осадок в градирнях, используемых для охлаждения воды.

При этом «экологичность» дата-центра соблюдалась еще при постройке. Весь операционный мусор направляется на переработку. Весь строительный мусор был вывезен за пределы городской свалки, а грамотная проектировка ЦОДа позволила уменьшить длину всех необходимых кабелей на 250 километров.


/ фото Open Grid Scheduler CC

Дата-центры из кубиков

Когда мы говорим о дата-центрах, чаще всего в голове возникает образ огромного помещения, набитого серверными стойками и оборудованием. Однако существует более компактная альтернатива — модульный дата-центр. Такие ЦОДы чаще всего представлены в виде блоков с собственной системой охлаждения, с помощью которых можно быстро развернуть ИТ-инфраструктуру в необходимом объеме.

долларов на пространстве под ЦОД и снизив стоимость расходов на охлаждение на 65%. Например, транспортная компания Ecotality, используя модульные дата-центры Instant, смогла за 8 недель переехать в новый офис, при этом сэкономив 120 тыс.

В таком виде модули ЦОДа удобно перевозить с помощью фур или кораблей в короткие сроки на дальние расстояния. Бывает, что компании (например, IBM и Elliptical), «пакуют» серверы и другое вспомогательное оборудование в морские контейнеры.

Одним из примеров является проект Nautilus, создатели которого расположили оборудование на баржах. Плюсом «портативных» дата-центров является возможность размещать их ближе к своим клиентам или источникам информации. Такая концепция позволяет не только использовать воду для охлаждения центров, но и значительно повысить их мобильность.

Курятники Yahoo

Новый проект дата-центров от Yahoo называется Yahoo Compute Coop («Вычислительный курятник Yahoo»). Однако это не шутка и не маркетинговый ход. ЦОДы действительно похожи на курятники, но дело тут не только во внешнем сходстве. Продолговатая форма курятников вместе с дополнительной секцией крыши используется для создания естественной вентиляции, благодаря которой теплый воздух поднимается и выводится наружу через специальные отверстия.

Этот дата-центр Yahoo может охлаждаться простым воздухом с улицы. В последнем случае воздух снаружи температурой от 21 до 29 градусов Цельсия попадает в дата-центр через регулируемые жалюзи (1), расположенные на стенах здания. Затем он с помощью вентиляционной установки (2) направляется в серверный зал (3) через смесительную камеру (4). В этом случае воздух не охлаждается дополнительно, а лишь фильтруется.

Затем он выводится наружу через регулируемые жалюзи наверху (7). Вентиляторы, установленные на стойках с серверами, выдувают уже теплый воздух во внутренний коридор (5), откуда он, посредством естественной конвекции, поднимается на «чердак» (6).

А если ниже 21 градуса, то часть горячего воздуха, уже прошедшего через серверный зал, направляется в смесительную камеру для разогрева. Если же температура воздуха на улице оказывается выше 29 градусов, то сначала он охлаждается в смесительной камере.

Компания начала строить собственные дата-центры еще в 2007 году, однако они ничем не выделялись — обычные помещения с активным воздушным охлаждением. К такому дизайну в Yahoo пришли не сразу. Горячий воздух в таких ЦОДах выдувался вентиляторами серверов в специальное закрытое помещение, откуда с помощью интеркулера вытеснялся наружу. Следующий проект назывался YTC (Yahoo Thermal Cooling).

Компания уже построила несколько ЦОДов по новому плану. Проект «дата-центров-курятников» является третьей итерацией проекта Yahoo по оптимизации систем охлаждения в крупных предприятиях с десятками тысяч вычислительных машин. При этом его коэффициент эффективности использования энергии (PUE) составляет 1,08 балла, что сравнимо с европейскими дата-центрами, использующими для охлаждения стоек особенности холодного климата. Один из первых был открыт в Локпорте, Нью-Йорк.

патентов, и намерена продавать технологию другим крупным фирмам. К тому же корпорация зарегистрировала около 3 тыс.

P.S. О чем еще мы пишем в Первом блоге о корпоративном IaaS:
P.P.S. Несколько свежих материалов из нашего блога на Хабре:

Теги
Показать больше

Похожие статьи

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»
Закрыть