Хабрахабр

Как проверить надёжность дата-центра: 3 основных момента, на которые нужно обратить внимание

Выбирая IaaS-провайдера, основное внимание компании уделяют характеристикам облака. Они оценивают доступность, возможности масштабирования и др. Однако за работоспособность любой виртуализированной среды отвечает «железо», установленное в дата-центре. По большей части от этой инфраструктуры (и места, где она размещается) и зависит надежность облачных сервисов.

Сегодня мы решили рассказать, на какие моменты при оценке параметров дата-центра IaaS-провайдера следует обратить внимание.


/ фото Arthur Caranta CC

Уровень надежности и резервирование

В первую очередь при оценке ЦОД IaaS-провайдера следует обратить внимание на резервирование инженерной инфраструктуры, в частности, систем электропитания. Так как именно этот параметр влияет на уровень доступности, то есть время непрерывной работы без сбоев.

Для оценки уровней резервирования можно использовать классификацию Uptime Institute.

  • Tier 1 — в этом случае схема резервирования отсутствует (N). Надежность зависит от каждого отдельного элемента инфраструктуры, а сбой в одной единице оборудования приводит к простою всего ЦОД.
  • Tier 2 — подразумевает схему резервирования N+1. К N элементам инфраструктуры добавляется один дополнительный, снижая риски сбоев.
  • Tier 3 — схема резервирования также N+1, но с возможностью параллельного проведения технических работ.
  • Tier 4 — резервирование 2N. Когда каждый элемент дублируется аналогичным.

Классификация Tier предполагает, что инженерные системы считаются единым целым. Если хотя бы один из компонентов не зарезервирован, уровень отказоустойчивости UI снижается. Чем выше Tier, тем выше доступность. Однако надо понимать, что в классификация UI нет «худших и лучших». Нельзя сказать, что во всех ситуациях подойдёт какой-то один Tier. Поэтому выбирать провайдера с ЦОД, имеющим тот или иной уровень резервирования, нужно отталкиваясь от задач, стоящих перед компанией.

Например, по этому пути пошли в Facebook. Крупным организациям, простои в работе для которых нежелательны, имеет смысл обратить внимание на ЦОД с резервированием 2N. Энергетические системы дата-центра Сбербанка в «Сколково» зарезервированы аналогичным образом. Дата-центр компании, расположенный в шведском городе Лулео, имеет резервирование 2N.

Так как чем выше Tier, тем дороже обходится аренда оборудования облачного провайдера. Однако в ряде случаев такая система может быть избыточной. Поэтому компаниям, для которых простой ИТ-инфраструктуры и сервисов в течение одного часа в год некритичен, стоит выбирать дата-центр с меньшим Tier.

Это ЦОД с классом Tier III, время простоя у которых составляет порядка полутора часов в год. Например, IaaS-провайдер «ИТ-ГРАД» размещает оборудование в дата-центрах DataSpace (Москва) и Xelent (Санкт-Петербург). Например, на московской площадке непрерывное электропитание обеспечивают две городские подстанции по шести независимым линиям. В них резервирование сделано по схеме N+1. В дата-центре установлены шесть независимых трансформаторов по 2 МВА, каждый из которых является точкой присоединения независимой электрической цепи.

В качестве «запасного плана» имеются автоматические дизельные генераторы с 6 баками топлива по 950 литров. В случае форс-мажоров и перепадов напряжения возможное отключение одной ветки электропитания никак не отражается на работе системы в целом, так как вся нагрузка переводится на резервную ветку. При полной загрузке резервный запас обеспечит дата-центру 84 часа непрерывной работы.

Поддержание микроклимата

Следующий важный аспект — оценка работы «холодильных установок» ЦОД. Способность систем охлаждения поддерживать оптимальный микроклимат в машинном зале сказывается на надежности «железа», величине потребляемого электричества и, соответственно, ценнике за предоставляемые услуги по размещению оборудования.

до 35°C, энергопотребление серверов возрастает в среднем на 20%. Например, при повышении температуры в ЦОД с 22°C. А как пишут представители общества инженеров ASHRAE, занимающегося разработкой стандартов в сфере коммуникаций и оценки качества воздуха, температуры ниже 18 °C и выше 27 °C могут значительно снизить выходную мощность и время жизни батарей систем бесперебойного питания (страница 29 отчета).

Так как если эффективность системы охлаждения будет низкой, она будет расходовать большое количество электроэнергии. Однако также нужно учитывать, каким именно образом в ЦОД поддерживается необходимая температура. Это, в свою очередь, сказывается на счетах за аренду оборудования. В некоторых случаях на кондиционирование тратится до 40% всего энергопотребления дата-центра.

Она позволяет снизить энергопотребление. Поэтому часто для контроля микроклимата и температуры воздуха в ЦОД используют технологию «свободного охлаждения» (или фрикулинга). Рекордсменом в этой сфере считается ЦОД компании Google — ИТ-гиганту удалось достичь значения PUE в 1,11. По последним данным, на российском рынке лучший показатель энергоэффективности функционирования ЦОД (PUE) имеет дата-центр Xelent — он составил 1,29.

За микроклимат в дата-центре отвечает роторный теплообменник. В дата-центре Xelent температурный режим для всего ИТ-оборудования поддерживается в соответствии с рекомендациями ASHRAE. Это большое пятиметровое колесо, обеспечивающее передачу тепла из машинных залов ЦОД на улицу практически без конвекции воздуха.

Образование конденсата может быть опасно для серверного оборудования и привести к его порче. Нужно учитывать и то, как в ЦОД, обеспечивается заданный уровень влажности. В серверной буквально пошел «конденсатный дождь». Как это и случилось с первым ЦОД Facebook в Прайнвилле, где ошибки в работе системы микроклимата привели к попаданию жидкости на оборудование. В ASHRAE отмечают, что уровень влажности в ЦОД не должен превышать 60%. Оборудование пришлось экстренно отключить. В случае с Facebook этот показатель достиг 95%.


/ фото Tim Dorr CC

Физическая безопасность

Сегодня есть дата-центры, расположенные в подземных бункерах, вход в которые охраняют вооруженные солдаты. Есть ЦОД, защищенные от ядерных взрывов или ЭМИ. Однако чаще всего их используют крупнейшие транснациональные компании или военные структуры. Для большинства организаций такие меры являются излишними и экономически невыгодными. Однако вопрос безопасности и физического проникновения остаётся актуальным для всех.

Пожалуй, лучший способ проверки каждого из них — экскурсия в дата-центр. Есть три момента, которые нужно учитывать: пропускной режим, наличие видеокамер и сигнальных датчиков по периметру, защищенность «клеток» с серверными стойками. Так вы сможете самостоятельно оценить, насколько сложно проникнуть в машинные залы того или иного ЦОД.

Все посетители и автомобили досматриваются на пропускном пункте. Например, дата-центр Xelent на входе имеет систему контроля доступа. На самой территории «раскиданы» две сотни видеокамер, которые мониторят обстановку в серверной. Также все, кто проходит на территорию ЦОД (включая сотрудников), в обязательном порядке регистрируются. Доступ же в машинные залы возможен только в сопровождении работников дата-центра, имеющих спецкарты доступа (это могут быть карты-ключи или биометрические карточки).

Например, ЦОД DataSpace использует систему сверхраннего обнаружения пожара. При проверке физической защиты машинных залов оценивайте не только защищенность периметра и серверных, но и пожарную безопасность на объекте. В дата-центре используется безопасная оборудования газовая система пожаротушения, которая в случае ЧП позволяет свести размер возможного ущерба к минимуму. Датчики по всему зданию оценивают пробы воздуха, что позволяет предупредить возгорание.

Подведем итоги

При оценке надежности ЦОД облачного провайдера следует сделать следующие вещи:

  • Обратите внимание на резервирование инженерной инфраструктуры. От неё зависит уровень доступности. Выбирайте необходимую схему резервирования в зависимости от требований и задач компании.
  • Оцените систему охлаждения и поддержания микроклимата в машинном зале. Хорошо, если дата-центр использует технологии, направленные на снижение показателя PUE. Так, ЦОД тратит больше электроэнергии на проведение вычислений, а не на охлаждение серверов, что экономит деньги клиентов.
  • Внутри ЦОД должна быть организована физическая защита серверных помещений (охрана, противопожарные системы тушения, видеонаблюдение), и прописаны строгие процедуры допуска посетителей на территорию.

Однако защищенность и надежность ЦОД определяют не только физические меры безопасности, но и программное обеспечение: файрволы, механизмы защиты от DDoS, шифрование данных и др. Об этих аспектах мы расскажем в нашем следующем материале.
P.S. Еще несколько материалов из Первого блога о корпоративном IaaS:
P.P.S. Свежие посты из нашего блога на Хабре:

Показать больше

Похожие публикации

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»