Дата-центры и комфортное охлаждение

На первый взгляд, кажется, что системы охлаждения ЦОД не должны существенно отличаться от систем, используемых для охлаждения коммерческих зданий. В данном материале приведено краткое описание ряда ключевых особенностей, в силу которых охлаждение ЦОД требует совершенно иного подхода.

Двойные печатные платы

К особенностям ЦОД и применяемых в них систем охлаждения относятся, в частности, следующие факторы:

  • Внутренний состав здания. Дата-центры строятся не для людей. Поэтому, нагрузка, связанная с устанавливаемым внутри здания оборудованием, существенно отличается от нагрузки, наблюдаемой в большинстве коммерческих зданий.
  • Частота модернизации ЦОД (период обновления технологии). Частота модернизации дата-центров зачастую превышает соответствующие показатели для большей части коммерческих зданий. Связанное с модернизацией изменение нагрузки на системы вентиляции и кондиционирования еще более существенно увеличивает этот разрыв.
  • Удельная мощность оборудования ЦОД. Типичным показателем для дата-центров является величина 500-2000Вт/м2; для некоторых ЦОД удельная мощность оборудования составляет 10000Вт/м2.
  • Конструкция системы охлаждения ЦОД. Рабочий принцип системы охлаждения и среда, используемая для передачи тепла, могут существенно отличаться в сравнении с системами комфортного охлаждения для коммерческих зданий. Более того, работа под высокой нагрузкой 365 дней в году полностью меняет требования к архитектуре системы.

Рассмотрим эти пункты подробнее.

Внутренний состав здания и частота модернизации

В коммерческом секторе традиционно применяется термин FF&E (мебель, приборы и оборудование). FF&E не относятся к внутреннему составу здания; основной компонентой внутреннего состава, как правило, считаются люди. В коммерческих зданиях компьютеры и прочее ИТ-оборудование попадает под категорию FF&E (им соответствует нагрузка, потребляемая электроприборами).

В дата-центре компьютеры зачастую относят к внутреннему составу здания, поскольку здание строится именно для них. Однако, более правильно будет сказать, что основным фактором, влияющим на проектирование здания, является программное обеспечение, запускаемое на этих компьютерах. Поэтому, программное обеспечение мы будет относить к составу здания, а аппаратное обеспечение попадет в категорию FF&E. Потребляемая электроприборами нагрузка может изменяться, как функция от программного обеспечения (тип ПО, профили использования, конфигурация и т.д.).

Программное обеспечение подвержено регулярным обновлениям и изменениям. К примеру, за последние 12 лет было выпущено 5 версий ОС Windows (таким образом, средний срок службы составляет 2,5 года, и это относится к операционной системе – базовому типу программного обеспечения). В случае пользовательских приложений, обновления происходят гораздо чаще (за последние 19 лет было выпущено 10 версий Adobe Acrobat – новая версия каждые 1,9 года).

Высокая частота обновления ПО является причиной частых изменений внутреннего состава дата-центра. Связанный с этим эффект заключается в том, что каждое изменение в составе ПО приводит к изменению системных требований (как правило, в сторону увеличения), что в свою очередь меняет требования к системам электроснабжения и охлаждения ЦОД.

Изменения в составе аппаратного обеспечения, как правило, происходят реже в сравнении с программным обеспечением. Однако, параллельное обновление нескольких программных продуктов приводит к необходимости выполнения модернизации оборудования, так что это процесс также происходит сравнительно часто (период модернизации составляет, как правило, от 3 до 5 лет).

Согласно закону Мура, производительность аппаратного обеспечения удваивается каждые 1,5 года. В результате, выполнение модернизации каждые 3-5 лет приводит к большим скачкам в производительности вычислительного оборудования, что сопровождается ростом величины удельной производительности, но вместе с тем растет и удельная мощность (Вт/м2). Таким образом, дата-центр зачастую нуждается в использовании систем охлаждения и энергоснабжения, которые позволяют быстро приспосабливаться к изменениям в уровне нагрузки, происходящим достаточно часто.

Поскольку тип используемого программного обеспечения и его конфигурация, а также стратегии по обновлению аппаратного обеспечения существенно меняются в зависимости от ЦОД, требования к системам охлаждения и электроснабжения могут изменяться аналогичным образом.

Наконец, необходимо отметить, что требования к температурному режиму для ЦОД и для коммерческих зданий являются различными. Документ под названием «Рекомендации по обеспечению температурного режима для сред обработки данных», разработанный TC 9.9 (технический комитет по вопросам критически-важных объектов, технологических площадок и электрооборудования), описывает различные классы аппаратного обеспечения, и соответствующие им рекомендуемые и предельно допустимые диапазоны рабочих условий. Приведенные в документе показатели серьезно отличаются от значений, установленных стандартом ASHRAE 55 для систем комфортного охлаждения. Эти различия могут существенно влиять на тип используемых систем вентиляции и кондиционирования.

Тенденции в области систем охлаждения и электроснабжения ЦОД

В настоящее время наблюдается дальнейший рост удельной мощности оборудования (и соответствующий рост нагрузки на систему охлаждения). TC 9.9 недавно выпустил второе издание документа «Тенденции энергоснабжения и системы охлаждения для индустрии обработки данных», в котором более подробно раскрываются эти вопросы. Еще один документ, «Исследование систем высокой плотности и рекомендации для систем жидкостного охлаждения», содержит информацию о системах охлаждения для ЦОД высокой плотности.

Несмотря на продолжающийся рост удельной мощности, отношение вида плотность/производительность (закон Мура) продолжает расти с еще более высокой скоростью, что приводит к улучшению показателя энергопотребление/производительность (закон Куми). До тех пор, пока наблюдается рост величины производительность/ватт, связанный с повышением удельной мощности, вероятно, будет расти спрос на ресурсоемкие приложения.

Многие системы охлаждения рассчитаны на 15-25 лет работы. Это может означать, что устанавливаемые и проектируемые сегодня системы охлаждения могут застать от трех до пяти поколений ИТ-оборудования (к примеру, серверов). Поэтому, в ходе разработки систем охлаждения необходимо учитывать не только требования, предъявляемые текущим поколением оборудования, но также потенциальные требования будущих поколений аппаратного обеспечения. Рост нагрузки, ступенчатое изменение уровня нагрузки, связанное с требованиями ИТ-оборудования или модернизацией используемых технологий, а также профили нагрузки, зависящие от используемого ПО, могут существенно отличаться для различных ЦОД.

Представленные ниже определения, взятые из книги «Тенденции энергоснабжения», помогают разобраться в тенденциях энергопотребления для серверов сегмента volume:

  • Сервера volume. Наиболее часто используемый тип серверов. Как правило, это одно- или двухъядерная система размером 1U или 2U в форм-факторе pedestal или blade.
  • Blade-сервер. Модульная печатная плата, содержащая 1, 2 или более микропроцессоров и оперативную память. Предназначена для использования в выделенных серверах, может быть легко вставлена в соответствующую стойку. Blade-серверы, объединяемые общей высокоскоростной шиной данных, разрабатываются с учетом пониженного тепловыделения, что позволяет экономить электроэнергию.
  • Сокет (для процессора). Разъем на материнской плате (также называемый CPU сокет), предназначенный для установки CPU и предоставляющий электронный интерфейс для взаимодействия с CPU.
  • Стойка (Rack). Каркас, предназначенный для установки электрооборудования. Стойка, как правило, представляет собой закрытый кабинет, в котором находится вычислительное оборудование. Передняя и задняя панели могут быть сплошными, перфорированными или открытыми, в зависимости от требований охлаждаемого оборудования. В индустрии телекоммуникаций стойка, обычно, представляет собой две вертикальных балки, прикрепленных к полу, и набор открытых полок, на которых размещается электрооборудование. Такая стойка, как правило, является полностью открытой.
  • Стоечный модуль (Rack unit). Высота стоечного сервера, измеряемая в количестве модулей: 1RU, или просто U, соответствует 44,45 мм.

Важно помнить, что указанные в книге данные (таблица 1) определяют максимальное тепловыделение оборудования определенной категории (к примеру, тепловыделение полностью собранной системы, работающей при максимальной нагрузке). Это значит, что взятые из книги значения необходимо приводить в соответствие с требованиями и бизнес-стратегией для каждой отдельно взятой компании и для каждого отдельно взятого ЦОД.

Таблица 1. Тенденции энергопотребления для серверов сегмента volume.

К примеру, если текущая загрузка ИТ-оборудования ЦОД составляет около 75% от опубликованного в книге значения за 2012 год, вероятно, в будущем уровень загрузки составит те же 75% от прогнозируемого уровня. Дорожная карта может иметь следующий вид:

  • 2012 Прогнозируемое значение для сервера 1U с четырьмя процессорами составляет 1040 Вт/сервер.
  • 2012 Реальное значение для сервера 1U с четырьмя процессорами в вашем ЦОД составляет 800 Вт/сервер.
  • Уточняющий коэффициент будет равен 800/1040 = 0.77 (77%).
  • 2015 Прогнозируемое значение для сервера 1U с четырьмя процессорами составляет 1100 Вт/сервер.
  • 2015 Уточненное значение для сервера 1U с четырьмя процессорами в вашем ЦОД составит 0.77 * 1100 = 847 Вт/сервер.
  • 2020 Прогнозируемое значение для сервера 1U с четырьмя процессорами составляет 1200 Вт/сервер.
  • 2020 Уточненное значение для сервера 1U с четырьмя процессорами в вашем ЦОД составит 0.77 * 1200 = 924 Вт/сервер

Для некоторых ЦОД уточняющий коэффициент может меняться в зависимости от изменений в бизнес-стратегии, типа используемого ИТ-оборудования, способа установки оборудования в стойке, используемого программного обеспечения и т.д. Для каждой отдельно взятой компании необходимо производить уточнение указанных в книге значений, чтобы определить ожидаемый срок службы здания ЦОД и/или систем вентиляции и кондиционирования, обслуживающих электронное оборудование.

Заключение

Внутренний состав, частота выполнения модернизации и удельная мощность ЦОД существенно отличаются в сравнении с соответствующими показателями для коммерческих зданий. Если принять во внимание широкий спектр уникальных решений, используемых для охлаждения ЦОД, требования к режиму работы 365 дней в году в любой климатической зоне, а также сопутствующие факторы риска, становится понятной необходимость разработки специальных систем охлаждения для дата-центров.

Теги:
#Монтаж

Оставить комментарий

Ваше имя:
E-mail:
(Не обязательно)
Текст комментария:
Введите код с картинки:  

Дополнительные материалы

ПРОФЕССИОНАЛЬНОЕ обучение проектированию систем вентиляции и кондиционирования

Можно ли зимой включать кондиционер на обогрев

Вытяжка в стену: как подобрать и правильно сделать своими руками

3 способа сделать увлажнитель воздуха для квартиры и дома своими руками

Всё самое важное про турбодефлекторы: что такое, принцип работы, внешний вид, как подобрать

Вентиляция в квартире: самое полное руководство простым языком

Встраиваемая вытяжка на кухне: важные нюансы по устройству и подключению

Вытяжка в дачном туалете: как сделать правильно своими руками