Публикации   Каталог оборудования   Анализ климата регионов   О проекте AboutDC.ru

Жидкостное охлаждение в ЦОД: опыт, выводы, перспективы

Опубликовано: 03.06.2013. Власова Ирина

Тема жидкостного охлаждения в центрах обработки данных все чаще поднимается в связи с растущей удельной тепловой нагрузкой в машинных залах, появлением высокомощных серверов и стремлением сэкономить на эксплуатационных затратах. При этом под жидкостным охлаждением зачастую понимают разные технологии: в одних случаях речь идет о погружном охлаждении, в другом — о подаче теплоносителя непосредственно к вычислительным микросхемам.

Первоначально под жидкостным (или водяным) охлаждением понимали использование системы охлаждения на основе чиллеров, в которой в качестве теплоносителя выступала вода или гликолевые растворы. При этом вода подавалась в кондиционеры, где служила для охлаждения воздуха в помещении. В свою очередь, воздух охлаждал серверное оборудование ЦОД.

Однако с развитием технологий и ростом ИТ-мощностей вода стала в буквальном смысле приближаться к серверам. В одних случаях речь идет о подаче воды по трубкам в непосредственной близости от активных компонентов серверов. В других — микросхемы и вовсе погружаются в специальную ванну, так что происходит непосредственный контакт жидкости и оборудования.

На практике ко всем трем вариантам применяют понятие «жидкостное охлаждение». Об архитектуре этих систем и опыте их реализации и пойдет речь ниже.

Теоретические основы погружного охлаждения

Основным компонентом системы погружного жидкостного охлаждения является некоторое вещество-хладагент, представляющее собой диэлектрический (непроводящий) состав. Как правило, оно содержит белое минеральное масло, благодаря которому его теплоаккумулирующая способность гораздо выше, чем у воздуха при том же объеме. В ИТ-стойке размещается заполненная этим хладагентом ванна, куда серверы устанавливаются вертикально. Хладагент циркулирует по системе и рассеивает выделяемое ИТ-оборудованием тепло.

Несмотря на то что погружение электроники в жидкость с целью охлаждения кажется противоречащим здравому смыслу, такой подход является типичным для охлаждения высоконагруженного оборудования и применяется с 1920-х годов. В частности, многие электрические трансформаторы высокого напряжения, защитные автоматы, конденсаторы и электроподстанции используют жидкостное охлаждение для электроизоляции и рассеивания тепла.

При этом к хладагенту предъявляется ряд специфических требований: низкая вязкость, высокая теплоаккумулирующая способность (теплоемкость), экологичность и нетоксичность. В этом случае использование погружного жидкостного охлаждения дает ряд преимуществ: экономию электроэнергии, повышение производительности, а иногда и снижение капитальных затрат.

Одной из причин, благодаря которой погружное охлаждение обходится дешевле воздушного, является более низкая разница температур между хладагентом и серверами. Другими словами, эффективное охлаждение оборудования оказывается возможным, даже если хладагент нагревается до 40°С, в то время как рабочая температура систем воздушного охлаждения составляет около 24°С. Из опыта эксплуатации холодильной техники известно, что поддержание температуры хладагента на уровне 40°С требует значительно меньших затрат энергии, чем охлаждение воздуха до 24°С (для этого воду в контуре приходится охлаждать до 7–10°С).

Дополнительная экономия достигается за счет удаления серверных вентиляторов, поскольку при погружении оборудования в жидкость необходимость в них отпадает. Это позволяет экономить,в зависимости от вида сервера, еще 10–25% энергии.

Благодаря высокой эффективности системы охлаждения можно выполнять больший объем вычислений при меньших энергозатратах. Фактически система охлаждения оказывается настолько эффективной, что позволяет отводить тепло от серверов общей мощностью до 100 кВт при их размещении в единственной стойке стандартной высотой 42U.

Поскольку система позволяет рассеивать больший объем тепла, чем при использовании воздушного охлаждения, вычислительное оборудование может размещаться плотнее. Как следствие, технология погружного охлаждения наиболее эффективна и полезна в высоконагруженных стойках с блейд-серверами при непрерывном выполнении сложных вычислений.

Среди иных преимуществ погружного жидкостного охлаждения следует отметить следующие:

  • Более на­деж­ная ра­бо­та серверов. Сер­ве­ры пе­ре­ста­ют со­би­рать пыль. Кроме того, ввиду от­ка­за от вен­ти­ля­то­ров от­сут­ству­ет риск их по­лом­ки. По­сто­ян­ная цир­ку­ля­ция хлад­аген­та спо­соб­ству­ет рав­но­мер­но­му рас­пре­де­ле­нию тем­пе­ра­ту­ры по стой­ке и пре­пят­ству­ет воз­ник­но­ве­нию го­ря­чих зон.
  •  Уско­рен­ное вос­ста­нов­ле­ние ра­бо­ты сер­ве­ров после ава­рий­ных ситуаций. В от­ли­чие от охла­жда­е­мых воз­ду­хом сер­ве­ров, ко­то­рые после от­клю­че­ния пи­та­ния воз­душ­ных кон­ди­ци­о­не­ров пе­ре­гре­ва­ют­ся в те­че­ние несколь­ких минут, си­сте­ма по­груж­но­го жид­кост­но­го охла­жде­ния может вы­пол­нять свои функ­ции от 1 до 4 ч без элек­три­че­ства. Это объ­яс­ня­ет­ся вы­со­кой теп­ло­ем­ко­стью хлад­аген­та и, со­от­вет­ствен­но, уве­ли­чен­ным за­па­сом хо­ло­да в на­пол­нен­ной хлад­аген­том ванне.
  • Сни­же­ние внут­рен­них виб­ра­ций. От­сут­ствие вен­ти­ля­то­ров зна­чи­тель­но сни­жа­ет уро­вень виб­ра­ции внут­ри ИТ-обо­ру­до­ва­ния, а ведь, по ста­ти­сти­ке, до 50% оши­бок чте­ния/за­пи­си жест­ких дис­ков свя­за­ны имен­но с этим фактором.
  •  Чи­сто­та. Хлад­агент по­мо­га­ет дер­жать серверы в чи­сто­те бла­го­да­ря по­сто­ян­но­му току жид­ко­сти через стой­ку и на­сос­ный мо­дуль. При этом от­ме­тим, что, со­глас­но недав­ним ис­сле­до­ва­ни­ям, на­коп­ле­ние пыли в сер­ве­ре по­вы­ша­ет энер­го­по­треб­ле­ние на 2% вслед­ствие роста ра­бо­чей темпера­ту­ры.

Однако у погружного охлаждения имеются и недостатки, прежде всего речь о необходимости применять специальные стойки и модифицировать серверное оборудование. Новый тип стоек обладает большей массой, а потому требования к несущей способности перекрытий возрастают. Кроме того, увеличивается и занимаемая стойкой площадь.

Погружное жидкостное охлаждение на практике

В декабре 2012 года Intel приступила к разработке серверов, рассчитанных на установку в масляной ванне. Погружение компьютера в горячее масло выглядит несколько безрассудной затеей, но специалисты компании убедительно продемонстрировали, что серверы функционируют эффективнее, пока они находятся в таком состоянии.

В частности, для этого было проведено длившееся в течение года тестирование технологии жидкостного охлаждения, во время которого серверы были помещены в специальную серверную стойку, заполненную минеральным маслом. Поскольку масло не проводит ток, короткого замыкания не происходит. Оно циркулирует в емкости и охлаждается в теплообменнике. Как утверждают представители Intel, энергопотребление серверов снизилось на 10–15%, а системы охлаждения — на 90%.

Отметим, что, по словам Майка Паттерсона, старшего архитектора систем питания и охлаждения в Intel, в настоящее время компания исследует ряд радикально новых технологий охлаждения, в том числе другие методы жидкостного охлаждения, стремясь найти способы существенного сокращения энергопотребления. ЦОД являются крупными потребителями энергии, что существенно сказывается на стоимости их эксплуатации. В некоторых случаях компаниям даже не хватает подведенной мощности для обеспечения питания и качественного охлаждения оборудования.

Специалистам Intel настолько нравится технология погружного охлаждения, что в настоящее время они всерьез рассматривают идею разработки специальных серверов. Созданные для погружного охлаждения серверы будут снабжены специальными радиаторами, рассчитанными на жидкостное (вместо воздушного) охлаждение, лишены вентиляторов и оснащены SSD.

«Первые клиенты организованной три года назад компании применяют погружное охлаждение не только для повышения энергоэффективности, но и в целях повышения надежности компонентов, — поясняет Энди Прайс, руководитель по бизнес-разработкам компании Intel. — Поскольку некоторые процессоры, включая GPU, чрезмерно нагреваются, процент их выхода из строя слишком высок. Поместив серверы в минеральное масло, можно снизить температуру, при которой они функционируют. При этом срок возврата инвестиций для центра высокопроизводительных вычислений, как правило, составляет менее двух лет».

Пример системы погружного охлаждения серверов

Одним из практических воплощений системы погружного жидкостного охлаждения является система CarnotJet компании Green Revolution Cooling. Она представляет собой комплексную систему, в которой для достижения максимально эффективного охлаждения вместо воздуха применяется непроводящий жидкий хладагент. По заявлению производителей, в сравнении со стандартной серверной стойкой, охлаждаемой воздухом, CarnotJet позволяет снизить энергопотребление системы охлаждения типичного ЦОД на 90–95%, а также сократить общее энергопотребление в два раза.

В системе используется хладагент GreenDEF — это прозрачное, нетоксичное и не имеющее запаха недорогое диэлектрическое (непроводящее) минеральное масло, специально приспособленное для охлаждения серверов и другого оборудования ЦОД.

Строительство центров обработки данных, оснащенных системами CarnotJet, обходится операторам ЦОД дешевле традиционных решений, поскольку система погружного жидкостного охлаждения позволяет снизить среднее и пиковое энергопотребление, а значительная часть затрат на расширение ЦОД связана именно с высоким пиковым энергопотреблением.

Система CarnotJet включает в себя три основных модуля: стойка, насосный модуль и модуль контроля и управления.

Стойка CarnotJet напоминает традиционную стойку, рассчитанную на воздушное охлаждение. Разница в том, что серверы устанавливаются вертикально, а не горизонтально и полностью погружаются в непроводящий хладагент. Типовая стойка 42U занимает площадь 1,2 м2 и весит около 1500 кг при полной загрузке (см. Рисунок 1). Хотя такой стойке нужно больше места по сравнению с традиционным шкафом, оснащенным воздушным охлаждением, но изоляции холодных и горячих зон не требуется. Таким образом, ей необходима примерно такая же площадь, что и традиционному серверному шкафу.

Ри­су­нок 1. Во­семь сер­вер­ных стоек си­сте­мы CarnotJet, уста­нов­лен­ных на фальшпол.

В стойках можно размещать любые серверы 19″, независимо от того, кем они произведены. Однако предварительно надо выполнить некоторые действия: удалить вентиляторы (при погружении в жидкость они не нужны), изолировать жесткие диски и заменить термопасту на нерастворимый материал. Отметим, что стойки оснащены рельсами, облегчающими установку и извлечение серверов. Общая мощность серверов в одной стойке может достигать 100 кВт.

Охлаждение горячей водой

Еще одним интересным решением в области жидкостного охлаждения, которое, к слову, хорошо вписывается в рамки современной тенденции повышения температуры в машинных залах ЦОД, является система охлаждения горячей водой, предложенная компанией IBM. Ее применение для охлаждения суперкомпьютера Leibniz SuperMUC позволило сократить энергопотребление на 40%.

При проектировании суперкомпьютерных систем в расчет берется не только фактор производительности. Сокращение энергопотребления является одной из наиболее сложных технических проблем на пути к созданию мощных и быстрых суперкомпьютеров.

Как сообщают представители Leibniz Supercomputing Centre (LRZ), их новый суперкомпьютер SuperMUC (см. Рисунок 2) (MUC в названии соответствует коду расположенного неподалеку Мюнхенского аэропорта), построенный в сотрудничестве с IBM, потребляет на 40% меньше энергии, чем его аналоги. Существенная экономия достигается за счет использования технологии водяного охлаждения, которую IBM применяет с целью создания компьютерных систем с высокой плотностью размещения оборудования.

Ри­су­нок 2. Новый су­пер­ком­пью­тер SuperMUC.

Активные компоненты компьютера (процессор, память) охлаждаются за счет циркуляции воды в контуре. Как отмечают представители Leibniz Supercomputing Centre, подобные системы зачастую требуют предварительного охлаждения используемой жидкости, но SuperMUC может работать, даже если ее температура достигает 40°С. Это означает, что отработанную воду можно охлаждать с помощью окружающего воздуха или посредством теплообмена. Насосного холодильного оборудования не требуется.

Установленная в LRZ система направляет нагретую суперкомпьютером воду в теплообменник. В холодное время года вода используется для отопления здания. Согласно оценке, это позволит ежегодно экономить около 1 млн евро.

Технология компьютерного охлаждения под названием Aquasar была разработана в исследовательской лаборатории IBM в Цюрихе. Небольшие трубы, названные микроканалами, доставляют воду непосредственно к серверным процессорам, а после охлаждения она рециркулируется для повторного отвода тепла (см. Рисунок 3).

Ри­су­нок 3. Сер­вер­ная си­сте­ма охла­жде­ния x iDataPlex dx360 M4 ком­па­нии IBM.

Технологии управления энергопотреблением и пиковой производительностью приобретают все большую значимость по мере того, как происходит рост плотности размещения вычислительных систем. За счет своей энергоэффективной конструкции SuperMUC оказался в 10 раз более компактным и имеет более высокую пиковую производительность, чем аналогичные системы с воздушным охлаждением, сообщают представители Leibniz Supercomputing Centre.Как сообщил профессор Боде, руководитель Суперкомпьютерного центра им. Лейбница, благодаря уникальной схеме прямого водяного охлаждения энергоэффективность SuperMUC оказалась чрезвычайно высокой. Процессоры и оперативная память остужаются теплой водой, поэтому создавать дополнительную охлаждающую инфраструктуру не надо. Данная схема была разработана IBM специально для SuperMUC. Использование процессоров Intel и новейшего программного обеспечения позволяет еще больше сократить энергопотребление.

IBM рассчитывает, что применение горячего водяного охлаждения станет стандартом для суперкомпьютеров будущего, в том числе для трехмерных процессорных архитектур, предполагающих размещение процессоров друг над другом. По сообщению IBM Research, исследователи работают над созданием крошечных труб диаметром 50 мкм, которые можно будет располагать между процессорами. Согласно прогнозам IBM, к 2025 году размер суперкомпьютера может уменьшиться до величины обычного настольного ПК образца 2012 года — и это только за счет использования водяного охлаждения.

Варианта охлаждения горячей водой придерживаются и в компании «РСК Технологии». В построенном ею центре обработке данных «РСК Торнадо» горячая вода из стоек поступает непосредственно в чиллер без промежуточных звеньев — кондиционеров, теплообменников и др. Предварительно создается трехмерная модель микросхемы, на основе которой формируется система алюминиевых каналов, по которым и протекает теплоноситель.

Как результат, все тепло, генерируемое сервером, передается теплоносителю, а во внешнюю среду (за пределы сервера, в помещение) оно не поступает. Это означает, что охлаждения воздуха в машинном зале ЦОД не требуется.

Особенностью разработки компании «РСК Технологии» является расширяемость решения. Совокупность сервера и алюминиевой пластины с каналами рассматривается как масштабируемый модуль. На его основе с необходимой инженерной обвязкой строится микроЦОД, занимающий несколько юнитов в одной стойке, мини-ЦОД, состоящий из одной или двух стоек, или полноценный ЦОД, где предусмотрен целый ряд ИТ-стоек.

Водяное охлаждение

Под лозунгом использования «зеленых» технологий для охлаждения ЦОД в 2012 году было проведено несколько экспериментов с использованием воды и масла, цель которых заключалась в обеспечении максимально эффективной работы серверов.

Интересный вариант водяного охлаждения реализован во многих центрах обработки данных компании Google. В принадлежащих Google ЦОД серверное помещение представляет собой единый холодный коридор (см. Рисунок 4). Фальшпол не снабжается вентиляционными решетками. Весь процесс охлаждения происходит внутри закрытых горячих зон (коридоров), которые располагаются между рядами серверных стоек. Охладители с холодной водой служат «потолком» для данных участков, внутри которых проложены толстые трубы в стальной оплетке — по ним подается вода из градирен, расположенных за пределами здания.

Ри­су­нок 4. Сер­вер­ное по­ме­ще­ние цен­тра об­ра­бот­ки дан­ных Google в Mayes County, штат Окла­хо­ма, где уста­нов­ле­ны вы­со­ко­эф­фек­тив­ные сер­ве­ры компании.

Воздушный поток в ЦОД Google организован следующим образом: температура поддерживается на уровне 26,5°С, что несколько выше, чем в большинстве других центров обработки данных. Этот воздух подается к серверам и охлаждает серверные компоненты, одновременно нагреваясь.

Вентиляторы, расположенные в задней части стоек, направляют его в закрытые зоны, где температура достигает 50°С. Здесь горячий воздух поднимается вверх и проходит через охладители («охлаждающие катушки»), в результате чего его температура снижается до требуемых 26,5°С. Затем воздух выбрасывается через верхнюю часть горячих зон (коридоров). Гибкие трубы, проведенные под фальшполом, соединяются с охлаждающими катушками, расположенными в верхней части горячего участка.

Несмотря на длительную историю применения систем водяного охлаждения, которые использовались еще в мейнфремах IBM, некоторые операторы современных ЦОД до сих пор опасаются близкого подведения водяных труб к серверам и устройствам хранения. Многие производители встраиваемых систем охлаждения, предназначенных для установки между рядами стоек, предлагают на выбор использование охлажденной воды либо хладагента.

Однако Джо Кава, старший директор подразделения центров обработки данных Google, вполне доволен подходом Google: используемая схема включает в себя систему обнаружения протечек и систему обеспечения отказоустойчивости на случай выхода труб из строя. «Если в охладителе возникнет течь, вода будет капать вниз и уходить под фальшпол», — объясняет Кава. Он согласен с тем, что небольшое отверстие в трубке или разрыв катушки могут доставить немало хлопот, но отмечает, что его компания достаточно давно использует данную схему охлаждения и серьезных инцидентов пока не было.

Заключение

Все больше и больше компаний принимают участие в разработке новых эффективных решений по охлаждению как высоконагруженных, так и обычных серверов. Intel, IBM и другие компании проводят различные эксперименты по внедрению систем жидкостного охлаждения, пытаясь выработать эффективную и максимально простую в применении концепцию отвода тепла от серверов.

Безусловно, сдерживающими факторами являются инерционность рынка и необходимость адаптации ИТ-оборудования к потребностям инженерных систем, однако растущий багаж опыта и накопленных знаний поможет преодолеть рубеж перехода от воздушного к жидкостному охлаждению.

«www.AboutDC.ru – Решения для ЦОД». Статья опубликована в журнале LAN, №4, 2013г.

Комментарии

Ваше имя:

E-mail:  (на сайте не показывается)

Введите код с картинки:      

 

Каталог оборудования

 ИБП   Кондиционеры   Чиллеры 

HYIP (Хайп)

 About HYIP (о хайпах)   HYIP платит   HYIP скам   Обменники   Платёжные системы 

Компании

 DataCenterDynamics   Exsol (Эксол)   HTS   NVisionGroup   Union Group   Uptime Institute   UptimeTechnology   Ай-Теко   АйТи   АМТ-груп   Астерос   Аякс   ВентСпецСтрой   ДатаДом   Крок   Радиус ВИП   Термокул   Техносерв 

Оборудование

 Кондиционирование   Контроль доступа и безопасность   Мониторинг   Пожаротушение   Серверное оборудование   СКС   Фальшпол   Шкафы и стойки   Электроснабжение (ИБП, ДГУ) 

Пресса

 Connect - Мир связи   FOCUS   PC Week   ServerNews   Журнал сетевых решений / LAN   ИКС-Медиа 

Производители

 AEG   Chloride   Conteg   Delta Electronics   Eaton   Emerson Network Power   Green Revolution Cooling   HiRef   Hitec   Lampertz   Lande   LSI   Powerware   RC Group   Rittal   Schneider Electric   Stulz   Uniflair 

Рубрики

 Базовые станции   Интернет вещей   История   Криптовалюты   Мероприятия   Мобильный ЦОД   Обслуживание ЦОД   Опыт ЦОД   Суперкомпьютеры   Терминология   ЦОД в целом