Ледяные шары помогают дата-центрам становиться «зелеными»
Компания I/O Data Center инвестирует «зеленые» технологии, начиная от фотогальванических солнечных панелей и заканчивая гигантскими ёмкостями с ледяными шарами, помогающими охлаждать ЦОД.
Содержание статьи:
Хотите научиться проектировать? Учебный центр AboutDC приглашает на обучение:
- Курс А1. Вентиляция: с нуля до первого проекта
- СТАРТ 15 апреля 2024: Курс А1.1 - Кондиционирование с нуля до первого проекта. Сплиты, мульти-сплиты, разводка канальников, VRF
- Курс А2. ID-диаграмма. Расчет бассейнов и центральных кондиционеров
- Курс А3. Системы холодоснабжения: расчет чиллеров, фанкойлов, насосов и трасс
- Курс А4. Охлаждение ЦОД. Прецизионные кондиционеры. Фрикулинг
Обычно зеленый цвет – это не первый цвет, который приходит на ум тому, кто посещает горячий и сухой климат пустыни Финикса (Финикс – столица штата Аризона, США), где недавно температура превышала 109F (43С). Но именно здесь I/O Data Center построил коммерческий ЦОД площадью 16 700 квадратных метров, который соединяет энергосберегающий дизайн с использованием инновационных «зеленых» технологий: от необычной установки кондиционеров до конструкции серверной стойки.
Также в проекте применяются ледяные шары. Это заполненные водой, покрытые впадинами пластмассовые сферы, немного больше мяча для софтбола (софтбол – игра с мячом, разновидность бейсбола), их диаметр составляет 4 дюйма или 103мм. I/O использует ледяные шары в качестве источника холода для системы кондиционирования воздуха. Вполне возможно, что термохранилище на основе ледяных шаров от компании Cryogel, расположенной в Сан-Диего, – самая холодная (самая классная, the coolest) технология среди используемых.
Комментарий: На естественный вопрос о том, зачем шарикам нужны вмятины (они же уменьшают емкость шарика) отвечает сама природа: одно из многих аномальных свойств воды заключается в том, что она расширяется при отвердевании (таких веществ всего три в природе). Плотность льда на 10% превышает плотность воды, а потому и вмятины должны составлять 10% от объема шарика.
В здании ЦОД в Финиксе ледяные шары плавают в четырех огромных баках, заполненных гликолем, охлажденным до 22F (-5,6С). Гликолевый раствор прокачивается чиллерами, замораживая шары ночью, когда стоимость электроэнергии ниже. Днем гликоль, окружающий ледяные шары, прокачивается через теплообменник, охлаждающий воздух для ЦОД. Такая система снижает длительность работы чиллеров в течение дня, когда стоимость энергии выше.
Второй момент: чиллеры должны охлаждать гликоль примерно до -8С. А это уже другой класс оборудования (холодильное, а не кондиционерное).
Однако, не факт, что система экономит энергию. Это зависит от многих различных показателей в каждом конкретном проекте. Но однозначно то, что она экономит деньги. Смещая время использования электроэнергии со дня на ночь, экономится около 1 250$ в год за каждый «смещенный» киловатт, говорит Виктор Отт, президент Cryogel. Отт, цитируя результаты исследования, проведенного Калифорнийской энергетической комиссией, говорит, что это “примерно совпадает со стоимостью за кВт вновь генерируемой мощности”.
Реальные финансовые сбережения в таких специфических проектах будут в любой точке Земли, говорит Отт, добавляя, что он не знает, какие фактические сбережения были у ЦОД в Финиксе, построенным компанией I/O Data Center. Докладчик I/O Data Center говорит, что у него также нет оценки энергосбережений от ледяных шаров.
Отт утверждает, что технология становится ещё более «зеленой», если учесть, что для производства электричества сжигается меньше ископаемого топлива ночью, чем днем, т.к. ночная температура ниже. Это происходит по двум причинам: во-первых, ниже потери в линиях электропередач, а во-вторых, тепловой коэффициент (количество энергии ископаемого топлива, требуемого для производства одного киловатта электричества) для некоторых заводов также ниже.
Последнее утверждение – что энергия, потребляемая ночью, является более «зеленой» – могло бы быть продолжено, говорит Питер Гросс, вице-президент и генеральный директор отделения Critical Facilities Services компании Hewlett Packard (Отделение HP Critical Facilities Services занимается проектированием дата-центров, но не было привлечено к проектированию строительству ЦОД в Финиксе).
Стоимость системы с термоаккумуляторами на основе ледяных шаров Cryogel сильно зависит от варианта исполнения и ёмкости, а потому может изменяться в широком диапазоне. По словам Отта, грубо стоимость системы можно оценить примерно в 60$ за тонну холодного воздуха в час. Срок окупаемости также варьируется в широких пределах. “Если мы не сможем окупить систему в течение одного – пяти лет, мы, вероятно, не будем её продавать” говорит Отт. Но не всегда срок окупаемости является причиной, по которой владельцы ЦОД отказываются использовать данную технологию.
Наиболее серьезным поводом к отказу является то, что система требует гигантских контейнеров (это и камеры высокого давления и атмосферные резервуары), в которых содержатся ледяные шары. А они требуют большого пространства, которое является дефицитом для большинства дата-центров.
В проекте I/O Data Center, например, термохранилище на основе ледяных шаров Cryogel требует наличия четырех стальных камер высокого давления, габариты которых составляют 10 футов в диаметре и 22 фута в высоту. Вице-президент I/O Data Center Джейсон Феррара говорит, что в из распоряжении было достаточно много свободного места, что и позволило выделить большую комнату для охлаждающего оборудования, но большинство ЦОД такой возможности не имеют. Потребность в таком большом количестве свободного места ставит вопрос цены на второй план, отмечает Отт. Но, говорит он, ледяные шары занимают меньше места, чем другие формы аккумуляторов холода, а “это – важное преимущество”.
Если же свободное место не является проблемой, то, говорит Гросс, он выступает “за” использование теплоаккумуляторов. “Хранение льда – потрясающая идея. Она позволяет сгладить кривую потребления электроэнергии и сэкономить на этом деньги” говорит он.
Ещё одна причина, объясняющая редкость использования теплоаккумуляторов, – это их надежность.
В течение дня, когда охлажденная вода поступает от ледяных шаров, чиллеры отключены. Процесс перезапуска чиллеров и их выхода на режим составляет от 30 минут до часа. В случае неисправности теплоаккумулятора ЦОД останется без холодоснабжения на этот период времени. “Вы будете должны остановить весь ЦОД, т.к. он успеет перегреться до включения чиллеров”, говорит Гросс.
Однако, заявляет Отт, теплоаккумуляторы используются в промышленных предприятиях более 20 лет и являются проверенной технологией.
Гросс соглашается. Он говорит, что грамотно разработанная система с ледяными шарами чрезвычайно надежна. “Мы успешно реализовали её в ЦОД в Лос-Анжелесе”, говорит Гросс.
Перестройка всего здания
Система охлаждения от I/O Data Center в Финиксе также обслуживает здание площадью 538 000 квадратных футов. В качестве площадки для реализации проекта был выбран завод по розливу воды в бутылки. На первом этапе, завершившемся в июне 2009 года, было освоено 180 000 кв.футов площади и 26МВт мощностей. Второй этап предполагает открытие площадки площадью 180 000 кв.футов мощностью 20МВт, его завершение планируется в декабре. Также I/O обустроил 80 000 кв.футов офисной площади.
“Уникальность проекта I/O Data Center в Финиксе заключается в том, что они взяли за основу завод по розливу воды и за счет увеличения объемов инвестиций внедрили в проект «зеленые» технологии” – говорит Маендра Дураи, вице-президент ИТ-инфраструктуры и глобальных операций в компании BMC Software Inc., которая арендует здесь 320 кВт мощности. (Крупнейший Заказчик I/O Data Center, имя которого не называется, арендовал 5 МВт вычислительных мощностей (а это приблизительно 25 % суммарной мощности объекта) для питания своего основного американского ЦОД.)
Когда дело доходит до энергосберегающих дата-центров и внедрения «зеленых» технологий, девиз I/O Data Center – «чем больше ЦОД, тем лучше». “Крупные ЦОД делают возможной большую экономию посредством «зеленых» технологий” – говорит президент Джордж Слессмен.
Охлаждение
Одним из наиболее инновационных методов энергосбережения, реализованных I/O Data Center, является установка большего, чем требуется, количества шкафных кондиционеров. В результате применяемые в кондиционерах вентиляторы с регулируемой производительностью работают на более низких скоростях.
Математика здесь может показаться неуместной, но она наглядно показывает причины экономии энергии, объясняет Гросс. Так как энергопотребление вентилятора пропорционально кубу скорости, то при снижении скорости вдвое мощность уменьшается в 8 раз. Таким образом, энергосбережение от снижения скорости всех вентиляторов с лихвой восполняет энергию, расходуемую на управление большим числом кондиционеров.
I/O Data Center также использовало преимущество сухого воздуха, применяя испарительную систему охлаждения. «За ней большое будущее, – говорит Гросс, – Испарительное охлаждение является очень эффективным с энергетической точки зрения».
Консервативная повестка дня
I/O Data Center предлагает клиентам энергосберегающие технологии. Например, применяются стойки, направляющие холодный воздух из-под фальшпола непосредственно к оборудованию, а горячий – в верхнюю часть каждого ряда. В результате ИТ-оборудование оказывается полностью изолированным от комнатного воздуха. Джейсон Феррара, вице-президент I/O, говорит, что это позволяет снять до 32кВт со стойки.
Также в проекте использованы сверхзвуковые увлажнители, потребляющие на 93% меньше электроэнергии и выделяющие гораздо меньше тепла, чем традиционные пароувлажнители.
Комментарий: Насколько я знаю, для производства пара из воды при использовании любого метода требуется затратить энергию фазового перехода – скрытую теплоту парообразования. Будь то электродный увлажнитель или сверхзвуковой, потребляемая мощность должна быть одинаковой.
I/O Data Center планирует производить некоторую часть своей собственной «зеленой» энергии. Вторая фаза проекта предусматривает установку комбинированной теплоэнергетической системы, которая обеспечит электроэнергией систему охлаждения ЦОД.
Также в планах I/O Data Center установить на крыше здания фотогальванические элементы общей мощностью 4.5МВт. Производимая энергия будет использоваться для снижения потребления энергии от электросети днем – тогда, когда оно достигает пиковых значений.
Комбинированная теплоэнергетическая система “не играет большой роли в небольших установках, но в непрерывно работающем дата-центре мощностью 40 или 50 МВт её вклад ощутим”, говорит Слессмен.
Однако, применение фотогальванических элементов представляется сомнительным. Пока у I/O Data Center есть проект, готовый к реализации, говорит Феррара, компания удерживалась на покупке элементов, так как цены падают очень быстро. «Мы ожидаем стабилизации цен» – объясняет он.
Но сегодняшние фотогальванические элементы производят только 16 ватт пиковой нагрузки на квадратный фут занимаемой площади. Для получения 20МВт энергии, как того требует уже выполненный первый этап строительства в Финиксе, потребуются акры площади, говорит Гросс.
Как дополнительный источник сетевой электроэнергии фотогальванические элементы работают хорошо. Но в качестве непрерывного источника энергии они не надежны, даже в солнечном Финиксе. «Здесь больше приспособлены использовать другие средства. Топливные элементы более эффективны,» говорит Гросс. Но если солнечная энергия и непрактична, то у неё есть одно преимущество: Хвастовство оправдывается при развертывании солнечной батареи на 4.5 МВт. Она сексуальна, признает Гросс. «А это – пиар для ЦОД», говорит он.
В дата-центре в Финиксе применены и другие «зеленые» технологии. Слессмен говорит, что I/O Data Center ожидает получения серебряного сертификата LEED (Leadership in Energy and Environmental Design, Лидерство в энергетическом и экологическом проектировании) к середине 2011, также данный ЦОД – один из немногих, претендующих на получение сертификата от The Uptime Institute на уровень надежности Tier IV (доступность 99.995 %).
Конечная цель I/O Data Center в отношении ЦОД в Финиксе, говорит Слессмен, «сделать единственный коммерчески доступный в Северной Америке ЦОД, имеющий сертификаты LEED и Tier IV».
Почему Финикс?
Если учесть острую необходимость ЦОД, конечная мощность которого достигает 40МВт, в охлаждении, то почему в качестве места построения ЦОД выбрана пустыня? «Много людей переезжало в Финикс, как в город с развитым рынком услуг ЦОД», говорит Мареш KC, президент и главный энергетик Megawatt Consulting – компании, которая проектирует крупные ЦОД. Есть некоторые веские основания строить ЦОД именно здесь, говорит он. «Но я подвергаю сомнению размещение ЦОД здесь с точки зрения потребляемой энергии».
“Внешняя температура не влияет на процессы, происходящие внутри», говорит вице-президент I/O Data Center Джейсон Феррара. Одно лишь преимущество сухого климата пустыни, например, позволяет применять энергосберегающую испарительную технологию охлаждения.
Но здесь существуют пределы для таких технологий охлаждения, как экономайзеры и испарительные охладители, которые завязаны на окружающий воздух, температура которого летом может превышать 120F (49C). В конце концов, несмотря на использование энергосберегающих технологий, говорит Мареш, «Вы дорого платите за охлаждение».
Однако, клиент I/O Data Center – компания BMC Software – выбрала ЦОД в Финиксе не из-за «зеленых» технологий. Маендра Дураи, вице-президент по ИТ и глобальным операциям в BMC, расположенном в Хьюстоне, говорит, что выбрал Финикс по одной, важной с практической точки зрения, причине: вслед за недавними ураганами руководство хотело перенести основные бизнес-системы компании из Хьюстона.
“Финикс – одно из немногих мест в стране, характеризующееся минимальным уровнем опасности от стихийных бедствий,” говорит Дурай. План BMC требует сертифицированную по Tier IV площадку (которую как раз и планирует предложить I/O Data Center), и много(PLENTY) комнаты, для расширения. Сфокусированность на «зеленых» технологиях также входила в список пожеланий, но занимала лишь 4-е место в списке приоритетов.
Роберт Л. Митчелл
Оригинальный текст: газета ComputerWorld
Перевод с английского и адаптация на русский язык: Хомутский Юрий
Комментарии: Хомутский Юрий
Источник в Рунете
Дополнительные материалы
Оставить комментарий