Публикации   Каталог оборудования   Анализ климата регионов   О проекте AboutDC.ru

Обзор конференции ЦОД 2013 (ЦОДы ищут резервы эффективности)

Опубликовано: 13.11.2013. Власова Ирина

8-я ежегодная международная конференция «ЦОД-2013», организованная журналом «ИКС», показала, что о PUE, надежности и себестоимости сервисов ныне думают и крупные, и небольшие дата-центры. Российская индустрия ЦОДостроения наращивает не только квадратные метры серверных залов, киловатты и мегаватты потребляемого электричества, но и квалификацию специалистов и эффективность использования всех ресурсов.

Квалификация проектировщиков и строителей дата-центров растет не только с опытом выполнения новых проектов (а их количество и размеры, несмотря на отсутствие дефицита на рынке услуг ЦОДов, продолжают расти), но и благодаря образовательным программам небезызвестного Uptime Institute, который за прошедший с предыдущей конференции год открыл свое подразделение в России. Как рассказал управляющий директор Uptime Institute Russia Алексей Солодовников, число российских обладателей сертификатов проектировщиков дата-центров Accredited Tier Designer (ATD) достигло 60 (и по их числу мы по-прежнему уступаем только США), а сертифицированных специалистов Accredited Tier Specialist (ATS) - 25. Причем по итогам последнего учебного курса ATD, проведенного в Москве, успешно сдали экзамены и получили сертификаты абсолютно все слушатели, тогда как обычно их доля составляет порядка 70%.

Так что в принципе проектировать и строить дата-центры по всем правилам у нас уже умеют (или как минимум знают, как это делать), и на повестку дня выдвигается проблема столь же правильной эксплуатации построенных дата-центров, обеспечивающей его эффективную и бесперебойную работу. Этой проблеме было посвящено представленное на конференции исследование "Организация эксплуатации и причины отказов в ЦОД", совсем недавно выполненное iKS-Consulting. Правда, как отметил управляющий партнер iKS-Consulting Константин Анкилов, в ходе опроса владельцев дата-центров и специалистов, занимающихся их эксплуатацией, не задавался самый интересный вопрос -- о частоте отказов ЦОДов, поскольку было ясно, что это "коммерческая тайна", но многие из имевшихся почти четырёх десятков вопросов были довольно "деликатными", так что исследование дает достаточно реалистичное представление о ситуации в российских дата-центрах. В частности, оказалось, что большинство сбоев в ЦОДах не приводит к их полному выводу из строя (49% опрошенных считает, что катастрофы происходят лишь в 10% случаев), то есть многие специалисты, ответственные за эксплуатацию дата-центров, считают свои ЦОДы достаточно надежными системами, которые не имеют единых точек отказа и могут продолжать функционирование даже в случае неполадок в отдельных подсистемах. 

Главной причиной отказов в российских ЦОДах является человек (и этим мы ничем не отличаемся от всего остального мира): почти половина опрошенных считает, что как минимум в 80% случаев отказов в дата-центре виноват тот или иной специалист - сотрудник службы эксплуатации, специалист сервисной организации, проектировщик ЦОДа. Кроме того, исследование показало, что в 39% случаев в сбоях виноват сам персонал службы эксплуатации дата-центра, а в 52% случаев вину в случившемся делят персонал ЦОДа и сервисный подрядчик, ответственный за обслуживание того или иного оборудования ЦОДа. Минимизировать проблему у нас пока пытаются главным образом повышением квалификации персонала, но уже растет понимание того, что необходимо максимально формализовать все процедуры работы собственной службы эксплуатации и все процедуры взаимодействия с сервисными подрядчиками. Это поневоле будут вынуждены сделать те дата-центры, которые хотят получить сертификат Uptime Institute на службу эксплуатации (Operational Sustainability), а о таких планах заявляют сейчас и те ЦОДы, которые пока находятся на этапе сертификации проекта. 

Формализация процедур и полное документирование работы всех систем ЦОДа и всех работающих приложений очень актуальны в свете все более возрастающей сложности российских дата-центров. Усложнение ЦОДов особенно ярко видно на примере изменения моделей построения сетей дата-центров. Как рассказал руководитель направления продаж решений для ЦОД компании Cisco Олег Коверзнев, в большинстве российских ЦОДов сети пока построены по традиционной трехуровневой модели (ядро--распределение--доступ) и управляются такие дата-центры на уровне отдельных устройств, что часто приводит к сбоям. Но такая модель уже не соответствует требованиям к работе современных приложений и особенно она не соответствует требованиям технологии виртуализации. Так что те дата-центры, которые хотят оказывать облачные сервисы, должны будут перейти на более современную модель построения сети с использованием матрицы коммутации, позволяющую управлять не отдельными устройствами и портами, а логическими виртуальными ресурсами дата-центра с использованием централизованных политик. Такая модель позволяет в достаточно широких пределах масштабировать дата-центр, строить распределенные ЦОДы, управлять ими как единым централизованным ресурсом и обеспечивать перемещение виртуальных машин не только в пределах одной стойки, но и между дата-центрами, расположенными даже в разных странах мира. Ну а на горизонте уже следующий этап эволюции сетей - программируемые сети SDN (software defined networks), в которых уже сами приложения будут определять состояние сети и ее функции по обслуживанию тех же приложений. 

Все это пока в достаточно отдаленной перспективе, и в ближайших планах производителей -- стандартизировать отдельные компоненты дата-центров и создать стандартизированные и достаточно автономные блоки, из которых эти дата-центры могут строиться. Например, компания Rittal предлагает несколько вариантов законченных модульных решений RiMatrix S для инженерной инфраструктуры дата-центра на базе модулей Single 6 и Single 9, в состав которых входят серверные и сетевые 19-дюймовые стойки, системы электроснабжения, охлаждения и мониторинга. Как отметил руководитель технического проектного отдела Rittal Михаэля Николаи, построение дата-центра из стандартизированных готовых модулей позволяет одновременно обеспечить надежность работы ИТ-инфраструктуры, сократить затраты на его построение и обслуживание и получить возможность масштабировать дата-центр по мере необходимости. Особенно хотелось бы отметить проработанность технического решения модулей Single 6 и Single 9 с точки зрения энергоэффективности: по заявлению Rittal, коэффициент PUE для системы RiMatrix S составляет 1,1, и это не расчетное, а измеренное значение в реально работающем дата-центре в условиях даже неполной загрузки. Причем, как отметил М. Николаи, система RiMatrix S уже прошла предварительную сертификацию в организации TUVRheinland, что должно облегчить процедуру полной сертификации ЦОДа в том же Uptime Institute. 

Курс на сертификацию своих объектов в Uptime держит, например, компания DataPro, строящая коммерческие дата-центры. Как рассказал ее генеральный директор Алексей Солдатов, первый ЦОД DataPro уже построен в Твери (его официальный ввод в эксплуатацию должен состояться 1 октября с.г.). Его общая подведенная мощность составляет 4,5 МВт, он содержит 4 серверных зала по 100 стоек в каждом с выделенной электрической мощностью от 5 до 20 кВт на стойку. В инженерных системах дата-центра используются традиционные проверенные временем решения, а привлекать клиентов DataPro собирается не только ценами (тверское электричество оказалось существенно дешевле московского), но также надежностью работы ( DataPro собирается сертифицировать в Uptime на уровень Tier III и проект, и саму площадку, и систему эксплуатации ) и большим ассортиментом сервисов, в том числе услуг по технической поддержке заказчиков (так что последним и не придется ездить в Тверь на "Сапсане", а также на любом другом виде транспорта). Кроме того, DataPro строит крупный ЦОД в Москве (проектируемая мощность 25 МВт), первую очередь которого планируется запустить в середине 2014 г. (и он тоже претендует на сертификацию в Uptime на уровень Tier III).

В общем, в очередной раз можно констатировать, что рынок дата-центров в России продолжает поступательное развитие. Уже достигнут достаточно высокий уровень проектирования и строительства ЦОДов и пришло понимание важности сохранения грамотно построенного дата-центра путем его столь же грамотной и экономически эффективной эксплуатации. Осталось "только" максимально автоматизировать все процессы в ЦОДе, по возможности удалив из него "самое слабое звено" в виде человека, но это задача, по всей видимости, будет решена не в самом ближайшем будущем.

Источник

Прикрепленные документы

  1. "ЦОД - НЕДОРОГО!" или Истории командо- образования (1,1 МБ) Загрузок: 570
  2. 8,5 недель: опыт создания небольших ЦОД высокой надежности (4,7 МБ) Загрузок: 440
  3. Cisco UCS Director - автоматизируем управление конвергентными стеками в ЦОД (2,2 МБ) Загрузок: 570
  4. DataPro – сеть дата-центров для решения любых задач (1,2 МБ) Загрузок: 559
  5. Hi-End массивы НР для дата-центров (923,8 кБ) Загрузок: 899
  6. STULZ CyberCool 2 – новое поколение высокоэффективных чиллеров для дата-центров (1,6 МБ) Загрузок: 808
  7. Выбор коммерческого дата-центра для размещения бизнес-критичной инфраструктуры компании (458,2 кБ) Загрузок: 460
  8. Инфраструктура ЦОДов ОАО «Татнефть». Как успеть за изменениями в холдинге и быть эффективным? (2,8 МБ) Загрузок: 482
  9. Использование теплового насоса для отопления офисной части ЦОД. Возможность применения и эффективность использования (1,6 МБ) Загрузок: 2948
  10. Исследование причин отказов в ЦОД. Пути снижения рисков (166,4 кБ) Загрузок: 509
  11. Кабельные системы для подключения интегрированных серверных платформ (1,5 МБ) Загрузок: 1114
  12. Как защитить свои данные в чужом ЦОДе? (946,7 кБ) Загрузок: 486
  13. Какой IQ у Вашего ЦОДа? Power IQ! (2,7 МБ) Загрузок: 486
  14. Катастрофо устойчивое облако: опыт построения метрокластера (1,2 МБ) Загрузок: 556
  15. Кейс: миграция ЦОДа с жесткими требованиями по обеспечению непрерывности бизнес-процессов (227,4 кБ) Загрузок: 765
  16. Легенды и мифы Uptime Institute (342,7 кБ) Загрузок: 1248
  17. Масштабируемая ИТ-инфраструктура для ЦОД. Готовые решения (882,5 кБ) Загрузок: 505
  18. Методология модернизации инженерной инфраструктуры существующего ЦОД. Ключевые показатели эффективности модернизации ЦОД на практических примерах (1,4 МБ) Загрузок: 633
  19. Модели дополнительных источников доходов для облачных провайдеров. SLA, защита и акселерация WEB (2,4 МБ) Загрузок: 538
  20. Новинки, которые работают (2,2 МБ) Загрузок: 424
  21. Новые идеи в построении инженерной инфраструктуры ЦОД (1,5 МБ) Загрузок: 801
  22. Обзор новых решений для Дата-центров внешнего исполнения (1,7 МБ) Загрузок: 495
  23. Обзор продуктовых решений для ЦОД от Seagate Technology. Выбор подходящего продукта под поставленные задачи (2,4 МБ) Загрузок: 436
  24. Облака без границ. Преимущества комплексного решения LinxCloud (IaaS) для бизнеса на растущем рынке России и за рубежом (873,4 кБ) Загрузок: 480
  25. Облачная практика ВГТРК (825,1 кБ) Загрузок: 634
  26. Опыт построения центра высок- опроизводительных вычислений в ОАО «ЦНИИ «Буревестник» (1,5 МБ) Загрузок: 453
  27. Особенности применения модульных ИБП для защиты электропитания ЦОД (3,0 МБ) Загрузок: 580
  28. Особенности размещения ЦОД в реконструируемых зданиях (5,7 МБ) Загрузок: 867
  29. Особенности создания катастрофо- устойчивых центров обработки данных (1,9 МБ) Загрузок: 728
  30. От сложного к простому. ЦОД как конструктор (5,9 МБ) Загрузок: 1716
  31. Перспективы развития сетевых решений для ЦОД (2,8 МБ) Загрузок: 432
  32. Пожары в ЦОД. Миф или реальность (1,2 МБ) Загрузок: 0
  33. Построение ЦОД: советы бывалого (5,1 МБ) Загрузок: 537
  34. Построение энергоэффективных систем бесперебойного питания для энергоснабжения критичных потребителей на базе оборудования GE Digital Energy (1,7 МБ) Загрузок: 663
  35. Правило лишней мили в проектировании и создании центров обработки данных (ЦОД) (4,5 МБ) Загрузок: 1201
  36. Практический опыт построения регионального ЦОД на примере ЦОД Правительства Москвы (8,1 МБ) Загрузок: 641
  37. Практический опыт создания и эксплуатации мобильных ЦОД мощностью свыше 100 кВт (1,7 МБ) Загрузок: 1314
  38. Преимущества и недостатки различных компоновок ИТ-инфраструктуры (1,1 МБ) Загрузок: 561
  39. Применение дизель-роторных ИБП для банков (2,5 МБ) Загрузок: 1358
  40. Противопожарная защита ЦОД - как получить оптимальное соотношение цены/качества? (3,7 МБ) Загрузок: 1301
  41. Пути повышения точности измерения и варианты хранения данных физического мониторинга ЦОД (3,4 МБ) Загрузок: 588
  42. Различные подходы к решению задач по противопожарной защите ЦОД и их инфраструктуры (949,3 кБ) Загрузок: 874
  43. Реальный опыт. 3 года в облаке (1,1 МБ) Загрузок: 452
  44. Системы питания постоянного тока 400В для центров обработки данных и телеком- муникационных центров (2,2 МБ) Загрузок: 867
  45. Создание «зеленых» дата-центров для самой большой в мире национальной системы идентификации (1,5 МБ) Загрузок: 913
  46. Стандартизация ЦОД - путь к уменьшению затрат (2,8 МБ) Загрузок: 0
  47. Унифицированный доступ к корпоративным приложениям на базе технологий Citrix (1,0 МБ) Загрузок: 1132
  48. Физическая безопасность как путь защиты персональных данных (2,8 МБ) Загрузок: 573
  49. ЦОД Tier III, сеть ЦОД, виртуализация, «облака»… Этап выбора и весы Гардана (1,5 МБ) Загрузок: 827
  50. ЦОД как драйвер облачных сервисов (581,0 кБ) Загрузок: 718
  51. ЦОД Центрального Банка Армении как инфраструктурный ресурс финансовой системы страны (2,8 МБ) Загрузок: 1524
  52. ЦОД-интеллект - комплексный сервис для облачных приложений размещенных в дата-центре на примере электронных услуг для города Москвы (957,8 кБ) Загрузок: 790
  53. Экономический эффект от внедрения фрикулинга с учетом климатического региона ЦОД (1,1 МБ) Загрузок: 1017
  54. Энергосберегающее серверное оборудова- ние для ЦОД (4,9 МБ) Загрузок: 674
  55. Эффективные методы организации проектирования и строительства современных ЦОД. Практические примеры реализованных подходов к управлению проектами (312,2 кБ) Загрузок: 843

Комментарии

Ваше имя:

E-mail:  (на сайте не показывается)

Введите код с картинки:      

 

Каталог оборудования

 ИБП   Кондиционеры   Чиллеры 

HYIP (Хайп)

 About HYIP (о хайпах)   HYIP платит   HYIP скам   Обменники   Платёжные системы 

Компании

 DataCenterDynamics   Exsol (Эксол)   HTS   NVisionGroup   Union Group   Uptime Institute   UptimeTechnology   Ай-Теко   АйТи   АМТ-груп   Астерос   Аякс   ВентСпецСтрой   ДатаДом   Крок   Радиус ВИП   Термокул   Техносерв 

Оборудование

 Кондиционирование   Контроль доступа и безопасность   Мониторинг   Пожаротушение   Серверное оборудование   СКС   Фальшпол   Шкафы и стойки   Электроснабжение (ИБП, ДГУ) 

Пресса

 Connect - Мир связи   FOCUS   PC Week   ServerNews   Журнал сетевых решений / LAN   ИКС-Медиа 

Производители

 AEG   Chloride   Conteg   Delta Electronics   Eaton   Emerson Network Power   Green Revolution Cooling   HiRef   Hitec   Lampertz   Lande   LSI   Powerware   RC Group   Rittal   Schneider Electric   Stulz   Uniflair 

Рубрики

 Базовые станции   Интернет вещей   История   Криптовалюты   Мероприятия   Мобильный ЦОД   Обслуживание ЦОД   Опыт ЦОД   Суперкомпьютеры   Терминология   ЦОД в целом