Публикации   Каталог оборудования   Анализ климата регионов   О проекте AboutDC.ru

Обзор конференции ЦОД 2013 (ЦОДы ищут резервы эффективности)

Опубликовано: 13.11.2013. Власова Ирина

8-я ежегодная международная конференция «ЦОД-2013», организованная журналом «ИКС», показала, что о PUE, надежности и себестоимости сервисов ныне думают и крупные, и небольшие дата-центры. Российская индустрия ЦОДостроения наращивает не только квадратные метры серверных залов, киловатты и мегаватты потребляемого электричества, но и квалификацию специалистов и эффективность использования всех ресурсов.

Квалификация проектировщиков и строителей дата-центров растет не только с опытом выполнения новых проектов (а их количество и размеры, несмотря на отсутствие дефицита на рынке услуг ЦОДов, продолжают расти), но и благодаря образовательным программам небезызвестного Uptime Institute, который за прошедший с предыдущей конференции год открыл свое подразделение в России. Как рассказал управляющий директор Uptime Institute Russia Алексей Солодовников, число российских обладателей сертификатов проектировщиков дата-центров Accredited Tier Designer (ATD) достигло 60 (и по их числу мы по-прежнему уступаем только США), а сертифицированных специалистов Accredited Tier Specialist (ATS) - 25. Причем по итогам последнего учебного курса ATD, проведенного в Москве, успешно сдали экзамены и получили сертификаты абсолютно все слушатели, тогда как обычно их доля составляет порядка 70%.

Так что в принципе проектировать и строить дата-центры по всем правилам у нас уже умеют (или как минимум знают, как это делать), и на повестку дня выдвигается проблема столь же правильной эксплуатации построенных дата-центров, обеспечивающей его эффективную и бесперебойную работу. Этой проблеме было посвящено представленное на конференции исследование "Организация эксплуатации и причины отказов в ЦОД", совсем недавно выполненное iKS-Consulting. Правда, как отметил управляющий партнер iKS-Consulting Константин Анкилов, в ходе опроса владельцев дата-центров и специалистов, занимающихся их эксплуатацией, не задавался самый интересный вопрос -- о частоте отказов ЦОДов, поскольку было ясно, что это "коммерческая тайна", но многие из имевшихся почти четырёх десятков вопросов были довольно "деликатными", так что исследование дает достаточно реалистичное представление о ситуации в российских дата-центрах. В частности, оказалось, что большинство сбоев в ЦОДах не приводит к их полному выводу из строя (49% опрошенных считает, что катастрофы происходят лишь в 10% случаев), то есть многие специалисты, ответственные за эксплуатацию дата-центров, считают свои ЦОДы достаточно надежными системами, которые не имеют единых точек отказа и могут продолжать функционирование даже в случае неполадок в отдельных подсистемах. 

Главной причиной отказов в российских ЦОДах является человек (и этим мы ничем не отличаемся от всего остального мира): почти половина опрошенных считает, что как минимум в 80% случаев отказов в дата-центре виноват тот или иной специалист - сотрудник службы эксплуатации, специалист сервисной организации, проектировщик ЦОДа. Кроме того, исследование показало, что в 39% случаев в сбоях виноват сам персонал службы эксплуатации дата-центра, а в 52% случаев вину в случившемся делят персонал ЦОДа и сервисный подрядчик, ответственный за обслуживание того или иного оборудования ЦОДа. Минимизировать проблему у нас пока пытаются главным образом повышением квалификации персонала, но уже растет понимание того, что необходимо максимально формализовать все процедуры работы собственной службы эксплуатации и все процедуры взаимодействия с сервисными подрядчиками. Это поневоле будут вынуждены сделать те дата-центры, которые хотят получить сертификат Uptime Institute на службу эксплуатации (Operational Sustainability), а о таких планах заявляют сейчас и те ЦОДы, которые пока находятся на этапе сертификации проекта. 

Формализация процедур и полное документирование работы всех систем ЦОДа и всех работающих приложений очень актуальны в свете все более возрастающей сложности российских дата-центров. Усложнение ЦОДов особенно ярко видно на примере изменения моделей построения сетей дата-центров. Как рассказал руководитель направления продаж решений для ЦОД компании Cisco Олег Коверзнев, в большинстве российских ЦОДов сети пока построены по традиционной трехуровневой модели (ядро--распределение--доступ) и управляются такие дата-центры на уровне отдельных устройств, что часто приводит к сбоям. Но такая модель уже не соответствует требованиям к работе современных приложений и особенно она не соответствует требованиям технологии виртуализации. Так что те дата-центры, которые хотят оказывать облачные сервисы, должны будут перейти на более современную модель построения сети с использованием матрицы коммутации, позволяющую управлять не отдельными устройствами и портами, а логическими виртуальными ресурсами дата-центра с использованием централизованных политик. Такая модель позволяет в достаточно широких пределах масштабировать дата-центр, строить распределенные ЦОДы, управлять ими как единым централизованным ресурсом и обеспечивать перемещение виртуальных машин не только в пределах одной стойки, но и между дата-центрами, расположенными даже в разных странах мира. Ну а на горизонте уже следующий этап эволюции сетей - программируемые сети SDN (software defined networks), в которых уже сами приложения будут определять состояние сети и ее функции по обслуживанию тех же приложений. 

Все это пока в достаточно отдаленной перспективе, и в ближайших планах производителей -- стандартизировать отдельные компоненты дата-центров и создать стандартизированные и достаточно автономные блоки, из которых эти дата-центры могут строиться. Например, компания Rittal предлагает несколько вариантов законченных модульных решений RiMatrix S для инженерной инфраструктуры дата-центра на базе модулей Single 6 и Single 9, в состав которых входят серверные и сетевые 19-дюймовые стойки, системы электроснабжения, охлаждения и мониторинга. Как отметил руководитель технического проектного отдела Rittal Михаэля Николаи, построение дата-центра из стандартизированных готовых модулей позволяет одновременно обеспечить надежность работы ИТ-инфраструктуры, сократить затраты на его построение и обслуживание и получить возможность масштабировать дата-центр по мере необходимости. Особенно хотелось бы отметить проработанность технического решения модулей Single 6 и Single 9 с точки зрения энергоэффективности: по заявлению Rittal, коэффициент PUE для системы RiMatrix S составляет 1,1, и это не расчетное, а измеренное значение в реально работающем дата-центре в условиях даже неполной загрузки. Причем, как отметил М. Николаи, система RiMatrix S уже прошла предварительную сертификацию в организации TUVRheinland, что должно облегчить процедуру полной сертификации ЦОДа в том же Uptime Institute. 

Курс на сертификацию своих объектов в Uptime держит, например, компания DataPro, строящая коммерческие дата-центры. Как рассказал ее генеральный директор Алексей Солдатов, первый ЦОД DataPro уже построен в Твери (его официальный ввод в эксплуатацию должен состояться 1 октября с.г.). Его общая подведенная мощность составляет 4,5 МВт, он содержит 4 серверных зала по 100 стоек в каждом с выделенной электрической мощностью от 5 до 20 кВт на стойку. В инженерных системах дата-центра используются традиционные проверенные временем решения, а привлекать клиентов DataPro собирается не только ценами (тверское электричество оказалось существенно дешевле московского), но также надежностью работы ( DataPro собирается сертифицировать в Uptime на уровень Tier III и проект, и саму площадку, и систему эксплуатации ) и большим ассортиментом сервисов, в том числе услуг по технической поддержке заказчиков (так что последним и не придется ездить в Тверь на "Сапсане", а также на любом другом виде транспорта). Кроме того, DataPro строит крупный ЦОД в Москве (проектируемая мощность 25 МВт), первую очередь которого планируется запустить в середине 2014 г. (и он тоже претендует на сертификацию в Uptime на уровень Tier III).

В общем, в очередной раз можно констатировать, что рынок дата-центров в России продолжает поступательное развитие. Уже достигнут достаточно высокий уровень проектирования и строительства ЦОДов и пришло понимание важности сохранения грамотно построенного дата-центра путем его столь же грамотной и экономически эффективной эксплуатации. Осталось "только" максимально автоматизировать все процессы в ЦОДе, по возможности удалив из него "самое слабое звено" в виде человека, но это задача, по всей видимости, будет решена не в самом ближайшем будущем.

Источник

Прикрепленные документы

  1. "ЦОД - НЕДОРОГО!" или Истории командо- образования (1,1 МБ) Загрузок: 547
  2. 8,5 недель: опыт создания небольших ЦОД высокой надежности (4,7 МБ) Загрузок: 432
  3. Cisco UCS Director - автоматизируем управление конвергентными стеками в ЦОД (2,2 МБ) Загрузок: 552
  4. DataPro – сеть дата-центров для решения любых задач (1,2 МБ) Загрузок: 538
  5. Hi-End массивы НР для дата-центров (923,8 кБ) Загрузок: 870
  6. STULZ CyberCool 2 – новое поколение высокоэффективных чиллеров для дата-центров (1,6 МБ) Загрузок: 763
  7. Выбор коммерческого дата-центра для размещения бизнес-критичной инфраструктуры компании (458,2 кБ) Загрузок: 442
  8. Инфраструктура ЦОДов ОАО «Татнефть». Как успеть за изменениями в холдинге и быть эффективным? (2,8 МБ) Загрузок: 473
  9. Использование теплового насоса для отопления офисной части ЦОД. Возможность применения и эффективность использования (1,6 МБ) Загрузок: 2746
  10. Исследование причин отказов в ЦОД. Пути снижения рисков (166,4 кБ) Загрузок: 491
  11. Кабельные системы для подключения интегрированных серверных платформ (1,5 МБ) Загрузок: 1077
  12. Как защитить свои данные в чужом ЦОДе? (946,7 кБ) Загрузок: 479
  13. Какой IQ у Вашего ЦОДа? Power IQ! (2,7 МБ) Загрузок: 475
  14. Катастрофо устойчивое облако: опыт построения метрокластера (1,2 МБ) Загрузок: 532
  15. Кейс: миграция ЦОДа с жесткими требованиями по обеспечению непрерывности бизнес-процессов (227,4 кБ) Загрузок: 745
  16. Легенды и мифы Uptime Institute (342,7 кБ) Загрузок: 1221
  17. Масштабируемая ИТ-инфраструктура для ЦОД. Готовые решения (882,5 кБ) Загрузок: 491
  18. Методология модернизации инженерной инфраструктуры существующего ЦОД. Ключевые показатели эффективности модернизации ЦОД на практических примерах (1,4 МБ) Загрузок: 612
  19. Модели дополнительных источников доходов для облачных провайдеров. SLA, защита и акселерация WEB (2,4 МБ) Загрузок: 508
  20. Новинки, которые работают (2,2 МБ) Загрузок: 403
  21. Новые идеи в построении инженерной инфраструктуры ЦОД (1,5 МБ) Загрузок: 778
  22. Обзор новых решений для Дата-центров внешнего исполнения (1,7 МБ) Загрузок: 470
  23. Обзор продуктовых решений для ЦОД от Seagate Technology. Выбор подходящего продукта под поставленные задачи (2,4 МБ) Загрузок: 428
  24. Облака без границ. Преимущества комплексного решения LinxCloud (IaaS) для бизнеса на растущем рынке России и за рубежом (873,4 кБ) Загрузок: 458
  25. Облачная практика ВГТРК (825,1 кБ) Загрузок: 614
  26. Опыт построения центра высок- опроизводительных вычислений в ОАО «ЦНИИ «Буревестник» (1,5 МБ) Загрузок: 444
  27. Особенности применения модульных ИБП для защиты электропитания ЦОД (3,0 МБ) Загрузок: 537
  28. Особенности размещения ЦОД в реконструируемых зданиях (5,7 МБ) Загрузок: 806
  29. Особенности создания катастрофо- устойчивых центров обработки данных (1,9 МБ) Загрузок: 703
  30. От сложного к простому. ЦОД как конструктор (5,9 МБ) Загрузок: 1697
  31. Перспективы развития сетевых решений для ЦОД (2,8 МБ) Загрузок: 420
  32. Пожары в ЦОД. Миф или реальность (1,2 МБ) Загрузок: 0
  33. Построение ЦОД: советы бывалого (5,1 МБ) Загрузок: 529
  34. Построение энергоэффективных систем бесперебойного питания для энергоснабжения критичных потребителей на базе оборудования GE Digital Energy (1,7 МБ) Загрузок: 639
  35. Правило лишней мили в проектировании и создании центров обработки данных (ЦОД) (4,5 МБ) Загрузок: 1149
  36. Практический опыт построения регионального ЦОД на примере ЦОД Правительства Москвы (8,1 МБ) Загрузок: 617
  37. Практический опыт создания и эксплуатации мобильных ЦОД мощностью свыше 100 кВт (1,7 МБ) Загрузок: 1268
  38. Преимущества и недостатки различных компоновок ИТ-инфраструктуры (1,1 МБ) Загрузок: 552
  39. Применение дизель-роторных ИБП для банков (2,5 МБ) Загрузок: 1299
  40. Противопожарная защита ЦОД - как получить оптимальное соотношение цены/качества? (3,7 МБ) Загрузок: 1265
  41. Пути повышения точности измерения и варианты хранения данных физического мониторинга ЦОД (3,4 МБ) Загрузок: 579
  42. Различные подходы к решению задач по противопожарной защите ЦОД и их инфраструктуры (949,3 кБ) Загрузок: 841
  43. Реальный опыт. 3 года в облаке (1,1 МБ) Загрузок: 446
  44. Системы питания постоянного тока 400В для центров обработки данных и телеком- муникационных центров (2,2 МБ) Загрузок: 830
  45. Создание «зеленых» дата-центров для самой большой в мире национальной системы идентификации (1,5 МБ) Загрузок: 874
  46. Стандартизация ЦОД - путь к уменьшению затрат (2,8 МБ) Загрузок: 0
  47. Унифицированный доступ к корпоративным приложениям на базе технологий Citrix (1,0 МБ) Загрузок: 1088
  48. Физическая безопасность как путь защиты персональных данных (2,8 МБ) Загрузок: 552
  49. ЦОД Tier III, сеть ЦОД, виртуализация, «облака»… Этап выбора и весы Гардана (1,5 МБ) Загрузок: 787
  50. ЦОД как драйвер облачных сервисов (581,0 кБ) Загрузок: 698
  51. ЦОД Центрального Банка Армении как инфраструктурный ресурс финансовой системы страны (2,8 МБ) Загрузок: 1428
  52. ЦОД-интеллект - комплексный сервис для облачных приложений размещенных в дата-центре на примере электронных услуг для города Москвы (957,8 кБ) Загрузок: 743
  53. Экономический эффект от внедрения фрикулинга с учетом климатического региона ЦОД (1,1 МБ) Загрузок: 974
  54. Энергосберегающее серверное оборудова- ние для ЦОД (4,9 МБ) Загрузок: 623
  55. Эффективные методы организации проектирования и строительства современных ЦОД. Практические примеры реализованных подходов к управлению проектами (312,2 кБ) Загрузок: 817

Комментарии

Ваше имя:

E-mail:  (на сайте не показывается)

Введите код с картинки:      

 

Каталог оборудования

 ИБП   Кондиционеры   Чиллеры 

HYIP (Хайп)

 About HYIP (о хайпах)   HYIP платит   HYIP скам   Обменники   Платёжные системы 

Компании

 DataCenterDynamics   Exsol (Эксол)   HTS   NVisionGroup   Union Group   Uptime Institute   UptimeTechnology   Ай-Теко   АйТи   АМТ-груп   Астерос   Аякс   ВентСпецСтрой   ДатаДом   Крок   Радиус ВИП   Термокул   Техносерв 

Оборудование

 Кондиционирование   Контроль доступа и безопасность   Мониторинг   Пожаротушение   Серверное оборудование   СКС   Фальшпол   Шкафы и стойки   Электроснабжение (ИБП, ДГУ) 

Пресса

 Connect - Мир связи   FOCUS   PC Week   ServerNews   Журнал сетевых решений / LAN   ИКС-Медиа 

Производители

 AEG   Chloride   Conteg   Delta Electronics   Eaton   Emerson Network Power   Green Revolution Cooling   HiRef   Hitec   Lampertz   Lande   LSI   Powerware   RC Group   Rittal   Schneider Electric   Stulz   Uniflair 

Рубрики

 Базовые станции   Интернет вещей   История   Криптовалюты   Мероприятия   Мобильный ЦОД   Обслуживание ЦОД   Опыт ЦОД   Суперкомпьютеры   Терминология   ЦОД в целом