Сегодня все больше компаний обращаются к услугам colocation, доверяя ЦОД самое важное – информацию. Именно поэтому выбор надежного дата-центра является сложным процессом, в котором, в первую очередь, необходимо обращать внимание на инфраструктуру. 

Благодаря современным технологиям, с инфраструктурой ЦОД можно познакомиться визуально с помощью виртуальных экскурсий или интерактивных 3-D моделей (к примеру, интерактивного макета дата-центра GigaCenter). Но возникает главный вопрос - как же все работает внутри. Сегодня разберем одну из важнейших составляющих работы дата-центра – систему охлаждения.

Зачем нужна система охлаждения ЦОД?

Работа размещенного оборудования в дата-центре напрямую зависит от температуры: перегрев способен привести к замедлению работы или даже остановки сервера, а очень низкие температуры негативно повлиять на определенные элементы «железа». И если говорить о коммерческих ЦОД, то это сотни, а порой даже тысячи стоек с оборудованием разных клиентов. Именно поэтому одним из главных требований к инфраструктуре ЦОД является соблюдение необходимого температурного режима в холодном коридоре (согласно требованиям стандарта TIA-942: 18-27С), которого можно достигнуть с помощью правильного распределения тепла и холода - системы охлаждения. 
Какие виды охлаждения ЦОД существуют?
Существует несколько основных видов систем охлаждения ЦОД:
  • периметральная система охлаждения;
  • рядная система;
  • изоляция в пределах одной стойки;
  • альтернативные системы охлаждения.
Начнем наш обзор с вариантов охлаждения ЦОД, которые активно внедряются международными компаниями по всему миру – альтернативные системы охлаждения.
Альтернативные системы охлаждения. Сегодня большинство компаний отдают предпочтение хранению данных в виртуальной инфраструктуре, в связи с чем нагрузка на дата-центры с каждым днем возрастает, увеличивая объёмы потребления электроэнергии. В 2018 году практически 3% мирового производства электроэнергии пришлось на питание дата-центров (практически 40% электричества расходуют системы кондиционирования машинных залов.) Именно поэтому специалисты многих стран разрабатывают новые технологии для охлаждения инфраструктуры дата-центров. 

Так, климат в определенных регионах нашей планеты позволяет экономить до 80% энергии, которая тратится на функционирование охлаждающих систем. Сюда можно отнести северную часть Европы и несколько зон на севере США. 
Компания Google построила дата-центр на месте бывшей бумажной фабрики в Финляндии. Для охлаждения ЦОД специалисты используют воду Финского залива, что позволяет дата-центру работать без энергозатратных чиллеров. 

Дата-центр Google в Финляндии

Также в 2014 году Google приобрела компанию DeepMind, которая специализируется на разработке систем искусственного интеллекта, после чего провела целый ряд тестов с оценкой энергоэффективности в разрезе своих дата-центров. По результатам, Google удалось достичь снижения энергопотребления с использованием искусственного интеллекта на 40%.

Компания Facebook построила свой дата-центр в городе Лулео возле полярного круга. Внутри ЦОД используется северный холодный воздух для охлаждения серверов, которые хранят фото, комментарии и лайки тысячей пользователей социальной сети Facebook.
В Норвегии неподалеку от Северного полюса в Северном Ледовитом океане находится Архипелаг Свальбард. Здесь на глубине 300 метров надежно хранятся важнейшие копии данных со всего мира. Вечная мерзлота арктического острова позволяет значительно уменьшить расходы и сэкономить на энергии для поддержания низкой температуры.

Инженеры Microsoft опустили дата-центр на дно Северного моря на глубине 35,7 метров и все с той же целью – экономии на охлаждении. ЦОД потребляют большое количество электроэнергии (420 тераватт, то есть практически 3,5% энергопотребления в мире приходится на дата-центры), а 15−20% этой энергии идет на охлаждение компьютеров. Специалисты Microsoft утверждают, что использование холодных вод Северного моря позволит им сэкономить на системе охлаждения до 40%.

Периметральная система охлаждения.  Предусматривает установку кондиционеров по всему периметру машинного зала дата-центра. По данным организации Uptime Institute, только 40% воздуха, который производится кондиционером в дата-центре, попадает непосредственно на вычислительное оборудование (имеется в виду традиционная схема без использования изоляции коридоров). Поэтому с целью повышения эффективности работы системы кондиционирования, помимо основной системы охлаждения используются дополнительные схемы охлаждения: изоляция холодного или горячего коридора. 
Изоляция холодного коридора. Такая схема охлаждения предусматривает наличие шкафного или рядного кондиционера. Серверные шкафы размещаются «лицом к лицу», образуя при этом некий коридор, в который из-под фальшпола подается холодный воздух. После воздух забирается IT-оборудованием, установленным в стойке и снова выводится непосредственно к кондиционеру.

Изоляция холодного коридора в дата-центре

Изоляция горячего коридора. Данная схема может использоваться как при наличии, так и отсутствии фальшпола, но обязательным условием в случае использования шкафных кондиционеров является построение системы воздуховодов или фальшпотолка, как отдельного «транспортного канала» для отвода горячего воздуха назад к кондиционеру.

Изоляция горячего коридора в дата-центре

Рядные системы. При использовании такого типа охлаждения, в дата-центре устанавливаются кондиционеры непосредственно в ряду серверных стоек. Это достаточно эффективная система, ведь при ее использовании возможны оба варианты изоляции: как холодного, так и горячего коридора.
Изоляция в пределах одной стойки. Данный вариант охлаждения будет идеальным решением при наличии в дата-центре стоек высокой энергетической плотности (более 10 кВт), а также при наличии разных препятствий для разворачивания системы охлаждения (к примеру, опорных колон). 
В нашей стране альтернативные системы охлаждения ЦОД пока не используются, но за счет того, что Украина находится в континентальном климате это позволяет значительно экономить расходы на охлаждение инфраструктуры дата-центров, к примеру за счет использования системы фрикулинга.  Несмотря на то, что в разрезе систем охлаждения инновации в нашей стране пока не используются, инфраструктура украинских ЦОД должна отвечать всем правилам и международным требованиям. Одним из таких дата-центров является GigaCenter.
GigaCenter – коммерческий дата-центр, который построен в соответствии с требованиями TIER III и входит в 5-ку лучших на территории Украины. Аудит инфраструктуры дата-центра GigaCenter проводился сертифицированными специалистами Accredited Tier Designer от Uptime Institute в 2016 году. 
Внутри GigaCenter используется периметральная система охлаждения, а именно шкафные кондиционеры со схемой изоляции холодного коридора в соответствии с основными требованиями международных стандартов:
  • ширина холодного коридора равна 1,2 м (согласно TIA942);
  • перед каждым шкафом размещена одна перфорированная плитка;
  • температурный режим внутри ЦОД контролируется специалистами 24/7 и в среднем равен 20С;
  • влажность также соблюдается в пределах нормы – 40-60%.

GigaCenter

Также клиенты собственными глазами могут убедится в профессиональном подходе инженеров и надежности дата-центра GigaCenter, посетив экскурсию в ЦОД. Наши эксперты познакомят вас с основами работы дата-центров, расскажут о главных составляющих инфраструктуры ЦОД и проведут теми самыми машинными залами с изоляцией холодных и горячих коридоров.
Размещайте свои данные надежно вместе с командой профессиональных инженеров дата-центра GigaCenter!