к перечню новостей
27
Sep
2019
Sep
2019
27 Sep 2019
Система охлаждения дата-центра – как это работает?
Зачем нужна система охлаждения ЦОД
Сегодня все больше компаний обращаются к услугам colocation, доверяя ЦОД самое важное – информацию. Именно поэтому выбор надежного дата-центра является сложным процессом, в котором, в первую очередь, необходимо обращать внимание на инфраструктуру.
Благодаря современным технологиям, с инфраструктурой ЦОД можно познакомиться визуально с помощью виртуальных экскурсий или интерактивных 3-D моделей (к примеру, интерактивного макета дата-центра GigaCenter). Но возникает главный вопрос - как же все работает внутри. Сегодня разберем одну из важнейших составляющих работы дата-центра – систему охлаждения.
Зачем нужна система охлаждения ЦОД?
Работа размещенного оборудования в дата-центре напрямую зависит от температуры: перегрев способен привести к замедлению работы или даже остановки сервера, а очень низкие температуры негативно повлиять на определенные элементы «железа». И если говорить о коммерческих ЦОД, то это сотни, а порой даже тысячи стоек с оборудованием разных клиентов. Именно поэтому одним из главных требований к инфраструктуре ЦОД является соблюдение необходимого температурного режима в холодном коридоре (согласно требованиям стандарта TIA-942: 18-27С), которого можно достигнуть с помощью правильного распределения тепла и холода - системы охлаждения.
Какие виды охлаждения ЦОД существуют?
Существует несколько основных видов систем охлаждения ЦОД:
- периметральная система охлаждения;
- рядная система;
- изоляция в пределах одной стойки;
- альтернативные системы охлаждения.
Начнем наш обзор с вариантов охлаждения ЦОД, которые активно внедряются международными компаниями по всему миру – альтернативные системы охлаждения.
Альтернативные системы охлаждения. Сегодня большинство компаний отдают предпочтение хранению данных в виртуальной инфраструктуре, в связи с чем нагрузка на дата-центры с каждым днем возрастает, увеличивая объёмы потребления электроэнергии. В 2018 году практически 3% мирового производства электроэнергии пришлось на питание дата-центров (практически 40% электричества расходуют системы кондиционирования машинных залов.) Именно поэтому специалисты многих стран разрабатывают новые технологии для охлаждения инфраструктуры дата-центров.
Так, климат в определенных регионах нашей планеты позволяет экономить до 80% энергии, которая тратится на функционирование охлаждающих систем. Сюда можно отнести северную часть Европы и несколько зон на севере США.
Компания Google построила дата-центр на месте бывшей бумажной фабрики в Финляндии. Для охлаждения ЦОД специалисты используют воду Финского залива, что позволяет дата-центру работать без энергозатратных чиллеров.
Также в 2014 году Google приобрела компанию DeepMind, которая специализируется на разработке систем искусственного интеллекта, после чего провела целый ряд тестов с оценкой энергоэффективности в разрезе своих дата-центров. По результатам, Google удалось достичь снижения энергопотребления с использованием искусственного интеллекта на 40%.
Компания Facebook построила свой дата-центр в городе Лулео возле полярного круга. Внутри ЦОД используется северный холодный воздух для охлаждения серверов, которые хранят фото, комментарии и лайки тысячей пользователей социальной сети Facebook.
В Норвегии неподалеку от Северного полюса в Северном Ледовитом океане находится Архипелаг Свальбард. Здесь на глубине 300 метров надежно хранятся важнейшие копии данных со всего мира. Вечная мерзлота арктического острова позволяет значительно уменьшить расходы и сэкономить на энергии для поддержания низкой температуры.
Инженеры Microsoft опустили дата-центр на дно Северного моря на глубине 35,7 метров и все с той же целью – экономии на охлаждении. ЦОД потребляют большое количество электроэнергии (420 тераватт, то есть практически 3,5% энергопотребления в мире приходится на дата-центры), а 15−20% этой энергии идет на охлаждение компьютеров. Специалисты Microsoft утверждают, что использование холодных вод Северного моря позволит им сэкономить на системе охлаждения до 40%.
Периметральная система охлаждения. Предусматривает установку кондиционеров по всему периметру машинного зала дата-центра. По данным организации Uptime Institute, только 40% воздуха, который производится кондиционером в дата-центре, попадает непосредственно на вычислительное оборудование (имеется в виду традиционная схема без использования изоляции коридоров). Поэтому с целью повышения эффективности работы системы кондиционирования, помимо основной системы охлаждения используются дополнительные схемы охлаждения: изоляция холодного или горячего коридора.
Изоляция холодного коридора. Такая схема охлаждения предусматривает наличие шкафного или рядного кондиционера. Серверные шкафы размещаются «лицом к лицу», образуя при этом некий коридор, в который из-под фальшпола подается холодный воздух. После воздух забирается IT-оборудованием, установленным в стойке и снова выводится непосредственно к кондиционеру.
Изоляция горячего коридора. Данная схема может использоваться как при наличии, так и отсутствии фальшпола, но обязательным условием в случае использования шкафных кондиционеров является построение системы воздуховодов или фальшпотолка, как отдельного «транспортного канала» для отвода горячего воздуха назад к кондиционеру.
Рядные системы. При использовании такого типа охлаждения, в дата-центре устанавливаются кондиционеры непосредственно в ряду серверных стоек. Это достаточно эффективная система, ведь при ее использовании возможны оба варианты изоляции: как холодного, так и горячего коридора.
Изоляция в пределах одной стойки. Данный вариант охлаждения будет идеальным решением при наличии в дата-центре стоек высокой энергетической плотности (более 10 кВт), а также при наличии разных препятствий для разворачивания системы охлаждения (к примеру, опорных колон).
В нашей стране альтернативные системы охлаждения ЦОД пока не используются, но за счет того, что Украина находится в континентальном климате это позволяет значительно экономить расходы на охлаждение инфраструктуры дата-центров, к примеру за счет использования системы фрикулинга. Несмотря на то, что в разрезе систем охлаждения инновации в нашей стране пока не используются, инфраструктура украинских ЦОД должна отвечать всем правилам и международным требованиям. Одним из таких дата-центров является GigaCenter.
GigaCenter – коммерческий дата-центр, который построен в соответствии с требованиями TIER III и входит в 5-ку лучших на территории Украины. Аудит инфраструктуры дата-центра GigaCenter проводился сертифицированными специалистами Accredited Tier Designer от Uptime Institute в 2016 году.
Внутри GigaCenter используется периметральная система охлаждения, а именно шкафные кондиционеры со схемой изоляции холодного коридора в соответствии с основными требованиями международных стандартов:
- ширина холодного коридора равна 1,2 м (согласно TIA942);
- перед каждым шкафом размещена одна перфорированная плитка;
- температурный режим внутри ЦОД контролируется специалистами 24/7 и в среднем равен 20С;
- влажность также соблюдается в пределах нормы – 40-60%.
Также клиенты собственными глазами могут убедится в профессиональном подходе инженеров и надежности дата-центра GigaCenter, посетив экскурсию в ЦОД. Наши эксперты познакомят вас с основами работы дата-центров, расскажут о главных составляющих инфраструктуры ЦОД и проведут теми самыми машинными залами с изоляцией холодных и горячих коридоров.
Размещайте свои данные надежно вместе с командой профессиональных инженеров дата-центра GigaCenter!
Комментарии
GigaCenter
Читать больше
GigaCenter
Ваш комментарий