Технологии охлаждения в ЦОДах
Каталог TAdviser Дата-центров России и технологий для дата центров.
Содержание |
Дата-центры превратились в центральную нервную систему современной корпорации. Они выполняют огромный объем работы. К примеру, ЦОД компании Google ежедневно обрабатывает около миллиарда операций поиска, а это требует гигантских объемов энергии. Ежедневное энергопотребление этой крупнейшей в мире поисковой системы составляет 260 млн ватт. Примерно такой же объем энергии расходуют 200 тысяч индивидуальных жилых домов.
Стоимость электроэнергии (именно энергии, а не физических устройств и сетевых соединений) составляет самую большую статью расходов любого центра обработки данных. До половины этой суммы расходуется на питание огромных систем кондиционирования воздуха, охлаждающих температуру внутри ЦОДа до уровня в 16-23 градусов Цельсия, считающегося оптимальным для нормального функционирования вычислительных устройств при влажности в 40-55 процентов.
Чтобы сократить расходы энергии, передовые компании испытывают новые методы охлаждения. Достигаемая при этом экономия может быть весьма значительной, к тому же такие проекты могут обеспечить компании репутацию защитника окружающей среды. В большинстве современных центров обработки данных для охлаждения используется атмосферный воздух, дополнительно охлаждаемый в помещениях ЦОДа. Компании стремятся к тому, чтобы максимальная температура атмосферного воздуха не превышала 25 градусов Цельсия, ибо охлаждение воздуха всего на один градус приводит к 4-процентному росту энергетических расходов.
2024
Разработана новая технология охлаждения ЦОДов, которая сокращает энергопотребление на 13%
В конце октября 2024 года группа ученых и инженеров Техасского университета представила новую технологию охлаждения центров обработки данных. Новый «материал термоинтерфейса», изготовленный из смеси жидкого металла и нитрида алюминия, гораздо лучше проводит тепло, чем существующие коммерческие материалы, благодаря чему способен органически отводить тепло от мощных электронных устройств.
Исследователи создали новый охлаждающий материал с помощью специального процесса, называемого механохимией. Этот процесс позволяет жидкому металлу и нитриду алюминия смешиваться в контролируемых условиях, создавая градиентные интерфейсы и облегчая перемещение тепла. Исследователи протестировали новые материалы на небольших лабораторных устройствах, получив впечатляющие результаты: термоинтерфейс способен отвести 2760 Вт тепла с небольшой площади в 16 кв. см. Теперь инженеры намерены масштабировать новую технологию для испытаний и применения в центрах обработки данных.
На охлаждение приходится около 40% энергопотребления ЦОД, или 8 тераватт-часов в год. Исследователи подсчитали, что новая технология может сократить потребность в охлаждении на 13%, что составляет 5% от общего энергопотребления ЦОД. В масштабах всей отрасли это обеспечивает существенную экономию, а рассеивание тепла позволяет значительно увеличить вычислительную мощность.Как с помощью EvaProject и EvaWiki построить прозрачную бесшовную среду для успешной работы крупного холдинга
Ожидается, что взрывной рост ИИ наряду с распространением технологий приведет к значительному увеличению спроса на центры обработки данных. Аналитики Goldman Sachs подсчитали, что к 2030 году спрос на электроэнергию для ЦОД вырастет на 160%. Предполагается, что только технологии ИИ увеличат потребление электроэнергии в ЦОД на 200 тераватт-часов в год в период с 2023 по 2030 год. Новые материалы термоинтерфесов могут частично решить проблему затрат электроэнергии.[1]
Выпущена металлическая пена, которая сокращает дата-центрам потребление энергии на охлаждение на 90%
В конце августа 2024 года компания Apheros представила новую металлическую пену, которая улучшает охлаждение центров обработки данных, на которое приходится почти 40% от общего потребления энергии дата-центрами. Данная технология может улучшить теплообмен систем охлаждения на 90%, тем самым значительно сократив потребление энергии. Подробнее здесь
2023: Объем мирового рынка систем охлаждения дата-центров за год вырос до $3,87 млрд
По итогам 2023 года объем глобального рынка систем жидкостного охлаждения (СЖО) для центров обработки данных достиг $3,87 млрд. Для сравнения, годом ранее затраты в данном сегменте оценивались в $3,32 млрд. Таким образом, зафиксирован рост на уровне 17%. Главными драйверами отрасли названы внедрение высокопроизводительных вычислений (HPC), искусственного интеллекта и облачных сервисов. Об этом говорится в обзоре Market Research Future, обнародованном в начале сентября 2024 года.
На фоне стремительного развития ИИ и увеличения объемов генерируемой информации постоянно растет нагрузка на дата-центры. Это требует установки более мощного оборудования, для отвода тепла от которого необходимы эффективные системы охлаждения. Жидкостные решения позволяют поддерживать оптимальные температуры при одновременном сокращении энергопотребления по сравнению с традиционными воздушными контурами.
Еще одним фактором, стимулирующим продажи СЖО, являются новые стандарты и правительственные инициативы. На работу ЦОД влияют многочисленные нормативные акты, которые определят уровень энергоэффективности и выбросов вредных газов в атмосферу. Жидкостные системы позволяют соблюдать данные требования, одновременно помогая гиперскейлерам и операторам облачных платформ развивать свою вычислительную инфраструктуру. Кроме того, СЖО обеспечивают гораздо меньший уровень шума по сравнению с воздушным охлаждением. Это особенно актуально для компаний, расположенных в промышленных зонах или других местах с высокой плотностью населения. С этой точки зрения жидкостное охлаждение может помочь владельцам ЦОД снизить побочные риски.
Аналитики Market Research Future подразделяют рынок СЖО на решения с использованием воды, специальных хладагентов и диэлектрической жидкости. В 2023 году крупнейшим был сегмент на водной основе: на него пришлось более 60% от общей выручки. Отмечается, что такая охлаждающая среда экономична, легкодоступна и обеспечивает достаточно высокую эффективность. Сегмент на основе хладагента демонстрирует умеренный рост, поскольку существуют строгие экологические правила в отношении использования подобных веществ.
По сфере применения отрасль СЖО сегментирована на гипермасштабные ЦОД, корпоративные дата-центры и колокейшн-площадки. По оценкам, платформы гиперскейлеров будут доминировать на рынке, обеспечив более 40% выручки в 2024 году. Растущий спрос на облачные сервисы и услуги по обработке больших данных стимулирует развитие гипермасштабных объектов, которым требуются высокоэффективные решения для охлаждения. Вместе с тем, полагают авторы исследования, корпоративные ЦОД будут демонстрировать устойчивые темпы роста.
Среди ведущих игроков названы Liebert (Emerson Electric), Green Revolution Cooling, CoolIT Systems, Schneider Electric, Huawei, Fujitsuneutral, Asetek, Allied Control, Systemair, IBM, Vertiv, GEA, Rittal, Danfoss, Dell Technologies. В географическом плане лидером по внедрению СЖО в 2023 году является Северная Америка: это объясняется высоким спросом на услуги обработки данных, обусловленным растущим внедрением облачных вычислений и распространением ИИ-приложений. В Азиатско-Тихоокеанском регионе наблюдается устойчивый рост, что связано с увеличением инвестиций в инфраструктуру дата-центров.
Аналитики полагают, что в дальнейшем показатель CAGR (среднегодовой темп роста в сложных процентах) на рассматриваемом рынке составит 16,5%. В результате, к 2032-му расходы на СЖО для дата-центров поднимутся до $15,3 млрд.[2]
2020: Зеленые ЦОДы пока могут себе позволить только IT-гиганты
Британский журнал Nature предоставил летом 2020 года данные, что ежегодная потребность ЦОДов составляет приблизительно 200 TВт*ч — значение сопоставимо с национальным энергопотреблением некоторых стран. Энергия, которую получают data-центры, не всегда добывается из чистых источников. Китай, занимающий второе место по объему рынка ЦОД, более 70% электроэнергии для нужд data-центров получает от тепловых электростанций, использующих уголь. С каждым годом количество технологических компаний, чей бизнес опирается на ЦОД, увеличивается[3].
Проблема стала настолько серьезной, что появилось устойчивое словосочетание «зеленые data-центры». Если десять лет назад трудности с охлаждением решали по ходу дела, то сейчас ЦОД уже проектируют, сочетая особенности технологии и условия сохранения окружающей среды. Симбиоз цифровых технологий и охраны окружающей среды развивается в двух направлениях. Одно из них подразумевает строительство data-центров с использованием переработанного вторсырья, а также экологически чистых конструкционных материалов. Второе подразумевает создание энергоэффективных инженерных систем.
Выбор площадки строительства ЦОДа свидетельствует о намерениях компании. Главный упор при проектировании Verne Global делался на условие, что его энергопотребление будет обеспечиваться геотермальной энергией. Поэтому и построили data-центр недалеко от гейзера. Во Франкфурте в проекте data-центра Citigroup заложена возможность использовать в качестве хладагента дождевую воду.
Основное энергопотребление data-центров сводится к двум составляющим: IT-нагрузке и системам охлаждения. Фреоновые кондиционеры и чиллер-фанкойлы вытесняются системами с прямым или косвенным фрикулингом. Data-центры Amazon, Google, Facebook используют прямую технологию свободного охлаждения серверных. Это означает, что наружный воздух перед подачей на охлаждение предварительно очищают. Косвенный фрикулинг подразумевает замкнутый охлаждающий цикл.
Microsoft уделяет внимание исследованиям в различных областях. Компания экспериментирует, в том числе, и с системами охлаждения. Ведет поиск альтернативы фрикулингу. Одной из таких попыток можно считать размещение водонепроницаемого ЦОД в океане. Труднодоступность серверной в случае выхода из строя её элементов аннулирует преимущества естественного охлаждения.
Microsoft и другие IT-гиганты обещают сократить углеродный след. В частности, Microsoft заявил о поэтапной ликвидации последствий выбросов диоксида углерода. К 2030 году компания собирается достичь углеродно-нейтрального статуса. В идеале европейские data-центры к 2030 году тоже должны стать углеродно-нейтральными. Одна из датских компаний спроектировала и запустила систему передачи тепла от ЦОДа в городские теплосети. Тепло, вырабатываемое data-центром, используется на 70%. Власти Дании планируют к 2030 году сократить выбросы диоксида углерода. Технология теплопередачи частично оттягивает на себя выполнение этой квоты. В Финляндии, Англии и других странах поступают также: излишки тепла некоторых data-центров используются для обогрева домов. Data-центр IBM в Швейцарии часть своего излишнего тепла отдает для обогрева соседнего бассейна. Таких примеров достаточно, их количество будет расти.
Для data-центров актуально использование солнечной и ветряной энергии. Примером может служить ЦОД интернет-компании в Иллинойсе, обеспечивающей мощности для своих серверов за счет ветрогенератора.
Практика показывает, что развитие зеленых data-центров — вопрос времени. Пока полностью переход на экологически чистую энергию возможен только для ЦОД компаний-гигантов. Они сегодня в большей мере несут экологическую ответственность. Перемены в политике энергетической эффективности неизбежны. Риски, связанные с изменениями, пугают многих. Но с большим опасением надо относиться к конкуренции, где значительную роль будут играть затраты на электроэнергию и соблюдение экологических нормативов
2017
Выведенный из эксплуатации бункер ВВС США в районе Демойна (штат Айова), способный выдержать ядерный удар; заброшенный известняковый карьер в отдаленном районе штата Пенсильвания; три здания площадью около 28 тыс. кв.м каждое, строящиеся недалеко от полярного круга - столь разные, на первый взгляд, объекты уже стали или вскоре станут самыми современными центрами обработки данных[4].
Большой интерес вызывают принципиально новые проекты охлаждения. К примеру, во Франкфурте для дополнительного охлаждения центра обработки данных на его крыше высадили растения (но даже этот ЦОД не отказался от систем кондиционирования воздуха). В новом дата-центре Google, расположенном в финском городе Хамина, для охлаждения используются старые гранитные туннели, через которые вода подавалась на несуществующий ныне целлюлозно-бумажный комбинат. Теперь эта вода охлаждает центр обработки данных, а затем возвращается в Финский залив. А Facebook в стремлении укрепить репутацию экологически ответственной компании опубликовал планы строительства серверной фермы в районе Северного полярного круга, где оборудование будет охлаждаться естественным путем.
Вычислительные и сетевые технологии не привлекают такого внимания, как суперсовременный дизайн некоторых ЦОДов, но и они могут внести значительный вклад в экономию энергии. К примеру, центр обработки данных Cisco в городе Аллен (штат Техас) использует конвергентную инфраструктуру, передающую данные и трафик хранения по единой сети. В результате сокращается количество коммутаторов, адаптеров и кабелей и значительно снижается энергопотребление: чем меньше кабелей, тем свободней обтекают оборудование естественные потоки воздуха, снижая потребность в вентиляторах. Облегчают задачу охлаждения и блейд-серверы, эти компактные аналоги стоечных серверных устройств. Еще больше снижает потребности в энергии виртуализация серверов, позволяя обрабатывать тот же объем информации меньшим количеством физических серверов. В результате кондиционирование воздуха в этом ЦОДе включается лишь тогда, когда температура воздуха в помещениях превышает 25 градусов Цельсия. Для энергопитания офисных помещений используются солнечные батареи. Все это позволяет компании Cisco сократить расходы на охлаждение центра обработки данных на 600 тысяч долларов США в год.
По некоторым прогнозам, к 2020 году выбросы парниковых газов в центрах обработки данных составят 4 процента от общемирового уровня. В настоящее время национальные и международные организации используют для борьбы с выбросами политику "пряника", но если компании не примут решительных мер для сокращения выбросов, "пряник" может быстро смениться "кнутом". Не дожидаясь этого, передовые компании решают проблему разными методами, включая экологически грамотное проектирование зданий и использование более разумных вычислительных и сетевых технологий.
Смотрите также