На фоне бума искусственного интеллекта строительство новых дата-центров резко возросло, и это не обходится без последствий: некоторые сообщества, граничащие с этими объектами, сейчас сталкиваются с нехваткой воды и перегрузкой электросетей. Хотя технологический след дата-центров растет десятилетиями, генеративный ИИ, похоже, довел воздействие этих операций до катастрофических масштабов. Что именно делает эти новые дата-центры таким бременем для окружающей среды и существующей инфраструктуры, и можем ли мы что-нибудь с этим сделать?
Чипы
Индустрия считает, что ИИ проникнет во все сферы нашей жизни, поэтому необходимо создать достаточные мощности для удовлетворения этого ожидаемого спроса. Но оборудование, используемое для работы ИИ, требует гораздо больше ресурсов, чем стандартные вычислительные центры облачных технологий, что требует кардинального изменения подхода к проектированию дата-центров.
Обычно самой важной частью компьютера является его «мозг» — центральный процессор (ЦП). Он предназначен для выполнения широкого спектра задач, решая их поочередно. Представьте ЦП как однополосную автомагистраль, по которой каждое транспортное средство, независимо от размера, может добраться из пункта А в пункт Б с невероятной скоростью. Вместо этого ИИ опирается на графические процессоры (ГП), которые представляют собой кластеры меньших, более специализированных процессоров, работающих параллельно. В нашем примере ГП — это тысячеполосная автомагистраль со скоростным ограничением всего 30 миль в час. Оба пытаются доставить огромное количество условных транспортных средств к месту назначения за короткое время, но они используют диаметрально противоположные подходы к решению этой задачи.
Фил Берр, руководитель отдела продуктов в Lumai, британской компании, стремящейся заменить традиционные ГП оптическими процессорами, пояснил: «В ИИ вы многократно выполняете похожие операции, и вы можете делать это параллельно по всему набору данных». Это дает ГП преимущество перед ЦП в крупных, но фундаментально повторяющихся задачах, таких как графика, выполнение моделей ИИ и майнинг криптовалют. «Вы можете очень быстро обрабатывать большой объем данных, но при этом каждый раз выполняется одинаковый объем обработки», — сказал он.
Подобно тому, как автомагистраль с тысячей полос была бы довольно расточительной, чем мощнее становятся ГП, тем больше энергии они потребляют. «В прошлом, по мере [развития ЦП], вы могли разместить больше транзисторов на устройстве, но общее энергопотребление оставалось примерно прежним», — сказал Берр. Они также оснащены «специализированными блоками, которые быстрее выполняют [определенную] работу, чтобы чип мог быстрее вернуться в режим ожидания». По сравнению с этим, «каждая итерация ГП имеет все больше и больше транзисторов, но при каждом обновлении энергопотребление скачкообразно растет, потому что добиться прогресса в этих процессах сложно». Они не только физически больше, что приводит к увеличению энергопотребления, но и «обычно активируют все вычислительные блоки одновременно», — сказал Берр.
В 2024 году Национальная лаборатория Лоуренса Беркли опубликовала предписанный Конгрессом отчет об энергопотреблении дата-центров. Отчет выявил резкое увеличение потребления электроэнергии дата-центрами по мере распространения ГП. Потребление энергии с 2014 по 2016 год оставалось стабильным на уровне около 60 ТВт⋅ч, но начало расти в 2018 году до 76 ТВт⋅ч, а к 2023 году подскочило до 176 ТВт⋅ч. Всего за пять лет потребление энергии дата-центрами более чем удвоилось с 1,9% от общего объема США до почти 4,4%, и этот показатель, по прогнозам, достигнет 12% к началу 2030-х годов.
Тепло
Как и нить накаливания лампочки, при прохождении электричества через кремний компьютерных чипов оно встречает сопротивление, выделяя тепло. Продолжая нашу метафору энергоэффективности, ЦП здесь ближе к современным светодиодам, в то время как ГП, подобно старым лампам накаливания, теряют огромную часть своей мощности из-за сопротивления. Новейшее поколение дата-центров ИИ заполнено стойками с ГП, в зависимости от потребностей и бюджета владельца, каждая из которых выделяет, как описал Берр, «огромное количество тепла».
Тепло — это не просто нежелательный побочный продукт: если чипы не охлаждать, они столкнутся с проблемами производительности и срока службы. Американское общество инженеров по отоплению, охлаждению и кондиционированию воздуха (ASHRAE) публикует руководства для операторов дата-центров. Оно рекомендует поддерживать температуру в серверных комнатах в пределах от 18 до 27 градусов Цельсия (от 64,4 до 80,6 градусов по Фаренгейту). Учитывая огромный объем тепла, выделяемого ГП, поддержание такой температуры требует интенсивных инженерных решений и большого количества энергии.
Большинство дата-центров используют несколько методов для поддержания оптимальной температуры своего оборудования. Один из старейших способов максимизировать эффективность кондиционирования воздуха — это техника разделения потоков горячего и холодного воздуха. По сути, холодный воздух подается через серверные стойки для их охлаждения, а горячий воздух, который выделяют серверы, отводится для охлаждения и рециркуляции.
Многие дата-центры, особенно в США, полагаются на охлаждающий эффект, возникающий при переходе воды из жидкого состояния в газообразное. Это достигается путем пропускания горячего воздуха через влажную среду для облегчения испарения и подачи охлажденного воздуха в серверную комнату — метод, известный как прямое испарительное охлаждение. Существует также непрямое испарительное охлаждение, которое работает аналогично, но добавляет теплообменник — устройство, используемое для передачи тепла между различными средами. В такой системе тепло от теплого воздуха передается и охлаждается отдельно от серверной комнаты, чтобы избежать повышения уровня влажности внутри помещения.
Отчасти из-за своих потребностей в охлаждении дата-центры имеют огромный водный след. Отчет Лоуренса Беркли показал, что в 2014 году дата-центры США потребляли 21,2 миллиарда литров воды. К 2018 году эта цифра возросла до 66 миллиардов литров, большая часть из которых была отнесена к так называемым «гипермасштабным» объектам, включая объекты, ориентированные на ИИ. В 2023 году традиционные дата-центры США, по сообщениям, потребили 10,56 миллиарда литров воды, в то время как объекты ИИ использовали около 55,4 миллиарда литров. Прогнозы отчета предполагают, что к 2028 году дата-центры ИИ будут потреблять до 124 миллиардов литров воды.
«В совокупности дата-центры входят в десятку крупнейших потребителей воды среди промышленных или коммерческих отраслей в США», — согласно исследованию 2021 года, опубликованному в журнале Environmental Research Letters. Около одной пятой этих дата-центров используют воду из водоносных горизонтов, находящихся в условиях дефицита, то есть из районов, где спрос на воду может превышать естественное предложение.
Большая часть воды, потребляемой дата-центрами, испаряется и не восполняется немедленно, а остальная часть поступает на очистные сооружения. Как объяснили трое ученых в редакционной статье для The Dallas Morning News, дата-центры «фактически изымают [питьевую воду] из местного водного цикла». Вода, используемая в процессе охлаждения, обычно обрабатывается химикатами, такими как ингибиторы коррозии и биоциды, которые предотвращают рост бактерий. Образующиеся сточные воды часто содержат загрязняющие вещества, поэтому их нельзя повторно использовать для потребления человеком или сельского хозяйства.
И использование воды дата-центрами выходит далеко за рамки охлаждения. Значительно большая доля их водного следа может быть отнесена на счет косвенного использования, в основном за счет электроэнергии, вырабатываемой электростанциями, а также за счет коммунальных служб по очистке сточных вод. На них приходится около трех четвертей водного следа дата-центра, отмечается в исследовании. Электростанции используют воду различными способами, в основном для охлаждения и для производства пара, необходимого для вращения их турбин, генерирующих электроэнергию. По данным авторов, на 1 мегаватт-час энергии, потребляемой дата-центрами в США, в среднем приходится 7,1 кубических метра воды.
«Дата-центры косвенно зависят от воды из каждого штата континентальной части США, большая часть которой поступает с электростанций, забирающих воду из субаквальных бассейнов прибрежных штатов на востоке и западе», — объясняют авторы. Для адекватного решения проблемы с водой необходимо также обуздать энергопотребление.
Изучение альтернатив
Одним из основных подходов к снижению огромного водного следа этих систем является использование замкнутого жидкостного охлаждения. Оно уже повсеместно используется в небольших масштабах в высокопроизводительных ПК, где компоненты, выделяющие тепло, такие как ЦП и ГП, имеют большие теплообменники, через которые прокачивается жидкость. Жидкость отводит тепло, а затем должна быть охлаждена через другой теплообменник или холодильную установку, прежде чем будет снова циркулировать.
Жидкостное охлаждение становится все более распространенным, особенно в дата-центрах ИИ, учитывая тепло, выделяемое ГП. За исключением механических проблем, таких как утечки, и воды, необходимой для общего функционирования объекта, замкнутые системы не испытывают потери воды и поэтому предъявляют более разумные требования к местным водным ресурсам. Прямое жидкостное охлаждение чипов резко сокращает потенциальное потребление воды дата-центром и более эффективно отводит тепло, чем традиционные системы воздушного охлаждения. В последние годы такие компании, как Google, NVIDIA и Microsoft продвигают системы жидкостного охлаждения как более устойчивый путь вперед. А исследователи изучают способы применения этого подхода на еще более детальном уровне для борьбы с теплом непосредственно у источника.
В то время как холодные пластины (металлические пластины с трубками или внутренними каналами для протекания охлаждающей жидкости) обычно используются в системах жидкостного охлаждения для отвода тепла от электроники, Microsoft тестирует систему охлаждения на основе микрофлюидики, в которой охлаждающая жидкость проходит по крошечным каналам на задней стороне самого чипа. В лаборатории эта система показала «до трех раз лучшую эффективность отвода тепла по сравнению с холодными пластинами», и компания заявила, что она «может эффективно охлаждать сервер, работающий с основными службами для имитации совещания Teams». В блог-посте о результатах было отмечено: «микрофлюидика также снизила максимальное повышение температуры кремния внутри ГП на 65 процентов, хотя это будет зависеть от типа чипа».
Другой вариант — «бесплатное» охлаждение, то есть использование естественных условий окружающей среды в месте расположения дата-центра для охлаждения. Воздушное бесплатное охлаждение использует наружный воздух в холодных регионах, а водяное — холодные источники воды, такие как морская вода. Некоторые объекты сочетают это со сбором дождевой воды для других нужд, например, для увлажнения.

Карта кампуса Start Campus
(Start Campus)
Start Campus, проект дата-центра в Португалии, расположен на месте бывшей угольной электростанции и использует большую часть ее старой инфраструктуры. Вместо простого использования замкнутого цикла, высокие температуры потребуют взаимодействия замкнутой системы с открытым циклом. Когда кампус будет полностью функционировать, его тепло будет передаваться примерно 1,4 миллионам кубических тонн морской воды в день. Омер Уилсон, директор по маркетингу Start Campus, заявил, что к моменту возвращения воды в ее источник температура будет такой же, как у окружающей морской воды. Start Campus также обязался, что этот процесс не приведет к значительной потере воды.
Существует еще один новый метод охлаждения — погружение, при котором вычислительное оборудование, как вы уже догадались, погружается в непроводящую жидкость, подходящую для отвода тепла. Уилсон описал его как относительно нишевый подход, используемый в некоторых приложениях для майнинга криптовалют, но не применяемый на промышленных объектах.
Чтобы справиться с потребностями как в энергии, так и в охлаждении, некоторые исследователи утверждают, что индустрия должна перейти на возобновляемые источники. «Прямое подключение объектов дата-центров к источникам энергии ветра и солнца обеспечивает минимизацию водного и углеродного следа», — написали авторы упомянутого исследования Environmental Research. Даже покупка сертификатов на возобновляемую энергию, каждый из которых представляет собой один мегаватт-час электроэнергии, произведенной из возобновляемого источника и поставляемой в сеть, может помочь со временем переориентировать сеть на эти источники, добавили они. «Рабочие нагрузки дата-центров могут мигрировать между дата-центрами, чтобы соответствовать той части сети, где поставки возобновляемой электроэнергии превышают мгновенный спрос».
Геотермальные ресурсы начинают выглядеть особенно многообещающе. Согласно недавнему отчету Rhodium Group, геотермальная энергия может удовлетворить до 64% прогнозируемого роста спроса на электроэнергию дата-центров в США «к началу 2030-х годов». На западе США геотермальная энергия может удовлетворить 100% роста спроса в таких районах, как Финикс, Даллас-Форт-Уэрт и Лас-Вегас.
Для охлаждения геотермальные тепловые насосы могут использоваться для «использования постоянно низких температур», найденных на глубине сотен футов под поверхностью. Или, в местах, где имеются неглубокие водоносные горизонты, дата-центры могут использовать геотермальные абсорбционные чиллеры. Они полагаются на низкотемпературное тепло на меньшей глубине, «для запуска химической реакции, которая производит водяной пар», — объясняется в отчете. «Этот водяной пар охлаждается при прохождении через конденсатор и охлаждает ИТ-компоненты дата-центра за счет испарения».
Iron Mountain Data Centers эксплуатирует дата-центр с геотермальным охлаждением в Бойерсе, Пенсильвания, на месте старой известняковой шахты. Подземный резервуар площадью 35 акров обеспечивает круглогодичное снабжение прохладной водой. Геотермальная энергия, возможно, еще не является широко распространенным решением, но она набирает обороты. В 2024 году Meta объявила о партнерстве с Sage Geosystems для обеспечения своих дата-центров геотермальной энергией мощностью до 150 МВт, начиная с 2027 года.
Помимо оборудования
Хотя новые методы охлаждения, несомненно, помогут снизить чрезмерные потребности дата-центров ИИ в ресурсах, первым шагом к значительным изменениям является прозрачность, по мнению Виджая Гадепалли, старшего научного сотрудника Лаборатории сверхкомпьютерных вычислений MIT Линкольна. Компании, занимающиеся ИИ, должны быть откровенны в отношении выбросов и использования ресурсов, связанных с их деятельностью, чтобы дать людям четкое представление об их «следе».
Затем нужно рассмотреть аппаратное обеспечение. Использование более интеллектуального дизайна чипов, то есть процессоров с лучшими характеристиками производительности, может значительно повысить экологичность дата-центров. «Это огромная область инноваций прямо сейчас», — сказал Гадепалли. А крупные дата-центры часто «работают не полностью загруженными», с большим количеством энергии, которая не распределяется эффективно. Вместо того чтобы поддаваться тенденции к строительству большего числа таких объектов, индустрия должна сначала лучше использовать существующие мощности дата-центров.
Аналогично, многие современные модели ИИ значительно превосходят по мощности задачи, для которых они используются. Нынешний подход «подобен нарезке гамбургера бензопилой», — сказал Гадепалли. «Работает ли? Конечно… но это определенно избыточно». Так быть не должно. «Мы во многих случаях обнаружили, что можно использовать меньшую, но настроенную модель для достижения аналогичной производительности по сравнению с гораздо большей моделью», — сказал Гадепалли, отмечая, что это особенно верно для новых «агентных» систем. «Вы часто пробуете тысячи различных параметров или различных комбинаций вещей, чтобы найти лучший вариант, и, будучи немного более умными, мы могли бы отбросить или, по сути, прекратить множество рабочих нагрузок или множество таких комбинаций, которые не приводили к правильному ответу».
Каждый из этих ненужных параметров — это не просто вычислительный тупик, это еще один шаг к веерным отключениям, нехватке питьевой воды и росту коммунальных платежей для окружающих сообществ. Как сказал Гадепалли: «Мы просто строим все больше и больше, не задумываясь: «Действительно ли нам это нужно?»»