Представьте: вы просите нейросеть написать письмо. В тот же момент где-то в дата-центре включаются десятки процессоров. Они разогреваются до 80 градусов. Вентиляторы ревут на полной мощности. Счётчик электроэнергии крутится быстрее.
Это не метафора. Это физическая реальность каждого запроса к искусственному интеллекту.
Энергопотребление ИИ стало одной из главных технических проблем 2025 года. Чтобы понять масштаб, нужно разобраться, откуда берутся эти затраты и почему они растут так быстро.
Одна модель потребляет энергию целого города за месяц
Обучение большой языковой модели требует столько же электричества, сколько город на 15 000 человек расходует за месяц. Когда исследователи обучают GPT-4 или Яндекс GPT Pro, они запускают тысячи графических процессоров (GPU) параллельно. Каждый GPU потребляет около 300 ватт. Умножьте на 10 000 чипов. Они работают три недели без остановки.
Представьте чайник, который кипит три недели подряд. Теперь умножьте на 10 000 чайников в одной комнате.
Получается около 1500 мегаватт-часов только на вычисления. Исследование Массачусетского технологического института 2023 года показало: обучение одной крупной модели выбрасывает в атмосферу столько же CO₂, сколько пять автомобилей за весь срок их службы.
Почему так много? Модель обрабатывает триллионы параметров. Она прогоняет через себя петабайты текста. Каждая итерация требует вычисления градиентов, обновления весов, синхронизации между тысячами процессоров.
Математика здесь квадратичная. Удвоение размера модели увеличивает энергопотребление в четыре раза.
Ваш запрос к ChatGPT греет процессоры сильнее кипятка
Обучение происходит один раз, но модель отвечает на запросы миллионы раз в день. Один запрос к крупным языковым моделям потребляет примерно 0,34 ватт-часа по медианной оценке исследований 2025 года.
Звучит несущественно?
Google обрабатывает около 8,5 миллиардов поисковых запросов в день. Если половина из них начнёт использовать ИИ-генерацию ответов, дополнительное потребление составит около 1,4 миллиона кВт·ч в сутки. Это годовое потребление 40 000 российских квартир.
Разница с обычным поиском колоссальная. Традиционный запрос ищет готовые индексы. ИИ-запрос генерирует каждое слово заново. Модель прогоняет вектора через десятки слоёв нейронной сети.
Чем длиннее ответ, тем больше вычислений. Запрос «напиши статью на 1000 слов» требует в сто раз больше энергии, чем «кто изобрёл радио».
Энергопотребление нелинейно зависит от длины входа и выхода. Для очень длинных запросов и ответов энергия на каждый токен (единицу текста) растёт заметно. Тип графического процессора (H100, A100), архитектура модели, оптимизации вроде квантования и батч-обработки влияют на итоговую цифру.
Половина энергии уходит на холод, а не на вычисления
Вычисления составляют только половину энергетического счёта дата-центра. Процессоры работают при температуре 70–80 градусов Цельсия. Без охлаждения они выйдут из строя за минуты.
Те 10 000 кипящих чайников нужно постоянно остужать. Иначе они просто расплавятся.
Современные дата-центры тратят на охлаждение почти столько же энергии, сколько на сами вычисления. Это измеряется метрикой PUE (Power Usage Effectiveness — эффективность использования энергии). PUE показывает, сколько энергии уходит на инфраструктуру относительно полезных вычислений.
Простая арифметика с большими последствиями.
PUE, равный 1,5, означает: на каждые 100 ватт вычислений уходит ещё 50 ватт на охлаждение, электропитание и другие нужды. Средний PUE индустрии составляет 1,5–1,6 по данным Uptime Institute за 2024 год. Современные энергоэффективные дата-центры достигают 1,1–1,3.
Лучшие мировые площадки доходят до PUE, равного 1,1. Средние российские держатся на уровне 1,5.
Дата-центр Яндекса в Мянтсяля (Финляндия) достигает PUE около 1,1 благодаря фрикулингу (использованию холодного наружного воздуха) и рекуперации тепла. Проектная PUE новых российских дата-центров Яндекса также около 1,1. В Москве зимой охлаждать серверы проще: можно использовать наружный воздух. В Краснодаре летом приходится включать мощные системы охлаждения, которые работают как промышленные кондиционеры.
Физика простая: процессор греется, тепло нужно отводить. Чем плотнее упакованы чипы, тем сложнее охлаждение. Серверы с GPU для ИИ выделяют в три раза больше тепла на квадратный метр, чем обычные.
С учётом PUE реальное энергопотребление одного запроса составляет 0,37 Вт·ч при PUE, равном 1,1, и 0,53 Вт·ч при среднеиндустриальном PUE, равном 1,56.
Локальные электросети не справляются с новыми нагрузками
Дата-центры уже потребляют около 1,5% мирового электричества. Глобальное энергопотребление дата-центров в 2024 году составило около 415 тераватт-часов (это 415 миллиардов киловатт-часов — годовое потребление целых стран вроде Испании). По прогнозам Международного энергетического агентства, к 2030 году эта цифра может вырасти до 945 тераватт-часов в сценарии высокого роста ИИ-нагрузок.
Это много. Очень много.
Рост энергопотребления ИИ совпал с глобальным переходом к устойчивой энергетике. Это создаёт противоречие. Если энергия вырабатывается из угля или газа, каждый запрос к нейросети увеличивает выбросы CO₂.
В России ситуация неоднозначная. Большая часть электроэнергии вырабатывается на гидро- и атомных станциях, которые не выбрасывают парниковые газы напрямую. Но локальные сети в некоторых регионах уже перегружены.
В 2021 году жители Иркутска столкнулись с отключениями света. Причина: новый дата-центр для майнинга. Местная сеть не выдержала. Пришлось ограничивать подключение новых мощностей.
По прогнозам аналитиков, потребность в энергообеспечении дата-центров в России вырастет практически в три раза к 2028 году.
Сравнение с другими отраслями показывает масштаб:
- Майнинг биткоина потребляет около 150 тераватт-часов в год
- Все дата-центры мира, включая ИИ, потребляют около 500 тераватт-часов
- Стриминг видео (Netflix, YouTube) требует ещё 200 тераватт-часов
ИИ пока занимает меньшую долю, но растёт быстрее всех. Примерно треть владельцев и операторов дата-центров уже проводят обучение или инференс (применение) ИИ-моделей.
Специальные чипы и умные алгоритмы снижают счета в десять раз
Технологические компании разрабатывают методы, которые снижают энергопотребление без потери качества. Решения уже работают:
- Специализированные чипы: Google разработал TPU (Tensor Processing Unit) — процессоры, заточенные под операции с нейросетями. Яндекс использует собственные ускорители для своих моделей. Эти чипы выполняют только те операции, которые нужны для ИИ, отбрасывая всё лишнее. Потребление в 5–10 раз меньше, чем у универсальных GPU.
- Квантизация моделей: Уменьшает размер модели в четыре раза без существенной потери точности. Вместо 32-битных чисел модель использует 8-битные. Это как сжатие фотографии: детали немного теряются, но общая картина остаётся.
- Дистилляция: Переносит знания большой модели в маленькую. Сначала обучают огромную модель, потом создают компактную версию, которая имитирует её ответы. Маленькая модель работает в десятки раз быстрее и требует меньше энергии.
Microsoft применил машинное обучение для оптимизации охлаждения своих дата-центров. Система DeepMind от Google предсказывает нагрузку и заранее регулирует мощность систем охлаждения. Это снизило энергопотребление на охлаждение на 40%.
Алгоритмы управляют воздушными потоками, перераспределяют вычислительные задачи между серверами, отключают неиспользуемые мощности.
ИИ может экономить больше энергии, чем потребляет сам
ИИ потребляет энергию, но он также помогает её экономить в других областях. Примеры уже работают:
- Логистика: Яндекс.Маршрутизация сокращает пробег курьеров на 15–20%, экономя топливо.
- Энергосети: ИИ управляет электросетями, предсказывая пиковые нагрузки и перераспределяя мощность.
- Прогноз погоды: Модели прогнозируют погоду точнее, что позволяет ветряным и солнечным электростанциям планировать выработку.
Если ИИ снижает общее энергопотребление экономики больше, чем тратит сам, баланс остаётся положительным. Пока что данных для окончательного вывода недостаточно.
Исследователи из Стэнфорда считают, что к 2030 году косвенная экономия может превысить прямые затраты ИИ в три раза. Но это зависит от того, насколько широко технологии внедрятся в энергоэффективные сценарии.
Регулирование тоже играет роль. Европейский союз уже требует от крупных дата-центров раскрывать данные об энергопотреблении и источниках энергии. В России пока таких требований нет, но дискуссия началась.
Инженерная проблема с известными решениями
Энергопотребление ИИ — это не неизбежное зло. Это инженерная задача с известными решениями. Переход дата-центров на возобновляемую энергию, разработка эффективных чипов, оптимизация алгоритмов уже происходят.
Ключевой вопрос не в том, потребляет ли ИИ много энергии. Ключевой вопрос в том, откуда берётся эта энергия и как быстро мы можем сделать систему эффективнее.
Пока рост спроса опережает рост эффективности, давление на энергосистемы будет усиливаться. Но если технологии продолжат развиваться текущими темпами, ИИ может стать частью решения климатических проблем, а не только их источником.
Следующий раз, когда ChatGPT напишет вам письмо, вспомните: где-то в дата-центре процессор нагрелся до 80 градусов. Вопрос не в том, много это или мало. Вопрос в том, откуда берётся энергия и как быстро мы научимся её использовать умнее.

-1.png&w=3840&q=75)






















-1.png&w=1920&q=75)
