AI и энергетика: дата-центры потребляют как целые страны, но решения уже есть
Один запрос к GPT требует в 10 раз больше энергии, чем поиск Google. Ядерная энергия, liquid cooling и efficiency — ответы индустрии.
Энергопотребление AI вышло за рамки академической дискуссии: дата-центры AI потребляют электричество на уровне небольших стран. Один запрос к GPT-4 требует в 10 раз больше энергии, чем поисковый запрос Google. При миллиардах запросов в день это — серьёзная проблема.
Ответ индустрии — трёхуровневый. Уровень 1: эффективность моделей. Маленькие модели (SLM) и техники квантизации сокращают потребление в 5-10 раз при минимальной потере качества. Уровень 2: охлаждение. Liquid cooling (жидкостное охлаждение) снижает энергозатраты на охлаждение на 40-50%.
Уровень 3: источники энергии. Microsoft подписала контракт с Constellation Energy на возобновление работы реактора Three Mile Island. Amazon инвестирует в малые модульные ядерные реакторы. Google закупает геотермальную энергию от стартапа Fervo Energy.
Парадокс: AI может одновременно увеличивать потребление энергии (обучение моделей) и снижать его (оптимизация энергосистем, умные сети, предиктивное управление потреблением). Вопрос — какой из этих трендов победит. Пока — потребление растёт быстрее оптимизации.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
- AI и энергия: ядерные реакторы для дата-центров
Первая статья обозревает проблему и спектр решений. Вторая углубляется именно в ядерный вариант — наиболее масштабный и обсуждаемый.
- Morgan Stanley предупреждает: AI-прорыв 2026 года шокирует рынки
Morgan Stanley прогнозирует дефицит в 9-18 ГВт. Статья об энергетике описывает тот же кризис с технической стороны и показывает решения.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.