Все Insights

AI-инфраструктура: дата-центры, энергетика, охлаждение — инвестиционный тезис

Инфраструктурный бум AI: капитальные расходы гиперскейлеров превышают $150 млрд, а энергетический голод дата-центров меняет глобальный энергобаланс

Aravana··16 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
Как вам материал?

Введение: инфраструктурное десятилетие

В истории технологий каждая крупная платформенная смена начиналась с массивного инфраструктурного цикла. Электрификация в конце XIX века потребовала строительства электростанций и линий электропередач. Интернет в 1990-х — прокладки оптоволоконных кабелей и строительства дата-центров. Мобильная эра — развёртывания сотовых вышек и производства смартфонов. AI-эра не исключение: она требует беспрецедентных инвестиций в вычислительную инфраструктуру.

По данным Goldman Sachs, совокупные капитальные расходы на AI-инфраструктуру в 2025-2030 годах составят $1,5-2 трлн. Это сопоставимо со всеми глобальными инвестициями в нефтегазовую инфраструктуру за последние 15 лет. Инвестор, который понимает структуру этого рынка и умеет выбирать правильные точки входа, имеет шанс на доходность, сопоставимую с инвестициями в инфраструктуру интернета в 1995-2000 годах.

Капитальные расходы гиперскейлеров: масштаб потрясает

Пятёрка крупнейших технологических компаний — Microsoft, Google, Amazon, Meta и Apple — в совокупности планирует потратить более $300 млрд на капитальные расходы в 2026 году. Львиная доля этих инвестиций направлена на AI-инфраструктуру. Microsoft объявила о $80 млрд CAPEX, из которых $65 млрд — на дата-центры для AI. Google — $75 млрд. Amazon Web Services — $60 млрд. Meta — $45 млрд.

Эти цифры превосходят ожидания аналитиков, которые ещё два года назад прогнозировали совокупный CAPEX на уровне $150-180 млрд. Рост обусловлен экспоненциальным увеличением спроса на AI-вычисления: обучение моделей следующего поколения требует в 10-100 раз больше compute по сравнению с предыдущими. GPT-4 потребовал порядка $100 млн на обучение; GPT-5, по оценкам, потребует $500 млн — $1 млрд.

Помимо гиперскейлеров, огромные инвестиции идут от специализированных AI-облачных провайдеров. CoreWeave, стартап, который начинал как криптомайнер, привлёк $7,5 млрд и подал на IPO с целевой оценкой $35 млрд. Lambda Labs привлёк $1,5 млрд. Crusoe Energy, строящая дата-центры на возобновляемой энергии, привлёк $700 млн.

GPU: сердце AI-инфраструктуры

NVIDIA остаётся бесспорным лидером рынка AI-ускорителей с долей свыше 80%. Её выручка от продаж чипов для дата-центров в 2025 финансовом году превысила $100 млрд — рост в 5 раз за два года. Текущее поколение чипов Blackwell (B100, B200, GB200) обеспечивает в 4 раза более высокую производительность инференса по сравнению с предыдущим Hopper.

Однако конкуренция усиливается. AMD с чипами MI300X и MI350 занимает около 10-12% рынка и активно наращивает присутствие в крупнейших облачных провайдерах. Intel, несмотря на трудности, продвигает Gaudi 3. Стартапы предлагают альтернативные архитектуры: Cerebras — wafer-scale чипы, Groq — детерминистический инференс с рекордно низкой задержкой, SambaNova — рекуррентные архитектуры.

Отдельный тренд — разработка собственных AI-чипов гиперскейлерами. Google использует TPU v5p и разрабатывает v6 (Trillium). Amazon — Trainium 2. Microsoft — Maia 100. Meta — MTIA. Это снижает зависимость от NVIDIA и давит на маржу поставщиков. Для инвестора это означает, что NVIDIA — по-прежнему лучшая ставка на краткосрочном горизонте, но диверсификация в альтернативных производителей разумна.

Электроэнергия: ахиллесова пята AI

AI-дата-центры потребляют колоссальное количество электроэнергии. Один кластер из 100 000 GPU Blackwell потребляет 150-200 МВт — столько же, сколько небольшой город. По прогнозам Международного энергетического агентства (IEA), к 2028 году дата-центры будут потреблять 1 000-1 300 ТВт-ч в год — больше, чем Япония или Германия.

Это создаёт колоссальный инвестиционный тезис в энергетике. Microsoft заключила 20-летний контракт на покупку электроэнергии с перезапущенной АЭС Three Mile Island. Amazon инвестировала в строительство малых модульных реакторов (SMR) от NuScale и X-energy. Google подписала контракт с Kairos Power на поставку электроэнергии от SMR к 2030 году.

В секторе ядерной энергии наблюдается ренессанс, напрямую связанный с AI. Акции Constellation Energy, крупнейшего оператора АЭС в США, выросли на 300% за два года. Cameco, крупнейший производитель урана, — на 250%. Стартапы в области термоядерного синтеза — Commonwealth Fusion Systems ($2 млрд привлечено), Helion Energy (контракт с Microsoft), TAE Technologies — привлекают рекордное финансирование.

Возобновляемая энергетика также выигрывает: NextEra Energy, Brookfield Renewable, AES Corporation заключают долгосрочные контракты с технологическими компаниями. Стартапы вроде Crusoe Energy строят дата-центры рядом с месторождениями природного газа, используя попутный газ, который иначе сжигался бы.

Охлаждение: скрытый бенефициар AI-бума

Плотность мощности современных AI-серверов достигает 100-150 кВт на стойку — в 10 раз больше, чем у традиционных серверов. Воздушное охлаждение при такой плотности неэффективно: его предел — около 30-40 кВт на стойку. Это делает жидкостное охлаждение обязательным компонентом AI-инфраструктуры.

Рынок жидкостного охлаждения для дата-центров оценивается в $5 млрд в 2026 году с прогнозом роста до $20 млрд к 2030 году (CAGR 40%). Ключевые игроки: CoolIT Systems (лидер в direct liquid cooling, привлёк $100 млн), GRC (immersion cooling), Iceotope Technologies, Asetek. Vertiv Holdings — публичная компания, крупнейший поставщик инфраструктуры охлаждения для дата-центров, акции которой выросли на 400% с 2023 года.

NVIDIA активно продвигает жидкостное охлаждение для своих GPU: серверы GB200 NVL72 оптимизированы именно под жидкостное охлаждение. Это фактически делает liquid cooling стандартом для новых AI-кластеров.

Сетевая инфраструктура: пропускная способность решает

Обучение крупных AI-моделей требует синхронизации десятков тысяч GPU, и скорость межсоединений становится критическим узким местом. NVIDIA InfiniBand — доминирующий стандарт для AI-кластеров, обеспечивающий пропускную способность до 400 Гбит/с на порт. Однако Ethernet-альтернативы набирают силу: Ultra Ethernet Consortium, поддерживаемый AMD, Broadcom, Intel и Microsoft, продвигает стандарт Ultra Ethernet для AI.

Оптическая связь — ещё один бенефициар. Coherent Corp, II-VI (ныне часть Coherent), Lumentum, Broadcom (оптические трансиверы) — все показывают рекордные продажи. Стартапы Lightmatter и Ayar Labs разрабатывают оптические интерконнекты нового поколения, способные обеспечить на порядок большую пропускную способность при меньшем энергопотреблении.

Инвестиционные инструменты и точки входа

Для публичных инвесторов: NVIDIA, AMD, Broadcom, Vertiv Holdings, Constellation Energy, Eaton Corporation (электрическая инфраструктура), Schneider Electric. Для венчурных: CoreWeave, Lambda Labs, Crusoe Energy, CoolIT, Lightmatter — все на поздних стадиях, ближе к IPO.

ETF-подход: Global X Data Center REITs & Digital Infrastructure ETF (VPN), First Trust Cloud Computing ETF (SKYY). Тематические фонды: Brookfield Asset Management запустил специализированный фонд AI-инфраструктуры на $15 млрд.

Риски и ограничения

Главный риск — перенасыщение. История строительства оптоволокна в конце 1990-х показывает, что инфраструктурные бумы могут заканчиваться болезненными коррекциями. Если рост спроса на AI-вычисления замедлится (например, из-за прорывов в алгоритмической эффективности), избыточные мощности приведут к обвалу цен.

Второй риск — геополитический. Экспортные ограничения США на чипы для Китая сужают рынок для NVIDIA и AMD. Ответные меры Китая (ограничения на экспорт редкоземельных металлов, необходимых для производства магнитов и электроники) могут нарушить цепочки поставок.

Третий риск — экологический. Энергопотребление AI-дата-центров вызывает растущую общественную критику. Регуляторы в Ирландии, Нидерландах и Сингапуре уже ограничивают строительство новых дата-центров. Углеродный след AI может стать серьёзным репутационным и регуляторным риском.

Заключение: инфраструктура как фундамент AI-эры

AI-инфраструктура — это самая надёжная ставка на рост искусственного интеллекта. Независимо от того, какая модель или приложение победит в конкурентной борьбе, всем нужны GPU, электричество, охлаждение и сети. Инвестор, который грамотно распределяет капитал по всей цепочке — от чипов до охлаждения, от энергетики до дата-центров — получает экспозицию на самый быстрорастущий сегмент мировой экономики при относительно умеренном риске.

Ключевой вопрос — тайминг. Текущие мультипликаторы многих инфраструктурных компаний (NVIDIA торгуется с P/E около 35, Vertiv — около 50) уже включают значительный рост. Однако масштаб предстоящих инвестиций ($1,5-2 трлн за 5 лет) настолько велик, что даже при текущих оценках потенциал роста сохраняется. Как сказал Дженсен Хуанг на GTC 2026: «Мы находимся в начале инфраструктурного цикла, который определит следующие 20 лет вычислений».

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Где деньги в AI: инфраструктура, модели и приложения

Анализ цепочки создания стоимости в индустрии искусственного интеллекта: от чипов и дата-центров до фундаментальных моделей и прикладных решений. Где концентрируются доходы, маржинальность и инвестиционные возможности.

·18 мин

AI-стек: от чипов до приложений — кто зарабатывает на каждом уровне

Пятиуровневая модель AI-стека: кремний, облачная инфраструктура, модели, middleware и приложения. Детальный разбор ключевых игроков, выручки и инвестиционных возможностей на каждом уровне.

·20 мин

Публичные компании AI: NVIDIA, Microsoft, Alphabet, Meta, Amazon

Глубокий анализ пяти крупнейших публичных AI-компаний: выручка от AI, стратегия, конкурентные преимущества, рыночная оценка и перспективы. Также: AMD, Palantir, Snowflake и кандидаты на IPO.

·22 мин