$690 млрд на AI: гиперскейлеры ставят рекорд инвестиций
Amazon, Microsoft, Google, Meta и другие потратят рекордные $690 млрд на AI-инфраструктуру в 2026 году. Куда уходят эти деньги?
Тип материала: research
Суммарные расходы мировых гиперскейлеров на AI-инфраструктуру в 2026 году достигнут рекордных $690 млрд — это на 42% больше, чем в 2025 году. По данным Dell'Oro Group, основные статьи — строительство дата-центров, закупка GPU и AI-ускорителей, сетевое оборудование и системы охлаждения. Четвёрка лидеров — Amazon ($160 млрд), Microsoft ($140 млрд), Google ($120 млрд) и Meta ($100 млрд) — обеспечивает более 75% всех расходов.
Куда уходят деньги? Примерно 40% — это сами дата-центры: здания, электрические подстанции, системы охлаждения. Один мегаватт мощности дата-центра стоит $10–15 млн в строительстве, а современные AI-кластеры требуют сотни мегаватт. JLL Research подсчитала, что в 2026 году будет введено в эксплуатацию 5.2 ГВт новых мощностей — больше, чем суммарное потребление электричества Дании.
Ещё 35% расходов — это вычислительное оборудование. NVIDIA остаётся главным бенефициаром: компания прогнозирует выручку $200+ млрд в 2026 финансовом году, и большая часть этих денег приходит именно от гиперскейлеров. Но растут и альтернативные поставщики: AMD, Google TPU, Amazon Trainium и Microsoft Maia наращивают присутствие. По оценке CNBC, доля собственных чипов гиперскейлеров вырастет с 10% до 25% к 2028 году.
Аналитики всё чаще задают вопрос: когда эти инвестиции начнут приносить отдачу? Wall Street пока терпелив — AI-бизнесы AWS, Azure и Google Cloud растут на 30–50% год к году. Но Sequoia Capital подсчитала, что для окупаемости текущих инвестиций выручка от AI-сервисов должна достичь $600 млрд в год — а пока она составляет менее $200 млрд. Разрыв сокращается, но он существует.
Независимо от того, когда придёт окупаемость, одно ясно: 2026 год войдёт в историю как момент, когда мировая IT-индустрия совершила крупнейшую ставку за всё время. $690 млрд — это больше, чем ВВП Швеции. И если AI оправдает ожидания, эти инвестиции покажутся скромными.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.
Samsung HBM4: шестое поколение памяти, которое определит скорость AI
Samsung представила чипы HBM4 со скоростью 11.7 Гбит/с — это в 1.8 раза быстрее предыдущего поколения. Гонка за AI-память выходит на новый уровень.
Битва за HBM4: три компании делят будущее AI-памяти
SK Hynix, Samsung и Micron борются за контракты на поставку HBM4 для NVIDIA Vera Rubin. Ставки — десятки миллиардов долларов.
Tata Electronics: Индия строит чиповую империю за $10 млрд
Индия больше не хочет быть только IT-аутсорсером. Tata Electronics строит полупроводниковые заводы, чтобы войти в клуб чипмейкеров.