Кастомный кремний: Google TPU v6, Amazon Trainium 3, Microsoft Maia 2

Гиперскейлеры развивают собственные AI-чипы, снижая зависимость от NVIDIA. Сравниваем TPU v6, Trainium 3 и Maia 2.

Aravana··3 мин

Крупнейшие облачные провайдеры мира, Google, Amazon и Microsoft, одновременно развивают собственные AI-чипы. Это не совпадение, а стратегическая реакция на зависимость от NVIDIA, которая контролирует ценообразование и распределение самого дефицитного ресурса в технологической индустрии. К 2026 году все три компании вывели на рынок новые поколения кастомных ускорителей, и масштаб их амбиций впечатляет.

Google TPU и Amazon Trainium

Google TPU v6 (Trillium) представляет шестое поколение тензорных процессоров, которые Google разрабатывает с 2015 года. TPU v6 предлагает производительность свыше 900 терафлопс для операций BF16 и 192 ГБ памяти HBM3E на чип. Ключевое преимущество Google: вертикальная интеграция. TPU используется не только для внешних клиентов Google Cloud, но и для всех внутренних сервисов Google, от поиска до YouTube. Это обеспечивает гарантированный масштаб, недоступный стартапам.

Amazon Trainium 3, третье поколение AI-чипа AWS, нацелен на снижение стоимости обучения и inference. Amazon заявляет, что Trainium 3 обеспечивает в 4 раза большую производительность на доллар по сравнению с предыдущим поколением. Чип интегрирован с экосистемой AWS, включая SageMaker, Bedrock и собственную систему интерконнектов NeuronLink. Стратегия Amazon: не конкурировать с NVIDIA по абсолютной производительности, а предложить лучшую экономику для типичных облачных нагрузок.

Microsoft Maia и зависимость от TSMC

Microsoft Maia 2, второе поколение кастомного AI-чипа, отражает эволюцию компании от чисто облачного провайдера к разработчику собственного кремния. Maia 2 спроектирован совместно с OpenAI для оптимальной работы с моделями GPT. Это дает Microsoft уникальное преимущество: чип, буквально оптимизированный под самые популярные AI-модели в мире. Параллельно Microsoft разрабатывает Cobalt, серверный процессор на базе Arm, для общих вычислительных задач.

Все три компании зависят от TSMC для производства своих чипов. Это создает парадокс: стремясь снизить зависимость от NVIDIA, гиперскейлеры усиливают зависимость от тайваньского производителя. TSMC балансирует заказы от NVIDIA, Apple, AMD, Google, Amazon и Microsoft, распределяя ограниченные производственные мощности на передовых техпроцессах. Геополитические риски вокруг Тайваня добавляют неопределенности всей цепочке поставок.

Программная экосистема остается решающим фактором. NVIDIA CUDA, это не просто набор библиотек, а целая индустрия: миллионы разработчиков, тысячи оптимизированных приложений, десятилетия накопленного опыта. Google компенсирует это через JAX и XLA, которые абстрагируют аппаратный уровень. Amazon развивает Neuron SDK, совместимый с PyTorch. Microsoft интегрирует Maia через ONNX Runtime. Но ни одна из этих экосистем пока не достигла масштабов CUDA.

Экономический эффект и угроза для NVIDIA

Экономический эффект кастомного кремния для гиперскейлеров измеряется миллиардами долларов. По оценкам аналитиков, собственные чипы позволяют снизить стоимость вычислений на 30-50% по сравнению с покупкой GPU у NVIDIA. При совокупных расходах гиперскейлеров на AI-инфраструктуру свыше $200 млрд в год потенциальная экономия составляет $60-100 млрд. Даже с учетом затрат на разработку чипов в $5-10 млрд каждый, инвестиция окупается многократно.

Для NVIDIA рост кастомного кремния у гиперскейлеров, это долгосрочная угроза. Пока Google, Amazon и Microsoft остаются крупнейшими покупателями GPU NVIDIA, но доля собственных чипов в их AI-инфраструктуре растет. По оценкам Bernstein Research, к 2028 году до 30% AI-вычислений гиперскейлеров будет выполняться на кастомных чипах. NVIDIA отвечает, предлагая все более привлекательные условия крупнейшим клиентам и расширяя экосистему CUDA.

Стартапы и средний бизнес, не имеющие ресурсов для разработки собственных чипов, продолжат зависеть от NVIDIA и облачных провайдеров. Кастомный кремний, это привилегия компаний с оборотом в сотни миллиардов долларов и внутренними командами разработчиков чипов численностью в тысячи человек. Для остальных участников рынка вопрос сводится к выбору между GPU NVIDIA и облачными экземплярами на базе TPU, Trainium или Maia.

Вывод: развитие кастомного кремния у гиперскейлеров, это здоровая реакция рынка на монополию NVIDIA. Конкуренция снижает цены, стимулирует инновации и уменьшает системные риски зависимости от одного поставщика. При этом NVIDIA сохранит лидерство в обозримом будущем благодаря экосистеме CUDA и универсальности своих GPU. Мир AI-чипов движется к многополярности, где несколько архитектур сосуществуют, обслуживая разные сегменты рынка. Это хорошо для индустрии в целом.

Для наблюдателей за рынком важно отслеживать не только анонсы, но и реальное развертывание. Google утверждает, что TPU обрабатывает более 20% его внутренних AI-нагрузок. Amazon сообщает о «значительном» росте использования Trainium клиентами AWS. Microsoft пока не раскрывает конкретных цифр по Maia. Реальная доля кастомного кремния в AI-вычислениях, это метрика, которая определит, насколько успешна стратегия де-NVIDIA-зации.

Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
Как вам материал?

Читайте также

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

IBM: 64% CEO принимают стратегические решения на основе AI

Исследование IBM: 64% CEO глобальных компаний уже принимают стратегические решения на основе AI — не изучают, не тестируют, а принимают.

·1 мин

Китай: четыре открытые AI-модели за 12 дней дешевле Claude в 4 раза

DeepSeek V4 Pro, Kimi K2.6, GLM-5.1, MiniMax M2.7 — паритет с западным фронтиром в кодинге при стоимости в 4 раза ниже Claude Opus 4.7.

·1 мин

OpenAI заблокировал GPT-5.5-Cyber — как Anthropic с Mythos, которую сам критиковал

OpenAI ограничил GPT-5.5-Cyber — повторив подход Anthropic с Mythos, который сам публично критиковал.

·1 мин