Все Insights

Кастомный кремний: Google TPU v6, Amazon Trainium 3, Microsoft Maia 2

Гиперскейлеры развивают собственные AI-чипы, снижая зависимость от NVIDIA. Сравниваем TPU v6, Trainium 3 и Maia 2.

Aravana··5 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn

Крупнейшие облачные провайдеры мира, Google, Amazon и Microsoft, одновременно развивают собственные AI-чипы. Это не совпадение, а стратегическая реакция на зависимость от NVIDIA, которая контролирует ценообразование и распределение самого дефицитного ресурса в технологической индустрии. К 2026 году все три компании вывели на рынок новые поколения кастомных ускорителей, и масштаб их амбиций впечатляет.

Google TPU v6 (Trillium) представляет шестое поколение тензорных процессоров, которые Google разрабатывает с 2015 года. TPU v6 предлагает производительность свыше 900 терафлопс для операций BF16 и 192 ГБ памяти HBM3E на чип. Ключевое преимущество Google: вертикальная интеграция. TPU используется не только для внешних клиентов Google Cloud, но и для всех внутренних сервисов Google, от поиска до YouTube. Это обеспечивает гарантированный масштаб, недоступный стартапам.

Amazon Trainium 3, третье поколение AI-чипа AWS, нацелен на снижение стоимости обучения и inference. Amazon заявляет, что Trainium 3 обеспечивает в 4 раза большую производительность на доллар по сравнению с предыдущим поколением. Чип интегрирован с экосистемой AWS, включая SageMaker, Bedrock и собственную систему интерконнектов NeuronLink. Стратегия Amazon: не конкурировать с NVIDIA по абсолютной производительности, а предложить лучшую экономику для типичных облачных нагрузок.

Microsoft Maia 2, второе поколение кастомного AI-чипа, отражает эволюцию компании от чисто облачного провайдера к разработчику собственного кремния. Maia 2 спроектирован совместно с OpenAI для оптимальной работы с моделями GPT. Это дает Microsoft уникальное преимущество: чип, буквально оптимизированный под самые популярные AI-модели в мире. Параллельно Microsoft разрабатывает Cobalt, серверный процессор на базе Arm, для общих вычислительных задач.

Все три компании зависят от TSMC для производства своих чипов. Это создает парадокс: стремясь снизить зависимость от NVIDIA, гиперскейлеры усиливают зависимость от тайваньского производителя. TSMC балансирует заказы от NVIDIA, Apple, AMD, Google, Amazon и Microsoft, распределяя ограниченные производственные мощности на передовых техпроцессах. Геополитические риски вокруг Тайваня добавляют неопределенности всей цепочке поставок.

Программная экосистема остается решающим фактором. NVIDIA CUDA, это не просто набор библиотек, а целая индустрия: миллионы разработчиков, тысячи оптимизированных приложений, десятилетия накопленного опыта. Google компенсирует это через JAX и XLA, которые абстрагируют аппаратный уровень. Amazon развивает Neuron SDK, совместимый с PyTorch. Microsoft интегрирует Maia через ONNX Runtime. Но ни одна из этих экосистем пока не достигла масштабов CUDA.

Экономический эффект кастомного кремния для гиперскейлеров измеряется миллиардами долларов. По оценкам аналитиков, собственные чипы позволяют снизить стоимость вычислений на 30-50% по сравнению с покупкой GPU у NVIDIA. При совокупных расходах гиперскейлеров на AI-инфраструктуру свыше $200 млрд в год потенциальная экономия составляет $60-100 млрд. Даже с учетом затрат на разработку чипов в $5-10 млрд каждый, инвестиция окупается многократно.

Для NVIDIA рост кастомного кремния у гиперскейлеров, это долгосрочная угроза. Пока Google, Amazon и Microsoft остаются крупнейшими покупателями GPU NVIDIA, но доля собственных чипов в их AI-инфраструктуре растет. По оценкам Bernstein Research, к 2028 году до 30% AI-вычислений гиперскейлеров будет выполняться на кастомных чипах. NVIDIA отвечает, предлагая все более привлекательные условия крупнейшим клиентам и расширяя экосистему CUDA.

Стартапы и средний бизнес, не имеющие ресурсов для разработки собственных чипов, продолжат зависеть от NVIDIA и облачных провайдеров. Кастомный кремний, это привилегия компаний с оборотом в сотни миллиардов долларов и внутренними командами разработчиков чипов численностью в тысячи человек. Для остальных участников рынка вопрос сводится к выбору между GPU NVIDIA и облачными экземплярами на базе TPU, Trainium или Maia.

Вывод: развитие кастомного кремния у гиперскейлеров, это здоровая реакция рынка на монополию NVIDIA. Конкуренция снижает цены, стимулирует инновации и уменьшает системные риски зависимости от одного поставщика. При этом NVIDIA сохранит лидерство в обозримом будущем благодаря экосистеме CUDA и универсальности своих GPU. Мир AI-чипов движется к многополярности, где несколько архитектур сосуществуют, обслуживая разные сегменты рынка. Это хорошо для индустрии в целом.

Для наблюдателей за рынком важно отслеживать не только анонсы, но и реальное развертывание. Google утверждает, что TPU обрабатывает более 20% его внутренних AI-нагрузок. Amazon сообщает о «значительном» росте использования Trainium клиентами AWS. Microsoft пока не раскрывает конкретных цифр по Maia. Реальная доля кастомного кремния в AI-вычислениях, это метрика, которая определит, насколько успешна стратегия деNVIDIA-зации.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Похожие материалы

110 миллиардов за мечту: что стоит за рекордным раундом OpenAI

OpenAI привлекла крупнейший раунд в истории венчурного рынка — $110 млрд при оценке $730 млрд. Разбираемся, кто дал деньги, зачем столько и что это значит для индустрии.

·4 мин·Выбор редакции

GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году

Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.

·5 мин·Выбор редакции

AI для программистов: Claude Code vs Cursor vs Copilot vs Devin

Четыре подхода к AI-ассистированному кодингу: от автокомплита до полностью автономного агента. Разбираемся, кто для чего.

·5 мин·Выбор редакции