Кастомный кремний: Google TPU v6, Amazon Trainium 3, Microsoft Maia 2
Гиперскейлеры развивают собственные AI-чипы, снижая зависимость от NVIDIA. Сравниваем TPU v6, Trainium 3 и Maia 2.
Крупнейшие облачные провайдеры мира, Google, Amazon и Microsoft, одновременно развивают собственные AI-чипы. Это не совпадение, а стратегическая реакция на зависимость от NVIDIA, которая контролирует ценообразование и распределение самого дефицитного ресурса в технологической индустрии. К 2026 году все три компании вывели на рынок новые поколения кастомных ускорителей, и масштаб их амбиций впечатляет.
Google TPU и Amazon Trainium
Google TPU v6 (Trillium) представляет шестое поколение тензорных процессоров, которые Google разрабатывает с 2015 года. TPU v6 предлагает производительность свыше 900 терафлопс для операций BF16 и 192 ГБ памяти HBM3E на чип. Ключевое преимущество Google: вертикальная интеграция. TPU используется не только для внешних клиентов Google Cloud, но и для всех внутренних сервисов Google, от поиска до YouTube. Это обеспечивает гарантированный масштаб, недоступный стартапам.
Amazon Trainium 3, третье поколение AI-чипа AWS, нацелен на снижение стоимости обучения и inference. Amazon заявляет, что Trainium 3 обеспечивает в 4 раза большую производительность на доллар по сравнению с предыдущим поколением. Чип интегрирован с экосистемой AWS, включая SageMaker, Bedrock и собственную систему интерконнектов NeuronLink. Стратегия Amazon: не конкурировать с NVIDIA по абсолютной производительности, а предложить лучшую экономику для типичных облачных нагрузок.
Microsoft Maia и зависимость от TSMC
Microsoft Maia 2, второе поколение кастомного AI-чипа, отражает эволюцию компании от чисто облачного провайдера к разработчику собственного кремния. Maia 2 спроектирован совместно с OpenAI для оптимальной работы с моделями GPT. Это дает Microsoft уникальное преимущество: чип, буквально оптимизированный под самые популярные AI-модели в мире. Параллельно Microsoft разрабатывает Cobalt, серверный процессор на базе Arm, для общих вычислительных задач.
Все три компании зависят от TSMC для производства своих чипов. Это создает парадокс: стремясь снизить зависимость от NVIDIA, гиперскейлеры усиливают зависимость от тайваньского производителя. TSMC балансирует заказы от NVIDIA, Apple, AMD, Google, Amazon и Microsoft, распределяя ограниченные производственные мощности на передовых техпроцессах. Геополитические риски вокруг Тайваня добавляют неопределенности всей цепочке поставок.
Программная экосистема остается решающим фактором. NVIDIA CUDA, это не просто набор библиотек, а целая индустрия: миллионы разработчиков, тысячи оптимизированных приложений, десятилетия накопленного опыта. Google компенсирует это через JAX и XLA, которые абстрагируют аппаратный уровень. Amazon развивает Neuron SDK, совместимый с PyTorch. Microsoft интегрирует Maia через ONNX Runtime. Но ни одна из этих экосистем пока не достигла масштабов CUDA.
Экономический эффект и угроза для NVIDIA
Экономический эффект кастомного кремния для гиперскейлеров измеряется миллиардами долларов. По оценкам аналитиков, собственные чипы позволяют снизить стоимость вычислений на 30-50% по сравнению с покупкой GPU у NVIDIA. При совокупных расходах гиперскейлеров на AI-инфраструктуру свыше $200 млрд в год потенциальная экономия составляет $60-100 млрд. Даже с учетом затрат на разработку чипов в $5-10 млрд каждый, инвестиция окупается многократно.
Для NVIDIA рост кастомного кремния у гиперскейлеров, это долгосрочная угроза. Пока Google, Amazon и Microsoft остаются крупнейшими покупателями GPU NVIDIA, но доля собственных чипов в их AI-инфраструктуре растет. По оценкам Bernstein Research, к 2028 году до 30% AI-вычислений гиперскейлеров будет выполняться на кастомных чипах. NVIDIA отвечает, предлагая все более привлекательные условия крупнейшим клиентам и расширяя экосистему CUDA.
Стартапы и средний бизнес, не имеющие ресурсов для разработки собственных чипов, продолжат зависеть от NVIDIA и облачных провайдеров. Кастомный кремний, это привилегия компаний с оборотом в сотни миллиардов долларов и внутренними командами разработчиков чипов численностью в тысячи человек. Для остальных участников рынка вопрос сводится к выбору между GPU NVIDIA и облачными экземплярами на базе TPU, Trainium или Maia.
Вывод: развитие кастомного кремния у гиперскейлеров, это здоровая реакция рынка на монополию NVIDIA. Конкуренция снижает цены, стимулирует инновации и уменьшает системные риски зависимости от одного поставщика. При этом NVIDIA сохранит лидерство в обозримом будущем благодаря экосистеме CUDA и универсальности своих GPU. Мир AI-чипов движется к многополярности, где несколько архитектур сосуществуют, обслуживая разные сегменты рынка. Это хорошо для индустрии в целом.
Для наблюдателей за рынком важно отслеживать не только анонсы, но и реальное развертывание. Google утверждает, что TPU обрабатывает более 20% его внутренних AI-нагрузок. Amazon сообщает о «значительном» росте использования Trainium клиентами AWS. Microsoft пока не раскрывает конкретных цифр по Maia. Реальная доля кастомного кремния в AI-вычислениях, это метрика, которая определит, насколько успешна стратегия де-NVIDIA-зации.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
- Узкое место памяти: почему HBM4 — самый важный чип 2026 года
Кастомные чипы облачных провайдеров упираются в одну общую проблему — память HBM: даже собственный кремний бесполезен без достаточной пропускной способности памяти.
- AI inference vs training: экономика вычислений меняется
Гиганты создают кастомный кремний именно для оптимизации под разные нагрузки: TPU для тренинга, Trainium для инференса — статья объясняет экономику этого решения.
- Anthropic заключила чиповые сделки на миллиарды с Google и Broadcom
Сделка Anthropic с Google по TPU — конкретный пример стратегии кастомного кремния, которую эта статья разбирает для всех облачных гигантов.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.