Все Insights

AI-стек: от чипов до приложений — кто зарабатывает на каждом уровне

Пятиуровневая модель AI-стека: кремний, облачная инфраструктура, модели, middleware и приложения. Детальный разбор ключевых игроков, выручки и инвестиционных возможностей на каждом уровне.

Aravana··20 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
Как вам материал?

Пятиуровневая модель AI-стека

Для системного анализа AI-индустрии полезно разделить технологический стек на пять уровней: L1 — кремний (чипы и процессоры), L2 — облачная инфраструктура и вычислительные мощности, L3 — фундаментальные модели, L4 — middleware (промежуточное ПО: векторные базы данных, оркестрация, инструменты оценки), L5 — прикладные решения. Каждый уровень имеет собственную конкурентную динамику, барьеры входа и модели монетизации.

По состоянию на март 2026 года совокупная выручка AI-стека оценивается в $350-400 млрд (включая AI-выручку гиперскейлеров), с прогнозом роста до $600-700 млрд к 2027 году. Но распределение по уровням неравномерно: L1 и L2 забирают непропорционально большую долю.

L1: Кремний — фундамент AI-вычислений

NVIDIA: безальтернативный лидер

NVIDIA контролирует 80-85% рынка AI-ускорителей. Ключевые продукты на март 2026 года: H100 (остаётся рабочей лошадкой для инференса), H200 (увеличенная память HBM3e), B200 и GB200 (архитектура Blackwell — новый стандарт для обучения крупных моделей). Выручка от дата-центров за Q4 FY2026 (ноябрь 2025 — январь 2026) составила $35,6 млрд за квартал.

Стратегия NVIDIA выходит за рамки чипов: платформа CUDA создала непреодолимый software moat. Более 5 млн разработчиков используют CUDA, и переход на альтернативные ускорители требует значительной переработки кода. Networking (InfiniBand, NVLink, Spectrum-X) составляет растущую долю выручки — $15+ млрд в год, так как обучение крупных моделей требует высокоскоростных интерконнектов.

AMD: агрессивный преследователь

AMD MI300X стал первым серьёзным конкурентом H100. С 192 ГБ HBM3 (против 80 ГБ у H100) он предлагает преимущество в задачах с большим контекстом. MI325X (анонсирован в конце 2025) увеличивает память до 256 ГБ. Выручка AMD от дата-центров в 2025 году оценивается в $12-14 млрд, из которых AI-ускорители — $7-9 млрд. Прогноз на 2026 год — $15-20 млрд.

Главная проблема AMD — экосистема ПО. ROCm отстаёт от CUDA по зрелости и количеству библиотек. Крупные облачные клиенты (Microsoft, Oracle) активно используют MI300X, но стартапы и исследователи предпочитают NVIDIA из-за совместимости с существующим кодом.

Кастомные чипы: Google TPU, AWS Trainium, Microsoft Maia

Google TPU v5p используется для обучения моделей Gemini и предоставляется через Google Cloud. TPU v6 (Trillium), анонсированный в 2025 году, предлагает 4-кратный прирост производительности. AWS Trainium2 ориентирован на снижение стоимости инференса для клиентов AWS и используется Anthropic для обучения Claude. Microsoft Maia 100 развёрнут в Azure для внутренних нужд и работы с OpenAI.

Кастомные чипы не торгуются на открытом рынке, но их влияние на NVIDIA значительно: каждый TPU, установленный в Google Cloud, — это GPU, который Google не купил у NVIDIA. По оценкам, Google сэкономил $5-8 млрд на закупке GPU за счёт TPU за 2024-2025 годы.

Стартапы в кремнии

Cerebras (вафельные чипы WSE-3, оценка $4+ млрд, планирует IPO), Groq (LPU для инференса, оценка $2,5 млрд), SambaNova, Graphcore (приобретена SoftBank), d-Matrix — стартапы, предлагающие альтернативные архитектуры. Их совокупная доля рынка менее 2%, но они решают специфические задачи: Groq обеспечивает рекордно низкую задержку при инференсе, Cerebras — обучение моделей на одном чипе без распараллеливания.

L2: Облачная инфраструктура и GPU-облака

Гиперскейлеры: AI как драйвер роста

AWS, Azure и Google Cloud генерируют совокупную выручку более $250 млрд в год (2025), из которых AI-workloads составляют растущую долю. Microsoft Azure показывает самый быстрый рост в AI-сегменте: AI-сервисы Azure (включая OpenAI API) превысили $10 млрд ARR. Google Cloud выручил $44 млрд за 2025 год, из которых AI — ключевой драйвер. AWS остаётся крупнейшим по выручке ($116 млрд за 2025 год), но AI-доля растёт медленнее из-за более поздней интеграции фундаментальных моделей.

Специализированные GPU-облака

CoreWeave — самый заметный игрок в этой категории. Компания выросла из крипто-майнинга в крупнейшее независимое GPU-облако. Контракт с Microsoft на $10+ млрд, IPO в марте 2026 года, выручка более $2 млрд (2025, рост с $229 млн в 2023). Долг превышает $12 млрд, что создаёт значительный финансовый риск при замедлении спроса.

Lambda Labs (оценка $1,5 млрд), Together AI ($3,3 млрд), Crusoe Energy (GPU-облако на природном газе, $3,5 млрд), Vultr — альтернативные облачные провайдеры, предлагающие GPU-мощности по конкурентным ценам. Их преимущество — скорость развёртывания и гибкость, недостаток — отсутствие широкого набора облачных сервисов гиперскейлеров.

Инвестиционные возможности на L2

Для инвесторов L2 представляет интерес через публичные акции гиперскейлеров (Microsoft, Amazon, Google), IPO специализированных провайдеров (CoreWeave) и компании, обслуживающие инфраструктуру: Vertiv (системы охлаждения), Eaton (электропитание), Arista Networks (сетевое оборудование). Маржинальность GPU-облаков ниже, чем у чипмейкеров (20-35% против 70%+), но рост стабильно высокий.

L3: Фундаментальные модели

Лидеры рынка

OpenAI (GPT-4o, o1, o3, прогнозируемый GPT-5): ARR $11+ млрд, 300+ млн пользователей ChatGPT. Anthropic (Claude 3.5 Sonnet/Opus): ARR $2-3 млрд, фокус на безопасности и enterprise. Google (Gemini 1.5 Pro, 2.0): монетизация через Cloud и Search. Meta (Llama 3, 3.1, 4): open-source стратегия, монетизация через рекламу. Mistral (Large, Medium, Le Chat): европейский чемпион, ARR ~$100 млн.

Модели монетизации на L3

Три основные модели: (1) API-доступ с оплатой за токены — OpenAI API, Anthropic API, Google Vertex AI; (2) подписка на потребительские продукты — ChatGPT Plus ($20/мес), Pro ($200/мес), Team ($25/мес/пользователь); (3) корпоративные лицензии — OpenAI Enterprise, Anthropic for Enterprise. Тренд — снижение цен за токен при росте объёмов: стоимость 1 млн входных токенов GPT-4-класса упала с $30 (2023) до $2.50 (начало 2026).

Экономика L3 характеризуется высокими капитальными затратами (обучение GPT-4 стоило ~$100 млн, GPT-5 оценивается в $500 млн+) и постоянными операционными расходами на инференс. Валовая маржа OpenAI оценивается в 50-55%, что ниже типичной для SaaS (70-80%). Anthropic, предположительно, имеет маржу 40-50%. Масштабирование инференса остаётся ключевым вызовом.

L4: Middleware — невидимый, но критически важный слой

Векторные базы данных

Pinecone (оценка $750 млн), Weaviate ($200 млн), Chroma, Qdrant, Milvus (open-source) — специализированные базы данных для хранения и поиска векторных представлений (embeddings). Они необходимы для RAG (Retrieval-Augmented Generation) — технологии, позволяющей моделям работать с корпоративными данными. Рынок оценивается в $1-2 млрд и растёт на 100%+ в год.

Оркестрация и фреймворки

LangChain (open-source фреймворк, компания LangSmith оценивается в $500+ млн), LlamaIndex, CrewAI, AutoGen (Microsoft) — инструменты для построения AI-приложений и агентов. Они решают задачу: как соединить модель с данными, инструментами и бизнес-логикой. Монетизация — через enterprise-версии с мониторингом, аналитикой и поддержкой.

Инструменты оценки и мониторинга

Weights & Biases (оценка $1,25 млрд), Arize AI, WhyLabs, Humanloop — платформы для мониторинга производительности моделей, A/B-тестирования промптов, отслеживания галлюцинаций. По мере развёртывания AI в production-средах спрос на observability-инструменты растёт экспоненциально. Рынок невелик ($500 млн — $1 млрд), но стратегически важен.

Инвестиционные возможности на L4

L4 — наименее зрелый слой стека и потому наиболее рискованный для инвесторов. Многие компании этого уровня уязвимы перед интеграцией их функций в продукты L3 (OpenAI) или L5 (крупные SaaS-платформы). Однако лучшие компании L4 — те, которые станут «инструментами разработчика» нового поколения — могут достичь масштаба Datadog или Twilio.

L5: Приложения — где создаётся конечная ценность

Кодинг и разработка

GitHub Copilot (Microsoft) — лидер рынка с ARR $500+ млн. Cursor (Anysphere, оценка $2,5 млрд) — AI-first редактор кода, который вырос до $100+ млн ARR менее чем за два года. Replit, Codeium, Tabnine, Sourcegraph Cody — конкуренты. Devin (Cognition Labs, оценка $2 млрд) — автономный AI-инженер, способный самостоятельно выполнять задачи по разработке. Рынок AI для кодинга оценивается в $5-8 млрд к 2026 году.

Контент и креатив

Генерация изображений: Midjourney (выручка $200+ млн, прибыльна, нет внешнего финансирования), Runway (оценка $4 млрд, генерация видео), ElevenLabs (синтез голоса, оценка $3,3 млрд), Pika (генерация видео, $800 млн). Музыка: Suno ($750 млн оценка), Udio. Текст: Jasper, Copy.ai. Этот сегмент характеризуется высокой конкуренцией и быстрой коммодитизацией.

Enterprise AI

Glean (корпоративный поиск и знание, $4,6 млрд), Writer.com (корпоративный AI-контент, $1,9 млрд), Moveworks (IT-поддержка, $2,1 млрд), Cohere (enterprise LLM, $5,5 млрд), Hebbia (AI для финансового анализа, $700 млн) — компании, обслуживающие корпоративный рынок. Ключевая метрика — NRR (net revenue retention): лучшие компании показывают 130-150%, что свидетельствует о росте использования внутри существующих клиентов.

Вертикальные решения

Здравоохранение: Abridge (медицинская документация), Hippocratic AI (медицинские агенты), PathAI (патология). Юриспруденция: Harvey ($3 млрд), Casetext (приобретён Thomson Reuters за $650 млн). Финансы: Bloomberg GPT (внутренняя модель), AlphaSense ($4 млрд), Ramp (AI-fintech). Образование: Duolingo Max, Khan Academy Khanmigo. Каждая из этих вертикалей — рынок на $10-50 млрд.

Распределение выручки и маржи по уровням

УровеньПримеры компанийВыручка (2025)МаржаБарьер входа
L1NVIDIA, AMD, Cerebras$130-150 млрд65-78%Очень высокий
L2AWS, Azure, CoreWeave$80-100 млрд*20-40%Высокий
L3OpenAI, Anthropic$15-20 млрд40-55%Очень высокий
L4Pinecone, LangChain$2-4 млрд60-75%Средний
L5Cursor, Harvey, Glean$10-20 млрд60-80%Варьируется
* AI-доля облачной выручки

Куда направлять капитал: рекомендации по уровням

Для публичных инвесторов: L1 (NVIDIA, AMD) и L2 (Microsoft, Amazon, Google) — наиболее ликвидные и предсказуемые позиции. Для венчурных инвесторов: L4 и L5 предлагают наибольший потенциал роста с соразмерными рисками. L3 доступен только институциональным инвесторам с билетами от $100 млн и требует глубокого понимания технологии.

Ключевой принцип: не инвестировать в слой, а инвестировать в конкурентное преимущество. NVIDIA на L1 ценна не потому, что она на инфраструктурном уровне, а потому что CUDA создала программный moat. Harvey на L5 ценна не потому, что юридический AI — модная тема, а потому что регуляторные барьеры и специфичность данных создают защиту от конкуренции. Безмоатные компании на любом уровне стека — это ставка на тайминг рынка, а не на фундаментальную ценность.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Где деньги в AI: инфраструктура, модели и приложения

Анализ цепочки создания стоимости в индустрии искусственного интеллекта: от чипов и дата-центров до фундаментальных моделей и прикладных решений. Где концентрируются доходы, маржинальность и инвестиционные возможности.

·18 мин

Публичные компании AI: NVIDIA, Microsoft, Alphabet, Meta, Amazon

Глубокий анализ пяти крупнейших публичных AI-компаний: выручка от AI, стратегия, конкурентные преимущества, рыночная оценка и перспективы. Также: AMD, Palantir, Snowflake и кандидаты на IPO.

·22 мин

Частные AI-единороги: полный список компаний с оценкой $1B+

Исчерпывающий каталог AI-единорогов на март 2026 года: от OpenAI ($300 млрд) до нишевых игроков. Оценки, привлечённые средства, ключевые инвесторы, продукты и перспективы по категориям.

·24 мин