AI-стек: от чипов до приложений — кто зарабатывает на каждом уровне
Пятиуровневая модель AI-стека: кремний, облачная инфраструктура, модели, middleware и приложения. Детальный разбор ключевых игроков, выручки и инвестиционных возможностей на каждом уровне.
Тип материала: Анализ
Пятиуровневая модель AI-стека
Для системного анализа AI-индустрии полезно разделить технологический стек на пять уровней: L1 — кремний (чипы и процессоры), L2 — облачная инфраструктура и вычислительные мощности, L3 — фундаментальные модели, L4 — middleware (промежуточное ПО: векторные базы данных, оркестрация, инструменты оценки), L5 — прикладные решения. Каждый уровень имеет собственную конкурентную динамику, барьеры входа и модели монетизации.
По состоянию на март 2026 года совокупная выручка AI-стека оценивается в $350-400 млрд (включая AI-выручку гиперскейлеров), с прогнозом роста до $600-700 млрд к 2027 году. Но распределение по уровням неравномерно: L1 и L2 забирают непропорционально большую долю.
L1: Кремний — фундамент AI-вычислений
NVIDIA: безальтернативный лидер
NVIDIA контролирует 80-85% рынка AI-ускорителей. Ключевые продукты на март 2026 года: H100 (остаётся рабочей лошадкой для инференса), H200 (увеличенная память HBM3e), B200 и GB200 (архитектура Blackwell — новый стандарт для обучения крупных моделей). Выручка от дата-центров за Q4 FY2026 (ноябрь 2025 — январь 2026) составила $35,6 млрд за квартал.
Стратегия NVIDIA выходит за рамки чипов: платформа CUDA создала непреодолимый software moat. Более 5 млн разработчиков используют CUDA, и переход на альтернативные ускорители требует значительной переработки кода. Networking (InfiniBand, NVLink, Spectrum-X) составляет растущую долю выручки — $15+ млрд в год, так как обучение крупных моделей требует высокоскоростных интерконнектов.
AMD: агрессивный преследователь
AMD MI300X стал первым серьёзным конкурентом H100. С 192 ГБ HBM3 (против 80 ГБ у H100) он предлагает преимущество в задачах с большим контекстом. MI325X (анонсирован в конце 2025) увеличивает память до 256 ГБ. Выручка AMD от дата-центров в 2025 году оценивается в $12-14 млрд, из которых AI-ускорители — $7-9 млрд. Прогноз на 2026 год — $15-20 млрд.
Главная проблема AMD — экосистема ПО. ROCm отстаёт от CUDA по зрелости и количеству библиотек. Крупные облачные клиенты (Microsoft, Oracle) активно используют MI300X, но стартапы и исследователи предпочитают NVIDIA из-за совместимости с существующим кодом.
Кастомные чипы: Google TPU, AWS Trainium, Microsoft Maia
Google TPU v5p используется для обучения моделей Gemini и предоставляется через Google Cloud. TPU v6 (Trillium), анонсированный в 2025 году, предлагает 4-кратный прирост производительности. AWS Trainium2 ориентирован на снижение стоимости инференса для клиентов AWS и используется Anthropic для обучения Claude. Microsoft Maia 100 развёрнут в Azure для внутренних нужд и работы с OpenAI.
Кастомные чипы не торгуются на открытом рынке, но их влияние на NVIDIA значительно: каждый TPU, установленный в Google Cloud, — это GPU, который Google не купил у NVIDIA. По оценкам, Google сэкономил $5-8 млрд на закупке GPU за счёт TPU за 2024-2025 годы.
Стартапы в кремнии
Cerebras (вафельные чипы WSE-3, оценка $4+ млрд, планирует IPO), Groq (LPU для инференса, оценка $2,5 млрд), SambaNova, Graphcore (приобретена SoftBank), d-Matrix — стартапы, предлагающие альтернативные архитектуры. Их совокупная доля рынка менее 2%, но они решают специфические задачи: Groq обеспечивает рекордно низкую задержку при инференсе, Cerebras — обучение моделей на одном чипе без распараллеливания.
L2: Облачная инфраструктура и GPU-облака
Гиперскейлеры: AI как драйвер роста
AWS, Azure и Google Cloud генерируют совокупную выручку более $250 млрд в год (2025), из которых AI-workloads составляют растущую долю. Microsoft Azure показывает самый быстрый рост в AI-сегменте: AI-сервисы Azure (включая OpenAI API) превысили $10 млрд ARR. Google Cloud выручил $44 млрд за 2025 год, из которых AI — ключевой драйвер. AWS остаётся крупнейшим по выручке ($116 млрд за 2025 год), но AI-доля растёт медленнее из-за более поздней интеграции фундаментальных моделей.
Специализированные GPU-облака
CoreWeave — самый заметный игрок в этой категории. Компания выросла из крипто-майнинга в крупнейшее независимое GPU-облако. Контракт с Microsoft на $10+ млрд, IPO в марте 2026 года, выручка более $2 млрд (2025, рост с $229 млн в 2023). Долг превышает $12 млрд, что создаёт значительный финансовый риск при замедлении спроса.
Lambda Labs (оценка $1,5 млрд), Together AI ($3,3 млрд), Crusoe Energy (GPU-облако на природном газе, $3,5 млрд), Vultr — альтернативные облачные провайдеры, предлагающие GPU-мощности по конкурентным ценам. Их преимущество — скорость развёртывания и гибкость, недостаток — отсутствие широкого набора облачных сервисов гиперскейлеров.
Инвестиционные возможности на L2
Для инвесторов L2 представляет интерес через публичные акции гиперскейлеров (Microsoft, Amazon, Google), IPO специализированных провайдеров (CoreWeave) и компании, обслуживающие инфраструктуру: Vertiv (системы охлаждения), Eaton (электропитание), Arista Networks (сетевое оборудование). Маржинальность GPU-облаков ниже, чем у чипмейкеров (20-35% против 70%+), но рост стабильно высокий.
L3: Фундаментальные модели
Лидеры рынка
OpenAI (GPT-4o, o1, o3, прогнозируемый GPT-5): ARR $11+ млрд, 300+ млн пользователей ChatGPT. Anthropic (Claude 3.5 Sonnet/Opus): ARR $2-3 млрд, фокус на безопасности и enterprise. Google (Gemini 1.5 Pro, 2.0): монетизация через Cloud и Search. Meta (Llama 3, 3.1, 4): open-source стратегия, монетизация через рекламу. Mistral (Large, Medium, Le Chat): европейский чемпион, ARR ~$100 млн.
Модели монетизации на L3
Три основные модели: (1) API-доступ с оплатой за токены — OpenAI API, Anthropic API, Google Vertex AI; (2) подписка на потребительские продукты — ChatGPT Plus ($20/мес), Pro ($200/мес), Team ($25/мес/пользователь); (3) корпоративные лицензии — OpenAI Enterprise, Anthropic for Enterprise. Тренд — снижение цен за токен при росте объёмов: стоимость 1 млн входных токенов GPT-4-класса упала с $30 (2023) до $2.50 (начало 2026).
Экономика L3 характеризуется высокими капитальными затратами (обучение GPT-4 стоило ~$100 млн, GPT-5 оценивается в $500 млн+) и постоянными операционными расходами на инференс. Валовая маржа OpenAI оценивается в 50-55%, что ниже типичной для SaaS (70-80%). Anthropic, предположительно, имеет маржу 40-50%. Масштабирование инференса остаётся ключевым вызовом.
L4: Middleware — невидимый, но критически важный слой
Векторные базы данных
Pinecone (оценка $750 млн), Weaviate ($200 млн), Chroma, Qdrant, Milvus (open-source) — специализированные базы данных для хранения и поиска векторных представлений (embeddings). Они необходимы для RAG (Retrieval-Augmented Generation) — технологии, позволяющей моделям работать с корпоративными данными. Рынок оценивается в $1-2 млрд и растёт на 100%+ в год.
Оркестрация и фреймворки
LangChain (open-source фреймворк, компания LangSmith оценивается в $500+ млн), LlamaIndex, CrewAI, AutoGen (Microsoft) — инструменты для построения AI-приложений и агентов. Они решают задачу: как соединить модель с данными, инструментами и бизнес-логикой. Монетизация — через enterprise-версии с мониторингом, аналитикой и поддержкой.
Инструменты оценки и мониторинга
Weights & Biases (оценка $1,25 млрд), Arize AI, WhyLabs, Humanloop — платформы для мониторинга производительности моделей, A/B-тестирования промптов, отслеживания галлюцинаций. По мере развёртывания AI в production-средах спрос на observability-инструменты растёт экспоненциально. Рынок невелик ($500 млн — $1 млрд), но стратегически важен.
Инвестиционные возможности на L4
L4 — наименее зрелый слой стека и потому наиболее рискованный для инвесторов. Многие компании этого уровня уязвимы перед интеграцией их функций в продукты L3 (OpenAI) или L5 (крупные SaaS-платформы). Однако лучшие компании L4 — те, которые станут «инструментами разработчика» нового поколения — могут достичь масштаба Datadog или Twilio.
L5: Приложения — где создаётся конечная ценность
Кодинг и разработка
GitHub Copilot (Microsoft) — лидер рынка с ARR $500+ млн. Cursor (Anysphere, оценка $2,5 млрд) — AI-first редактор кода, который вырос до $100+ млн ARR менее чем за два года. Replit, Codeium, Tabnine, Sourcegraph Cody — конкуренты. Devin (Cognition Labs, оценка $2 млрд) — автономный AI-инженер, способный самостоятельно выполнять задачи по разработке. Рынок AI для кодинга оценивается в $5-8 млрд к 2026 году.
Контент и креатив
Генерация изображений: Midjourney (выручка $200+ млн, прибыльна, нет внешнего финансирования), Runway (оценка $4 млрд, генерация видео), ElevenLabs (синтез голоса, оценка $3,3 млрд), Pika (генерация видео, $800 млн). Музыка: Suno ($750 млн оценка), Udio. Текст: Jasper, Copy.ai. Этот сегмент характеризуется высокой конкуренцией и быстрой коммодитизацией.
Enterprise AI
Glean (корпоративный поиск и знание, $4,6 млрд), Writer.com (корпоративный AI-контент, $1,9 млрд), Moveworks (IT-поддержка, $2,1 млрд), Cohere (enterprise LLM, $5,5 млрд), Hebbia (AI для финансового анализа, $700 млн) — компании, обслуживающие корпоративный рынок. Ключевая метрика — NRR (net revenue retention): лучшие компании показывают 130-150%, что свидетельствует о росте использования внутри существующих клиентов.
Вертикальные решения
Здравоохранение: Abridge (медицинская документация), Hippocratic AI (медицинские агенты), PathAI (патология). Юриспруденция: Harvey ($3 млрд), Casetext (приобретён Thomson Reuters за $650 млн). Финансы: Bloomberg GPT (внутренняя модель), AlphaSense ($4 млрд), Ramp (AI-fintech). Образование: Duolingo Max, Khan Academy Khanmigo. Каждая из этих вертикалей — рынок на $10-50 млрд.
Распределение выручки и маржи по уровням
| Уровень | Примеры компаний | Выручка (2025) | Маржа | Барьер входа |
|---|---|---|---|---|
| L1 | NVIDIA, AMD, Cerebras | $130-150 млрд | 65-78% | Очень высокий |
| L2 | AWS, Azure, CoreWeave | $80-100 млрд* | 20-40% | Высокий |
| L3 | OpenAI, Anthropic | $15-20 млрд | 40-55% | Очень высокий |
| L4 | Pinecone, LangChain | $2-4 млрд | 60-75% | Средний |
| L5 | Cursor, Harvey, Glean | $10-20 млрд | 60-80% | Варьируется |
| * AI-доля облачной выручки |
Куда направлять капитал: рекомендации по уровням
Для публичных инвесторов: L1 (NVIDIA, AMD) и L2 (Microsoft, Amazon, Google) — наиболее ликвидные и предсказуемые позиции. Для венчурных инвесторов: L4 и L5 предлагают наибольший потенциал роста с соразмерными рисками. L3 доступен только институциональным инвесторам с билетами от $100 млн и требует глубокого понимания технологии.
Ключевой принцип: не инвестировать в слой, а инвестировать в конкурентное преимущество. NVIDIA на L1 ценна не потому, что она на инфраструктурном уровне, а потому что CUDA создала программный moat. Harvey на L5 ценна не потому, что юридический AI — модная тема, а потому что регуляторные барьеры и специфичность данных создают защиту от конкуренции. Безмоатные компании на любом уровне стека — это ставка на тайминг рынка, а не на фундаментальную ценность.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.
Где деньги в AI: инфраструктура, модели и приложения
Анализ цепочки создания стоимости в индустрии искусственного интеллекта: от чипов и дата-центров до фундаментальных моделей и прикладных решений. Где концентрируются доходы, маржинальность и инвестиционные возможности.
Публичные компании AI: NVIDIA, Microsoft, Alphabet, Meta, Amazon
Глубокий анализ пяти крупнейших публичных AI-компаний: выручка от AI, стратегия, конкурентные преимущества, рыночная оценка и перспективы. Также: AMD, Palantir, Snowflake и кандидаты на IPO.
Частные AI-единороги: полный список компаний с оценкой $1B+
Исчерпывающий каталог AI-единорогов на март 2026 года: от OpenAI ($300 млрд) до нишевых игроков. Оценки, привлечённые средства, ключевые инвесторы, продукты и перспективы по категориям.