Anthropic привлекла $30 млрд: ставка на безопасный AI стоит $380 млрд
Создатель Claude закрыл Series G на $30 млрд при оценке $380 млрд. Коротко о цифрах, инвесторах и стратегии Anthropic.
Тип материала: Анализ
- — Anthropic привлекла $30 млрд в раунде Series G при оценке $380 млрд — второй по величине раунд в истории после $110 млрд OpenAI.
- — Ключевые инвесторы — Google, Spark Capital, Lightspeed Venture Partners; Google остаётся крупнейшим внешним инвестором с совокупными вложениями более $6 млрд.
- — Anthropic позиционирует себя как «ответственную альтернативу OpenAI», делая ставку на безопасность AI — и рынок за это платит.
12 февраля 2026 года Anthropic объявила о закрытии раунда Series G на $30 млрд при оценке компании в $380 млрд. Для стартапа, основанного в 2021 году бывшими сотрудниками OpenAI — Дарио Амодеи, Даниэлой Амодеи и несколькими коллегами, — это поразительная траектория. В 2023 году Anthropic оценивалась в $4 млрд. За три года оценка выросла почти в 100 раз.
Расклад инвесторов показателен. Google, вложивший в Anthropic в общей сложности более $6 млрд через несколько раундов, продолжает быть стратегическим партнёром. Это создаёт необычную динамику: Google одновременно разрабатывает конкурирующий продукт (Gemini) и инвестирует в Anthropic. Логика Google, по-видимому, в том, что лучше иметь долю в нескольких лидерах, чем рисковать остаться без позиции. Amazon, вложивший $4 млрд в 2023-2024 годах, также остаётся значимым инвестором, хотя и не участвовал лидером в текущем раунде.
Spark Capital и Lightspeed Venture Partners выступили ко-лидерами раунда. По данным The Information, интерес инвесторов был настолько высок, что Anthropic могла привлечь значительно больше — но ограничила раунд $30 млрд, чтобы контролировать размывание долей. Среди других участников — Menlo Ventures, Salesforce Ventures и несколько суверенных фондов из Ближнего Востока.
На что пойдут деньги? Прежде всего — на вычислительные мощности. Обучение моделей уровня Claude Opus требует десятков тысяч GPU (или аналогичных TPU от Google) в течение нескольких месяцев. Anthropic использует как облачную инфраструктуру Google Cloud и AWS, так и собственные кластеры. По оценкам, обучение одной фронтирной модели обходится в $300-700 млн, и Anthropic планирует выпускать обновления каждые 3-6 месяцев.
Второе направление — расширение продуктовой линейки. Claude API уже обслуживает тысячи компаний, от стартапов до крупнейших корпораций. Anthropic активно развивает Claude for Enterprise с функциями, критичными для бизнеса: поддержка SSO, аудит-логи, кастомные политики использования, SLA на доступность. Claude Code — инструмент для разработчиков — набирает популярность как альтернатива GitHub Copilot.
Третье — исследования в области безопасности AI. Anthropic тратит значительную долю бюджета на alignment research — исследование того, как сделать AI-модели более предсказуемыми, честными и безопасными. Это включает работу над Constitutional AI (методология обучения модели следовать набору принципов), interpretability (понимание того, что происходит внутри нейронной сети) и red-teaming (систематическое тестирование на уязвимости).
Финансовые показатели Anthropic впечатляют, хотя компания остаётся убыточной. По данным на конец 2025 года, годовая выручка (annualized revenue) составляет около $2-3 млрд — это рост примерно в 3-4 раза за год. Основные источники: API для разработчиков, подписки Claude Pro/Team/Enterprise, и партнёрские соглашения с Amazon (Claude интегрирован в AWS Bedrock) и Google (доступен через Vertex AI).
Оценка в $380 млрд при выручке $2-3 млрд даёт мультипликатор P/S порядка 130-190x. Это даже выше, чем у OpenAI. Инвесторы, очевидно, закладывают агрессивный рост: если Anthropic выйдет на $10 млрд выручки к 2028 году, мультипликатор снизится до 38x — уже ближе к территории быстрорастущих технологических компаний.
Конкурентная позиция Anthropic уникальна. Компания не пытается быть «для всех» — она целится в аудиторию, которая ценит надёжность, безопасность и предсказуемость больше, чем максимальную производительность. Это корпоративные клиенты в регулируемых отраслях (финансы, здравоохранение, юриспруденция), разработчики, которым нужен стабильный API, и организации, обеспокоенные рисками AI. EU AI Act (см. нашу аналитику) усиливает эту позицию: компании, ищущие compliance-friendly AI-решения, естественно тяготеют к Anthropic.
Есть и риски. Зависимость от двух облачных провайдеров — Google и Amazon — создаёт стратегическую уязвимость. Оба являются одновременно партнёрами и конкурентами (Google с Gemini, Amazon с собственными моделями Titan). Если один из них решит приоритизировать собственные модели в ущерб Claude, Anthropic может потерять канал дистрибуции. Впрочем, $30 млрд на балансе дают время и ресурсы для диверсификации.
Дарио Амодеи в интервью Bloomberg после объявления раунда сказал: «Мы строим компанию, которая будет актуальна через 50 лет, а не через 5. Безопасность AI — это не маркетинг, это инженерная необходимость. И мы рады, что инвесторы разделяют эту точку зрения». Слова красивые, но за ними стоит реальная стратегия: если AI действительно станет таким мощным, как прогнозируют, компания, которая делает его безопасным, будет незаменима.
Что показательнее — сумма раунда Anthropic или то, что рынок оценивает «безопасный AI» почти так же высоко, как «быстрый AI»?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про Intelligence110 миллиардов за мечту: что стоит за рекордным раундом OpenAI
OpenAI привлекла крупнейший раунд в истории венчурного рынка — $110 млрд при оценке $730 млрд. Разбираемся, кто дал деньги, зачем столько и что это значит для индустрии.
Claude Opus 4.6: миллион токенов контекста и что это меняет на практике
Anthropic выпустила Claude Opus 4.6 с контекстным окном в 1 миллион токенов. Разбираемся, почему длинный контекст — это не просто маркетинговая цифра, а фундаментальный сдвиг в возможностях AI.
GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году
Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.