Реальная стоимость «дешёвого» AI: что стоит за ценами DeepSeek
DeepSeek заявляет $6M на обучение, но серверный CapEx — $1.6 миллиарда. Разбираемся, из чего складывается реальная стоимость AI-моделей.
Тип материала: Анализ
- — Заявленные $6M на обучение V3 — лишь часть картины
- — Серверный CapEx DeepSeek оценивается в $1.6 миллиарда
- — V3.2 конкурирует с GPT-5 при стоимости API в 10 раз ниже
- — Низкие цены — стратегическое оружие для захвата доли рынка
## Магия дешёвого AI
Когда DeepSeek объявил, что обучение модели V3 стоило $6 миллионов, мир AI замер. Для сравнения: обучение GPT-4 обошлось OpenAI, по оценкам, в $60–100 миллионов. Claude Opus — в сопоставимые суммы. Как китайский стартап сделал это в 10–15 раз дешевле? И — главный вопрос — правда ли это?
Мы решили разобраться в экономике DeepSeek не из академического интереса, а из практического. Мы используем открытые модели в нашей инфраструктуре, и понимание реальной стоимости помогает оценить устойчивость этого предложения. Если DeepSeek работает в убыток — рано или поздно цены вырастут. Если нет — это меняет правила для всей индустрии.
## $6 миллионов: что считаем
Цифра $6M относится к стоимости вычислительных ресурсов (GPU-часов) непосредственно для финального обучения модели V3. Это затраты на аренду или эксплуатацию GPU-кластера в течение обучающего прогона. Но эта цифра не включает критически важные составляющие: стоимость данных, зарплаты исследователей, эксперименты и неудачные прогоны, инфраструктуру и серверы.
Аналитики из SemiAnalysis оценили полный серверный CapEx DeepSeek в $1.6 миллиарда. Это включает приобретение GPU (включая обходные пути санкций), строительство и обслуживание дата-центров, электричество и охлаждение. $6M — это как сказать, что поездка на машине стоила $50 на бензин, не упоминая $40,000 за сам автомобиль.
## Архитектура как экономия
Тем не менее, инженерная эффективность DeepSeek — реальна. Архитектура Mixture of Experts (MoE) — ключевой фактор. V3 имеет сотни миллиардов параметров, но при каждом запросе активируется лишь малая часть. Это означает, что инференс (обработка запросов) требует значительно меньше вычислений, чем у «плотных» моделей того же размера.
DeepSeek также применяет агрессивные оптимизации: квантизацию (снижение точности вычислений с минимальной потерей качества), нестандартные подходы к attention-механизму и эффективное использование памяти. Совокупность этих техник действительно снижает стоимость и обучения, и инференса. Это не маркетинг — это инженерия.
## V3.2 vs GPT-5: 10x разница в цене
DeepSeek V3.2 — обновлённая версия модели — на ряде бенчмарков показывает результаты, сопоставимые с GPT-5. При этом цена API — $0.14 за миллион токенов на вход и $0.28 на выход. Для сравнения: GPT-5 через API стоит от $2 до $8 за миллион токенов. Разница — от 10 до 30 раз.
Для бизнеса, обрабатывающего большие объёмы текста, эта разница трансформируется в десятки и сотни тысяч долларов экономии в год. Суммаризация документов, классификация обращений клиентов, генерация контента — задачи, где качество DeepSeek достаточно, а экономия — существенна.
## Скрытые расходы «дешёвого»
Низкая цена API не означает низкую стоимость использования. У DeepSeek есть свои издержки, которые не отражаются в цене за токен. Стабильность: API DeepSeek периодически испытывает проблемы с доступностью, особенно в пиковые часы. Для production-нагрузок это означает необходимость строить фолбеки на другие модели.
Латентность бывает непредсказуемой. Модели рассуждений (R1) могут думать значительно дольше, чем ожидалось. Экосистема инструментов вокруг DeepSeek менее зрелая, чем вокруг OpenAI или Anthropic. Документация слабее. Поддержка — минимальная. Все эти факторы добавляют скрытую стоимость в виде времени разработчиков.
## Стратегия субсидирования
Существует обоснованное мнение, что DeepSeek субсидирует цены ради захвата доли рынка. Компания, стоящая за DeepSeek — High-Flyer Capital — это количественный хедж-фонд с активами в миллиарды долларов. Для них AI-модели — не основной бизнес, а инструмент и стратегическая инвестиция.
Это напоминает стратегию Amazon с AWS: работать с минимальной маржой или в убыток, чтобы стать инфраструктурой, от которой зависят тысячи компаний. Если DeepSeek добьётся достаточной доли рынка, повышение цен даже на 50% всё равно оставит их значительно дешевле конкурентов — но уже с прибылью.
## Реакция рынка
DeepSeek заставил весь рынок двигаться. OpenAI снизил цены на ряд моделей. Google сделал Gemini Flash одной из самых дешёвых моделей. Anthropic выпустил Haiku как бюджетную альтернативу. Конкуренция по цене, которую спровоцировал DeepSeek, выгодна всем потребителям AI.
Мы видим это по собственным расходам: за последний год стоимость AI-инференса для наших задач снизилась примерно в три раза — и это без перехода на дешёвые модели. Флагманы стали доступнее именно благодаря ценовому давлению со стороны DeepSeek и других открытых моделей.
## Что это значит для вас
Если вы строите продукт на AI, «дешёвый» API DeepSeek — это реальная возможность снизить расходы. Но подходите к этому с открытыми глазами. Считайте не только стоимость токенов, но и стоимость интеграции, поддержки, отказоустойчивости. Тестируйте качество на своих конкретных задачах, а не на бенчмарках.
Лучшая стратегия — мультимодельная архитектура. DeepSeek для массовых задач, где 90% качества достаточно. Флагманы — для критических задач, где нужна максимальная точность. Такая архитектура сложнее в реализации, но она оптимальна по соотношению цены и качества.
## Итог: дешёвый AI не бесплатный
$6 миллионов на обучение — красивая цифра для заголовков. $1.6 миллиарда на инфраструктуру — цифра, которая ближе к реальности. Но для конечного пользователя важнее другое: DeepSeek действительно предлагает высокое качество по низкой цене. Устойчиво ли это? Мы увидим. Но прямо сейчас это работает — и это заставляет весь рынок становиться лучше и дешевле.
Вы уже пробовали DeepSeek для рабочих задач — и если да, какие компромиссы по качеству вы заметили по сравнению с GPT или Claude?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про Intelligence110 миллиардов за мечту: что стоит за рекордным раундом OpenAI
OpenAI привлекла крупнейший раунд в истории венчурного рынка — $110 млрд при оценке $730 млрд. Разбираемся, кто дал деньги, зачем столько и что это значит для индустрии.
GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году
Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.
AI для программистов: Claude Code vs Cursor vs Copilot vs Devin
Четыре подхода к AI-ассистированному кодингу: от автокомплита до полностью автономного агента. Разбираемся, кто для чего.