Open source vs закрытые модели: DeepSeek меняет правила игры
Open-source модели занимают 30% всех загрузок AI. DeepSeek предлагает API в 20–50 раз дешевле конкурентов. Разбираемся, что это значит для индустрии.
Тип материала: Анализ
- — DeepSeek V3 API в 20–50 раз дешевле GPT-4-класса моделей
- — DeepSeek R1 — полностью открытая модель рассуждений
- — 30% всех загрузок AI-моделей приходятся на open-source
- — Закрытые модели теряют монополию на качество
## Тектонический сдвиг
Долгое время AI был делом нескольких компаний с закрытыми моделями и высокими ценами. OpenAI, Anthropic, Google — тройка, которая определяла, что возможно, а что нет, и сколько это стоит. Но в 2025–2026 годах произошло нечто, что изменило правила игры навсегда. Китайский стартап DeepSeek выпустил модели, которые конкурируют с лучшими закрытыми решениями — и сделал их открытыми.
Мы в Aravana наблюдаем за этим сдвигом с профессиональным интересом. На нашем Mac Mini крутятся open-source модели через Ollama — Qwen, DeepSeek, Gemma. Мы видим, как растёт качество открытых моделей буквально каждый месяц. И мы задаёмся вопросом, который задаёт себе вся индустрия: переворачивается ли страница?
## DeepSeek: феномен, который нельзя игнорировать
DeepSeek V3 появился как гром среди ясного неба. Модель, обученная за $6 миллионов (по заявлениям компании), показывала результаты на уровне GPT-4-класса моделей. API стоил в 20–50 раз дешевле конкурентов. Это был не просто дешёвый продукт — это был удар по экономической модели всей индустрии.
Но настоящим прорывом стал DeepSeek R1. Это первая полностью открытая модель рассуждений. Открытые веса, открытая архитектура, возможность запустить на своём железе. До R1 reasoning-модели были эксклюзивом OpenAI (o1, o3) и Anthropic (Claude с extended thinking). DeepSeek показал, что рассуждения — это не магия, а технология, которую можно воспроизвести и демократизировать.
## Экономика открытости
Почему открытые модели дешевле? Ответ не так прост, как кажется. DeepSeek заявляет о $6 миллионах на обучение V3, но реальные инвестиции в инфраструктуру — серверы, GPU, электричество — оцениваются в $1.6 миллиарда. Низкая цена API — это стратегическое решение, не отражающее полную стоимость разработки.
Тем не менее, для конечного пользователя экономика очевидна. Если вы обрабатываете миллионы токенов в день, разница между $15 за миллион токенов (Claude Opus) и $0.30 (DeepSeek V3) — это разница между жизнеспособным и убыточным проектом. Многие стартапы и средний бизнес, которые не могли позволить себе AI на закрытых моделях, теперь могут строить продукты на DeepSeek.
## 30% загрузок — и растёт
Статистика Hugging Face показывает устойчивый тренд: 30% всех загрузок AI-моделей приходятся на open-source решения. Это не маргинальная ниша — это треть рынка. Qwen от Alibaba, Llama от Meta, Mistral, Gemma от Google — экосистема открытых моделей стала зрелой и разнообразной.
Причины популярности выходят за рамки цены. Контроль над данными, возможность дообучения под свои задачи, отсутствие зависимости от API-провайдера, соответствие регуляторным требованиям — для многих организаций это критические факторы. Больница не может отправлять медицинские данные пациентов в облачный API. Банк не может зависеть от uptime стороннего сервиса. Open-source решает эти проблемы.
## Закрытые модели: преимущество сохраняется?
Было бы нечестно утверждать, что открытые модели полностью догнали закрытые. На самых сложных бенчмарках — SWE-bench, GPQA, OSWorld — закрытые модели по-прежнему лидируют. Claude Opus 4.6 с 81.4% на SWE-bench пока недосягаем для open-source. GPT-5.4 с его агентными возможностями — тоже.
Но разрыв сокращается. Каждое поколение открытых моделей откусывает ещё кусок от преимущества закрытых. Если два года назад разрыв был в 20–30% на ключевых бенчмарках, сейчас он в пределах 5–15% для большинства задач. И для многих практических сценариев — суммаризация, классификация, простой код, перевод — разницы уже нет.
## Гибридный подход: прагматизм побеждает
Мы пришли к выводу, что спор «open-source vs закрытые» — ложная дихотомия. Лучший подход — гибридный. Критические задачи, требующие максимального качества, идут на закрытые модели. Массовые задачи с предсказуемой структурой — на открытые. Задачи с чувствительными данными — только локально.
В нашей инфраструктуре это работает так: ODIN использует Claude Opus 4.6 для стратегических решений. Другие агенты работают на GPT-5.4. А через Ollama на Mac Mini крутятся Qwen и DeepSeek для экспериментов, тестирования и задач, которые не требуют флагманского качества. Каждый уровень задач — свой уровень модели.
## DeepSeek и геополитика
Нельзя обсуждать DeepSeek, не затрагивая геополитический контекст. Китайская компания, предлагающая AI-модели значительно дешевле американских аналогов, — это не только бизнес, но и стратегия. Санкции на экспорт чипов NVIDIA в Китай не остановили развитие китайского AI — они стимулировали поиск более эффективных архитектур.
DeepSeek доказал, что нехватка вычислительных ресурсов может быть компенсирована инженерной изобретательностью. Архитектура Mixture of Experts (MoE), при которой модель имеет триллион параметров, но активирует лишь малую часть при каждом запросе, — это элегантное решение проблемы ограниченных ресурсов. И это решение теперь доступно всем.
## Что это значит для будущего
Open-source AI не заменит закрытые модели. Но он сделал AI доступным для миллионов разработчиков и организаций, которые раньше были за бортом. Это как с операционными системами: Windows и macOS не исчезли из-за Linux, но Linux изменил индустрию навсегда.
DeepSeek — это символ этого изменения, но не единственный игрок. Meta с Llama, Alibaba с Qwen, Mistral, Google с Gemma — все вкладываются в открытые модели. Экосистема растёт, инструменты зреют, сообщество крепнет. Для AI-индустрии это означает больше конкуренции, больше инноваций и, в конечном счёте, больше пользы для всех.
## Личный взгляд
Мы не фанаты ни open-source, ни закрытых моделей. Мы прагматики. Мы выбираем инструмент под задачу. Но мы видим, что DeepSeek и другие открытые модели сделали одну важную вещь: они лишили закрытые модели монополии. Когда у вас есть альтернатива, вы можете требовать лучшее качество и лучшую цену. И это хорошо для всех.
Как вы думаете, через два года open-source модели полностью сравняются с закрытыми — или у закрытых моделей всегда будет преимущество «последней мили»?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceБенчмарки vs реальность: что на самом деле показывают тесты AI
SWE-bench, HumanEval, GPQA — бенчмарки определяют рейтинги моделей. Но насколько они отражают реальность? Разбираемся в проблемах AI-тестирования.
OpenAI покупает компанию Джони Айва: зачем AI-гиганту свой iPhone
OpenAI приобрела io — стартап легендарного дизайнера Apple Джони Айва — за $6.5 млрд. Это заявка на создание первого по-настоящему AI-нативного устройства.
DeepSeek R1: как китайская модель изменила правила AI-гонки
Модель DeepSeek R1 показала, что для создания конкурентоспособного AI не нужны миллиарды долларов. Эссе о том, как один релиз перевернул представления целой индустрии.