Google Gemini 3 Pro: что нового и почему Google снова в гонке
Google представила Gemini 3 Pro — мультимодальную модель нового поколения. Разбираемся в технических деталях и в том, как это меняет позиции Google в AI-гонке.
Тип материала: Анализ
- — Gemini 3 Pro — мультимодальная модель нового поколения от Google, демонстрирующая существенный прогресс в рассуждениях, генерации кода и работе с видео.
- — Google интегрирует Gemini 3 Pro во все свои продукты: Search, Workspace, Cloud, Android — создавая экосистемное преимущество.
- — Нативная мультимодальность (текст, изображения, аудио, видео в одной модели) выделяет Gemini среди конкурентов, использующих отдельные модели для разных модальностей.
18 ноября 2025 года Google DeepMind представила Gemini 3 Pro — новую версию своей флагманской мультимодальной модели. Презентация состоялась в рамках специального мероприятия в Маунтин-Вью, и Сундар Пичаи, CEO Alphabet, лично вышел на сцену, чтобы подчеркнуть значимость релиза. Для Google это не просто обновление модели — это заявление о том, что компания, которая «изобрела трансформер» (архитектуру, лежащую в основе всех современных LLM), намерена вернуть себе лидерство.
Технические характеристики Gemini 3 Pro впечатляют. Модель обучена на инфраструктуре TPU v5p — последнем поколении тензорных процессоров Google, каждый кластер которых включает до 8 960 чипов. Контекстное окно составляет 2 миллиона токенов — на момент запуска это рекорд для публично доступных моделей, хотя практическое использование полного контекста пока ограничено через API. По заявлениям Google, модель демонстрирует state-of-the-art результаты на большинстве академических бенчмарков.
Ключевое преимущество Gemini 3 Pro — нативная мультимодальность. В отличие от GPT-4o, который был обучен как текстовая модель с добавленными модальностями, Gemini с самого начала проектировался для работы с текстом, изображениями, аудио и видео в рамках единой архитектуры. Это даёт более глубокое «понимание» связей между модальностями: модель может анализировать видеоролик, комментировать конкретные кадры, транскрибировать речь и генерировать текстовый отчёт — всё в рамках одного запроса.
На практике это проявляется в нескольких продуктах. Google Workspace получил AI-ассистента на базе Gemini 3 Pro, который может анализировать документы Google Docs, таблицы Sheets, презентации Slides и электронные письма Gmail как единый корпус. Запрос «подготовь квартальный отчёт на основе данных из этих пяти таблиц и переписки с командой» — это реальный сценарий, который Google демонстрировала на презентации.
В Google Cloud Gemini 3 Pro доступен через Vertex AI с рядом enterprise-функций: fine-tuning, grounding (подключение к внешним источникам данных), контроль цитирования и соответствие требованиям SOC 2 и HIPAA. Для корпоративных клиентов это означает, что модель можно использовать в регулируемых отраслях — здравоохранении, финансах, юриспруденции — без необходимости строить собственную инфраструктуру.
Android и устройства — ещё одно направление интеграции. Gemini 3 Pro (в облегчённой версии Nano) работает на устройствах Pixel и Samsung Galaxy, обеспечивая on-device AI без отправки данных в облако. Это критично для приватности и скорости: ответы генерируются за миллисекунды без задержки на сетевой запрос. Apple Intelligence, конкурирующий продукт, использует гибридный подход с передачей части запросов в облако — Google делает ставку на полностью локальную обработку для базовых задач.
Как Gemini 3 Pro сравнивается с конкурентами? На стандартных бенчмарках модель показывает результаты, сопоставимые с GPT-5 от OpenAI и Claude Opus 4.5 от Anthropic (Opus 4.6 будет выпущен позже, в феврале 2026). В задачах, связанных с видео и аудио, Gemini традиционно лидирует благодаря нативной мультимодальности. В чистых текстовых задачах и программировании конкуренция ближе — модели показывают схожие результаты с разницей в несколько процентных пунктов, которая зависит от конкретного бенчмарка.
Бизнес-контекст для Google здесь существенный. Компания потратила, по оценкам аналитиков Morgan Stanley, более $40 млрд на AI-инфраструктуру в 2025 году — больше, чем любая другая компания в мире. Alphabet генерирует около $80 млрд операционного денежного потока в год (за счёт рекламного бизнеса), что даёт ей уникальную возможность финансировать AI-разработки без привлечения внешнего капитала. Ни OpenAI, ни Anthropic не могут себе этого позволить.
Есть, однако, стратегическая проблема. Google зарабатывает более 75% выручки на рекламе в поиске. AI-чатботы, дающие прямые ответы, могут каннибализировать поисковый бизнес: зачем кликать на 10 синих ссылок, если AI даёт готовый ответ? Сундар Пичаи настаивает, что AI «усиливает» поиск, а не заменяет его, но инвесторы нервничают. Акции Alphabet в 2025 году показали рост слабее рынка, несмотря на технологические успехи.
Демис Хассабис, CEO Google DeepMind и нобелевский лауреат 2024 года (за AlphaFold), позиционирует Gemini 3 Pro как шаг к более общему интеллекту. В интервью Wired он говорил, что следующие версии Gemini будут двигаться в сторону мультиагентных систем, где несколько экземпляров модели сотрудничают для решения сложных задач. Это пересекается с направлением, которое развивают и OpenAI, и Anthropic.
Для рядового пользователя Gemini 3 Pro доступен через обновлённый Google Bard (теперь просто Gemini) — бесплатно в базовой версии и за $19.99/месяц в версии Advanced. Интеграция с экосистемой Google даёт практическое преимущество: модель имеет доступ к вашему Gmail, Calendar, Drive и Maps, что позволяет давать персонализированные ответы. «Когда у меня следующая встреча и какие документы к ней подготовить?» — это вопрос, на который Gemini может ответить, а ChatGPT — нет (без специальной настройки).
Что мы думаем? Google — единственная компания, которая одновременно разрабатывает фронтирные модели, производит собственные чипы (TPU), владеет крупнейшей облачной инфраструктурой и имеет миллиарды пользователей через свои продукты. Это мощная позиция, но и уязвимая: слишком много фронтов, слишком много внутренних конфликтов между подразделениями. Gemini 3 Pro — сильный продукт, но главный вопрос в другом.
Удастся ли Google превратить технологическое лидерство в продуктовое — или компания останется «лабораторией, которая изобрела трансформер, но проиграла ChatGPT»?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceClaude Opus 4.6: миллион токенов контекста и что это меняет на практике
Anthropic выпустила Claude Opus 4.6 с контекстным окном в 1 миллион токенов. Разбираемся, почему длинный контекст — это не просто маркетинговая цифра, а фундаментальный сдвиг в возможностях AI.
Модели рассуждений: o3 vs DeepSeek R1 vs Claude Thinking
Reasoning-модели — главный тренд 2025–2026. Разбираемся, как o3, R1 и Claude Thinking подходят к рассуждениям по-разному.
Claude Opus 4.5: тихий релиз модели, которая изменила стандарты
Anthropic выпустила Claude Opus 4.5 — модель, которая задала новую планку качества для текстовых задач и кода. Что внутри и почему это важно.