Gemma 4: как запустить лучшую open-source модель от Google на своём компьютере
Gemma 4 -- открытая мультимодальная модель от Google (Apache 2.0), занимающая топ-3 среди open-source моделей мира. Запускается через Ollama, LM Studio и локально. Полное руководство.
Что это и для кого
Gemma 4 -- это семейство открытых мультимодальных языковых моделей от Google DeepMind, выпущенных 5 мая 2026 года. Слово «открытых» здесь означает не просто «бесплатных», а открытые веса: файлы модели доступны для скачивания, локального запуска и встраивания в собственные продукты под лицензией Apache 2.0, которая разрешает коммерческое использование без роялти.
Главная особенность Gemma 4 по сравнению с предыдущими версиями: модели стали мультимодальными, то есть понимают не только текст, но и изображения. Версия 31B (31 миллиард параметров) занимает 3-е место в глобальном рейтинге открытых моделей на Arena AI Leaderboard по состоянию на май 2026 года, уступая только значительно более крупным проприетарным системам. Версия 26B с архитектурой Mixture-of-Experts (MoE) занимает 6-е место.
Кому будет полезен этот гайд. Разработчикам, которые хотят встроить мощную языковую модель в своё приложение без зависимости от платных API. Специалистам по данным и исследователям, которым нужна открытая модель для экспериментов. Энтузиастам, которые хотят запустить умный AI-ассистент на своём компьютере без интернета и облачных сервисов. Компаниям, которым требуется полная приватность обработки данных -- модель работает полностью локально, никакие данные не покидают ваш компьютер.
Gemma 4 поддерживает: анализ изображений (описание, ответы на вопросы по картинке, OCR), генерацию кода на всех популярных языках программирования, многошаговые рассуждения и решение задач, работу с документами и длинными текстами, вызов внешних функций и инструментов (function calling) для построения агентов. Контекстное окно у всех версий -- 128 тысяч токенов.
Как зарегистрироваться / установить
Существует несколько способов использовать Gemma 4, и для большинства пользователей регистрация не нужна. Рассмотрим три основных пути.
Способ 1: через Ollama (рекомендуется для начала). Ollama -- это инструмент командной строки для локального запуска AI-моделей. Его установка занимает 2 минуты, и после этого Gemma 4 запускается одной командой.
Установка Ollama: перейдите на ollama.com и скачайте установщик для вашей операционной системы (macOS, Windows, Linux). Запустите установщик и следуйте инструкциям. После установки откройте Терминал (macOS/Linux) или PowerShell (Windows) и выполните команду: ollama run gemma4:27b. Ollama автоматически скачает модель (размер: около 17 ГБ для версии 27B) и запустит её.
После загрузки вы увидите интерактивный чат-интерфейс прямо в терминале. Введите любой вопрос и нажмите Enter. Для выхода из чата введите /bye или нажмите Ctrl+D.
Доступные версии Gemma 4 в Ollama: gemma4:2b (самая маленькая, около 2 ГБ, для старых компьютеров), gemma4:4b (около 3 ГБ, хороший баланс), gemma4:27b (рекомендуется, около 17 ГБ, лучшее качество для домашнего использования).
Способ 2: через LM Studio (графический интерфейс). Если терминал вам незнаком или некомфортен, LM Studio предлагает красивый графический интерфейс. Скачайте LM Studio с сайта lmstudio.ai (доступно для macOS, Windows, Linux). Откройте приложение, перейдите в раздел Search Models, введите в поиске «gemma 4». Выберите подходящую версию (рекомендуется Gemma-4-27B-IT-Q4_K_M -- квантизированная версия с хорошим соотношением размера и качества). Нажмите Download. После загрузки перейдите в Chat и начните разговор.
Способ 3: через Google AI Studio (без установки). Если у вас нет мощного GPU или вы хотите попробовать модель перед локальной установкой, используйте Google AI Studio (aistudio.google.com). Это бесплатный веб-интерфейс от Google с доступом к Gemma 4 и другим моделям. Регистрация через аккаунт Google, никаких установок не требуется. Ограничение: данные обрабатываются в облаке Google, а не локально.
Требования к оборудованию для локального запуска: версия 2B и 4B -- любой современный компьютер с 8 ГБ RAM, GPU необязателен (работает на процессоре, но медленнее); версия 27B -- рекомендуется 16-24 ГБ оперативной памяти; GPU с 12-16 ГБ VRAM (NVIDIA RTX 3080/4070 или Apple M2 Pro/Max) значительно ускоряет работу. Для версии 31B (Dense) нужен профессиональный GPU с 24+ ГБ VRAM.
Первый запуск -- что попробовать
После установки через Ollama запустите терминал и введите команду ollama run gemma4:27b. Дождитесь загрузки (только в первый раз) и попробуйте следующие задания.
Базовое общение и вопросы. Спросите модель что-нибудь на русском языке: «Объясни, как работает квантовый компьютер, простыми словами». Gemma 4 отлично понимает русский язык и отвечает на нём. Для технических вопросов по программированию лучше писать на английском.
Генерация кода. Попросите написать код: «Write a Python function that reads a CSV file and calculates the average of each numeric column». Gemma 4 27B даёт высококачественный код с комментариями. Для работы с кодом эта версия не уступает многим проприетарным моделям среднего уровня.
Анализ изображения. Через LM Studio или Google AI Studio (Ollama в терминале не поддерживает изображения без дополнительной настройки) загрузите изображение и задайте вопрос: «Что изображено на этой картинке?» или «Найди все тексты на этом скриншоте». Мультимодальность -- новая фича Gemma 4 по сравнению с Gemma 3.
Работа с длинными текстами. Вставьте большой текст (статью, документ, код) и попросите: «Кратко изложи основные идеи», «Найди противоречия в этом тексте», «Преобразуй этот текст в маркированный список». Контекстное окно в 128 тысяч токенов позволяет работать с текстами объёмом до 100 страниц за один запрос.
Через Open WebUI. Для более удобного веб-интерфейса поверх Ollama установите Open WebUI командой: docker run -d -p 3000:8080 ghcr.io/open-webui/open-webui:main. После этого откройте браузер на localhost:3000. Там вы получите ChatGPT-подобный интерфейс с историей чатов, возможностью загружать файлы и переключаться между моделями.
Сравнение с другими локальными моделями. Если у вас уже есть Ollama с другими моделями, попробуйте задать один и тот же вопрос Gemma 4 27B и Llama 4 Scout или Qwen3. Для большинства текстовых задач Gemma 4 27B показывает качество, сопоставимое с Llama 4 Scout при меньшем размере файла. Для задач с кодом Qwen3 и Kimi K2 могут превзойти Gemma -- каждая модель имеет свои сильные стороны.
Ключевые фишки
Мультимодальность (текст и изображения). Все версии Gemma 4 принимают на вход как текст, так и изображения. Это означает: распознавание текста на фото (OCR), описание изображений и ответы на вопросы о содержимом, анализ диаграмм, схем, снимков экрана, проверка UI-дизайнов на доступность и соответствие гайдлайнам. Изображения могут быть любого соотношения сторон -- модель автоматически адаптируется.
Нативный вызов функций (Function Calling). Gemma 4 умеет вызывать внешние инструменты: поиск в интернете, работа с файлами, запросы к API, выполнение кода. Это делает её подходящей основой для построения AI-агентов. Формат вызова функций совместим со стандартом OpenAI, что упрощает интеграцию с существующими фреймворками (LangChain, LlamaIndex).
Коммерческая лицензия Apache 2.0. В отличие от многих open-source моделей, которые запрещают коммерческое использование или требуют отдельного лицензионного соглашения, Gemma 4 распространяется под лицензией Apache 2.0. Это позволяет использовать модель в коммерческих продуктах, дообучать её на собственных данных и распространять модифицированные версии без разрешения Google.
Оптимизация для устройств. Модели 2B и 4B специально оптимизированы для запуска на мобильных устройствах и устройствах на краю сети (edge computing). Они поддерживают WebGPU, что означает возможность запуска прямо в браузере без сервера. Это открывает возможности для создания приложений с локальным AI, который работает без интернета.
Поддержка дообучения (Fine-tuning). Google предоставляет официальные инструкции и код для дообучения Gemma 4 на собственных данных. С помощью LoRA или QLoRA технологий можно дообучить модель на специализированном датасете (медицинские тексты, юридические документы, отраслевые термины) на обычном потребительском GPU за несколько часов. Официальный репозиторий с кодом для дообучения доступен на GitHub google-deepmind/gemma.
Цены и ограничения
Полностью бесплатно при локальном запуске. Скачивание весов модели бесплатно с Hugging Face (huggingface.co/google/gemma-4) и Kaggle. Запуск через Ollama и LM Studio также бесплатен. Никаких подписок, токенных лимитов или счётчиков запросов при локальном использовании нет.
Google AI Studio: бесплатный облачный доступ к Gemma 4 через aistudio.google.com. Есть лимиты на количество запросов в минуту/день -- актуальные цифры указаны в личном кабинете AI Studio. Для API-доступа через Google Cloud (Vertex AI) применяются стандартные тарифы Google Cloud.
Сторонние хостинги: Gemma 4 доступна через Together AI, Replicate, DeepInfra и другие провайдеры по цене от 0.20 до 0.50 доллара за 1 млн токенов. Для сравнения, GPT-5.5 стоит около 5 долларов за 1 млн входных токенов -- Gemma 4 обходится в 10-25 раз дешевле при сопоставимом качестве для многих задач.
Требования к хранилищу: размер файлов модели значителен: Gemma 4 2B -- около 2 ГБ; 4B -- около 3 ГБ; 27B (Q4 квантизация) -- около 17 ГБ; 31B (полная точность) -- около 60 ГБ. Убедитесь, что на диске достаточно свободного места перед скачиванием.
Ограничения по возможностям: несмотря на высокое качество, Gemma 4 уступает топовым проприетарным моделям (Claude Opus 4.7, GPT-5.5) в сложных многошаговых задачах, требующих глубокого рассуждения. Для задач где важна максимальная точность и нет ограничений по стоимости, лучше использовать более мощные облачные модели.
Нужен ли VPN из России
Хорошая новость: для основного способа использования Gemma 4 VPN не нужен. Скачивание весов модели с Hugging Face (huggingface.co) доступно из России без ограничений. Сайт Hugging Face не блокируется в России, и скачивание файлов модели работает через прямое подключение.
Для Ollama и LM Studio -- оба инструмента полностью локальные: после скачивания модели никакое интернет-подключение не требуется. Это абсолютно закрытая система, в которой все данные остаются на вашем компьютере. VPN не нужен ни для установки, ни для использования.
Для Google AI Studio (aistudio.google.com) -- это сервис Google, и его доступность из России периодически нестабильна. Часть пользователей заходит без проблем, другие получают ошибки. Если Google AI Studio недоступен, попробуйте VPN с европейским или американским сервером.
Для доступа к Kaggle (альтернативное место скачивания весов) регистрация через аккаунт Google. Kaggle доступен из России.
Итог: если вы планируете запускать Gemma 4 локально через Ollama или LM Studio, VPN вам не потребуется совсем. Это делает Gemma 4 одним из самых доступных для российских пользователей AI-инструментов на сегодняшний день -- особенно учитывая блокировки американских облачных сервисов. Открытые веса, коммерческая лицензия, полная приватность и работа без интернета -- эти четыре факта делают Gemma 4 отличным выбором для тех, кто хочет использовать мощный AI без зависимости от внешних провайдеров.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.
Как начать пользоваться Google Gemini: пошаговая инструкция для всех устройств
Google Gemini — AI-ассистент, встроенный в экосистему Google. Работает в браузере, на телефоне и внутри Gmail, Docs и YouTube. Показываем, как начать.
Как пользоваться Notion AI: умные заметки, базы знаний и автоматизация
Notion AI — AI-ассистент внутри самого популярного приложения для заметок и проектов. Пишет, суммирует, переводит, генерирует — прямо в ваших документах.
Как установить GitHub Copilot: AI-напарник для программистов
GitHub Copilot пишет код вместе с вами — автодополнение, генерация функций, объяснение кода. Показываем, как подключить к VS Code и начать.