Как запустить Mistral 3 на своём компьютере: установка через Ollama

Mistral 3 -- семейство из 10 открытых моделей от французской компании Mistral AI: от 3B до 675B параметров, поддержка 40+ языков, зрение в каждой модели. Всё это бесплатно и можно запустить локально.

·7 мин

Что это и для кого

Mistral 3 -- это семейство AI-моделей, выпущенных французской компанией Mistral AI в конце 2025 года. В отличие от веб-интерфейса Le Chat (который мы разбирали в отдельном гайде), здесь речь идёт о запуске моделей прямо на вашем компьютере -- без интернета, без подписок, без отправки данных на сторонние серверы.

Семейство включает 10 моделей: Mistral Large 3 (675B параметров, MoE архитектура) и девять вариантов Ministral 3 трёх размеров (3B, 8B, 14B) в трёх версиях каждый (base, instruct, reasoning). Все модели выпущены под лицензией Apache 2.0 -- вы можете использовать их в коммерческих проектах бесплатно.

Главные нововведения по сравнению с предыдущими версиями Mistral: зрение во всех моделях (даже в самой маленькой 3B), удвоенное контекстное окно до 256K токенов, режим рассуждения, нативная поддержка более 40 языков включая русский, и размеры достаточно небольшие, чтобы модели работали на обычных компьютерах и даже смартфонах.

Кому это нужно: разработчикам и исследователям, которым нужна мощная мультиязычная модель без привязки к облаку; специалистам, работающим с конфиденциальными документами; пользователям в регионах с ограниченным доступом к платным AI-сервисам; всем, кто хочет интегрировать AI в собственные приложения без API-расходов.

Mistral 3 особенно хорошо работает с европейскими языками (французский, немецкий, испанский, итальянский) -- это ожидаемо для французской компании. Но и качество работы с русским языком значительно улучшилось по сравнению с предыдущими версиями. По нашим тестам Ministral 14B уверенно справляется с техническими текстами на русском, юридическими документами и художественными переводами.

Ключевое отличие Mistral 3 от других локальных моделей -- баланс между размером и качеством. Ministral 8B по многим тестам превосходит Llama 4 того же размера, особенно в мультиязычных задачах. Это делает модели Mistral 3 отличным выбором для пользователей, чьё железо не позволяет запускать 30B+ модели.

Как установить

Самый простой способ запуска Mistral 3 локально -- через Ollama. Вот пошаговая инструкция.

Шаг 1: Установите Ollama. Перейдите на ollama.com, скачайте версию для вашей операционной системы. Для macOS доступен .dmg-установщик, для Windows -- .exe, для Linux -- скрипт установки через curl. После установки Ollama работает в фоновом режиме и предоставляет локальный API на порту 11434.

Шаг 2: Выберите подходящую модель. Ориентируйтесь на объём доступной памяти:

-- Ministral 3B: нужно около 4 GB RAM. Работает даже на старых компьютерах. Подходит для простых задач: ответы на вопросы, краткое содержание, базовый код.

-- Ministral 8B: нужно около 8-10 GB RAM. Оптимальный баланс скорости и качества для большинства пользователей. Рекомендуется как стартовая точка.

-- Ministral 14B: нужно около 16-20 GB RAM. Значительно лучше справляется со сложными задачами, длинными документами и кодом.

-- Mistral Large 3: нужно 80-100 GB RAM (или несколько GPU). Только для серьёзного железа -- серверы, рабочие станции с несколькими видеокартами.

Шаг 3: Скачайте и запустите модель. Откройте терминал (Командную строку на Windows) и выполните:

ollama run ministral:8b

Ollama скачает модель (8B около 5 GB, 14B около 10 GB) и откроет интерактивный чат. Первый запуск требует подключения к интернету для скачивания. Последующие запуски работают полностью офлайн.

Для версии с режимом мышления (reasoning) используйте тег :reasoning:

ollama run ministral:8b-reasoning

Шаг 4: Работа с изображениями. Mistral 3 поддерживает изображения во всех размерах. Для отправки изображения через Ollama CLI:

ollama run ministral:8b 'Что на этом фото?' --image /путь/к/файлу.jpg

Внимание: поддержка изображений в Ollama зависит от версии. Если возникают ошибки -- обновите Ollama до последней версии командой ollama update.

Первый запуск -- что попробовать

После запуска модели вы попадёте в интерактивный чат в терминале. Вот несколько задач для первого знакомства с Mistral 3.

Тест 1: Качество русского языка. Напишите: 'Объясни принцип работы трансформера в машинном обучении простыми словами.' Mistral 3 должна дать чёткий, структурированный ответ на русском без переключения на английский.

Тест 2: Программирование. Напишите: 'Напиши функцию на Python, которая принимает список чисел и возвращает среднее, медиану и моду.' Ministral 8B и выше хорошо справляются с написанием рабочего кода с комментариями.

Тест 3: Анализ изображения. Загрузите скриншот любого документа или таблицы и спросите про его содержимое. Возможность работы с изображениями -- одна из ключевых новинок Mistral 3.

Тест 4: Режим мышления. Если вы запустили версию :reasoning, задайте сложную логическую задачу: 'У Маши 3 яблока. Она отдала Пете половину, а потом купила ещё 4. Сколько теперь у Маши?' В режиме reasoning модель сначала рассуждает вслух, потом даёт ответ -- это повышает точность на математических и логических задачах.

Для работы через API (если вы разрабатываете приложение) Ollama предоставляет совместимый с OpenAI API интерфейс на localhost:11434. Вы можете использовать любой SDK для OpenAI, просто указав base_url='http://localhost:11434/v1' и model='ministral:8b'.

Скорость: Ministral 8B на MacBook Pro M4 генерирует около 40-50 токенов в секунду -- это быстрее, чем читает большинство людей. На RTX 4090 -- около 80-100 токенов в секунду. На CPU без GPU -- 5-15 токенов в секунду, что приемлемо для несрочных задач.

Если вы хотите перейти с веб-интерфейса Le Chat на локальный запуск, разница ощутима: локальная версия работает немного медленнее (особенно без хорошего GPU), зато полностью конфиденциальна и не зависит от состояния серверов Mistral AI. Можно использовать оба варианта параллельно под разные задачи.

Для более удобного интерфейса, чем чат в терминале, можно установить Open WebUI -- бесплатный веб-интерфейс для Ollama. После установки Open WebUI ваш локальный Mistral 3 получит интерфейс, похожий на ChatGPT, доступный в браузере по адресу localhost:3000. Установка занимает 5 минут через Docker.

Ключевые фишки

Зрение во всех моделях, даже в 3B. Это уникально для такого маленького размера. Большинство конкурентов добавляют мультимодальные возможности только в крупных версиях. Ministral 3B с зрением работает даже на Raspberry Pi 5 с достаточным объёмом RAM.

Двойное контекстное окно: 256K токенов. По сравнению с предыдущим поколением Mistral контекст удвоен. 256K токенов -- это примерно 200 000 слов. Вы можете загрузить целую книгу и задавать вопросы по всему её содержанию в одном сеансе.

40+ языков нативно. Mistral 3 не просто переводит с английского -- она изначально обучена на многоязычных данных. Это значит, что модель понимает языковые нюансы, идиомы и специфику каждого языка. Для русского это особенно важно из-за сложной грамматики и падежной системы.

Режим рассуждения (reasoning mode). Версии с суффиксом :reasoning используют внутреннюю цепочку рассуждений перед ответом. Это делает модель точнее на математике, логике и технических задачах. Режим можно также активировать в обычной instruct-версии через специальный промпт.

Лицензия Apache 2.0. В отличие от многих конкурентов с ограничительными лицензиями (Llama имеет ограничения по числу пользователей), Mistral 3 полностью свободна для любого коммерческого использования без дополнительных согласований с компанией.

Работа в связке с Mistral Le Chat. Если вам нужен удобный веб-интерфейс без установки -- используйте le chat на chat.mistral.ai. Если нужен полный контроль и конфиденциальность -- запускайте локально. Обе версии используют одни и те же базовые модели.

Интеграция с разработческими инструментами. Mistral 3 поддерживается в LM Studio, Jan AI, Anything LLM и других популярных GUI-обёртках для локальных моделей. Если вам неудобен терминал -- установите один из этих интерфейсов для более удобного взаимодействия с моделью.

Совместимость с GGUF-форматом. Все модели доступны в формате GGUF на Hugging Face -- это позволяет запускать их через llama.cpp на любом железе, включая старые видеокарты AMD и Intel Arc. Не нужна CUDA и обязательная NVIDIA-видеокарта.

Цены и ограничения

Локальное использование Mistral 3 полностью бесплатно. Никаких лицензионных платежей, ограничений по запросам или требований к регистрации нет. Вы платите только за своё железо и электричество.

Если вы хотите использовать Mistral 3 через облачный API, а не локально:

Mistral AI Studio (mistral.ai): есть бесплатный тир для тестирования с ограниченным числом запросов в минуту. Платные планы тарифицируются за токены. Точные цены -- на странице mistral.ai/pricing, они регулярно меняются. Среди платных API Mistral традиционно дешевле OpenAI и Anthropic при сопоставимом качестве.

Через партнёров: Mistral 3 доступна на Amazon Bedrock, Microsoft Azure AI Foundry, IBM WatsonX, Google Vertex AI. Цены у каждого провайдера свои -- проверяйте на их сайтах.

Технические ограничения локального запуска:

Ministral 3B требует минимум 4 GB RAM, но для комфортной работы лучше иметь 8 GB свободной памяти. Ministral 14B нужно не менее 16 GB RAM или видеопамяти GPU. Mistral Large 3 с 675B параметрами требует несколько GPU или специализированное железо -- для домашнего использования он пока недоступен без серьёзных вложений.

При работе в 4-bit quantization качество ответов незначительно снижается по сравнению с полной точностью. Для большинства практических задач разница несущественна, но на математических задачах или при точных вычислениях заметна.

Также стоит знать: Ollama по умолчанию использует 4K контекст, даже если модель поддерживает 256K. Чтобы увеличить контекст, запустите Ollama с параметром: OLLAMA_NUM_CTX=32768 ollama run ministral:8b. Большой контекст требует больше памяти -- для 32K токенов Ministral 8B нужно около 16 GB RAM.

Нужен ли VPN из России

Для локального использования Mistral 3 через Ollama VPN не нужен. Hugging Face и репозиторий Ollama доступны из России без ограничений. Команда ollama run ministral:8b сразу начнёт скачивать модель.

Официальный сайт mistral.ai работает из России без VPN. Если вы хотите попробовать облачный API через Mistral AI Studio (console.mistral.ai) -- регистрация доступна без VPN, нужен лишь email.

Оплата облачного API Mistral принимается через международные карты. Если ваша карта не принимается -- попробуйте через VPN с европейским IP (Mistral -- французская компания, европейские IP обычно работают лучше). Однако для большинства задач бесплатного тира достаточно.

Важный практический момент: если вы решили запустить Mistral 3 локально, вам нужно один раз скачать модель (5-10 GB для 8B). После этого модель работает полностью офлайн -- никакой зависимости от внешних серверов нет. Это главное преимущество локального запуска в любых юрисдикциях.

Для пользователей macOS с Apple Silicon: модели Mistral 3 в формате GGUF работают нативно через Metal Performance Shaders. Это означает, что на M3/M4 MacBook они работают быстрее, чем на многих Windows-машинах с NVIDIA GPU начального уровня. Ollama автоматически определяет Apple Silicon и использует GPU-ускорение без дополнительных настроек.

Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.

Поделиться:TelegramXLinkedIn
Как вам материал?

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Как начать пользоваться Claude: пошаговая инструкция для Mac, Windows, iPhone и Android

Claude от Anthropic — AI-ассистент, который славится точностью, длинным контекстом и безопасностью. Показываем, как установить и начать использовать за 5 минут.

·3 мин·Выбор редакции

Как начать пользоваться GitHub Copilot Workspace: полный гайд

GitHub Copilot Workspace -- это отдельный AI-инструмент от GitHub, который позволяет решать задачи уровня целого репозитория прямо из Issues. Разбираемся, чем он отличается от обычного Copilot и как начать.

·8 мин

Как запустить NVIDIA Nemotron 3 Nano Omni на своём компьютере

NVIDIA Nemotron 3 Nano Omni -- первая открытая модель, которая понимает видео, аудио, изображения и текст одновременно. Доступна бесплатно через Ollama и Hugging Face. Разбираемся, как установить и использовать.

·7 мин