Все Insights

Подключение облачных моделей к OpenClaw: пошаговая инструкция

Настройка OpenAI, Anthropic, DeepSeek, OpenRouter, Amazon Bedrock и других облачных LLM-провайдеров в OpenClaw

Aravana··14 мин

Тип материала: research

Поделиться:TelegramXLinkedIn
Как вам материал?

Обзор поддерживаемых облачных провайдеров

OpenClaw поддерживает более двух десятков LLM-провайдеров, от крупнейших платформ до специализированных сервисов. Каждый провайдер подключается через свой API-ключ и конфигурируется в файле openclaw.json или через мастер онбординга. В этой статье мы подробно рассмотрим настройку наиболее популярных облачных провайдеров.

Приоритет провайдеров по умолчанию (при наличии нескольких ключей OpenClaw выберет первый доступный): Anthropic, OpenAI, OpenRouter, Google Gemini, xAI, Groq, Mistral, Cerebras, Moonshot, MiniMax, Amazon Bedrock, Ollama. Вы можете переопределить этот порядок в конфигурации.

Anthropic (Claude)

Anthropic — создатель семейства моделей Claude, одних из самых мощных LLM на рынке. Для подключения к OpenClaw вам потребуется API-ключ.

Получение API-ключа: зарегистрируйтесь на console.anthropic.com, перейдите в раздел API Keys и создайте новый ключ. Скопируйте его — ключ показывается только один раз.

Добавьте ключ в конфигурацию OpenClaw. Через мастер онбординга:

openclaw onboard

Или вручную, записав ключ в файл credentials:

echo "sk-ant-api03-..." > ~/.openclaw/credentials/anthropic
chmod 600 ~/.openclaw/credentials/anthropic

Доступные модели: Claude Opus 4.5 (самая мощная, для сложных задач), Claude Sonnet 4.5 (баланс качества и скорости), Claude Haiku 4.5 (быстрая и экономичная для простых задач). При наличии ключа Anthropic OpenClaw по умолчанию использует Claude Sonnet как основную модель.

Стоимость: Anthropic тарифицирует по количеству входных и выходных токенов. Claude Sonnet 4.5 — один из наиболее сбалансированных вариантов по соотношению цены и качества. Для экономии используйте Haiku для рутинных задач, а Opus — только для сложных.

OpenAI (GPT)

OpenAI предоставляет доступ к семейству моделей GPT, включая последние версии GPT-5 и GPT-4.5.

Получение API-ключа: зарегистрируйтесь на platform.openai.com, перейдите в API Keys и создайте новый ключ.

Добавьте ключ в OpenClaw:

echo "sk-proj-..." > ~/.openclaw/credentials/openai
chmod 600 ~/.openclaw/credentials/openai

Доступные модели: GPT-5.2 (новейшая флагманская модель), GPT-5 (предыдущий флагман), GPT-4.5-preview (мультимодальная модель), GPT-4o (оптимизированная по скорости). Если у вас нет ключа Anthropic, OpenAI становится провайдером по умолчанию.

Тестирование подключения: после добавления ключа проверьте работу:

openclaw send "Проверка подключения. Какую модель ты используешь?"

Агент должен ответить и указать используемую модель.

DeepSeek

DeepSeek — китайский провайдер, предлагающий конкурентоспособные модели по очень низкой цене. DeepSeek использует API, совместимый с OpenAI, что упрощает интеграцию.

Получение API-ключа: зарегистрируйтесь на platform.deepseek.com и создайте API-ключ.

DeepSeek подключается как OpenAI-совместимый провайдер с пользовательским базовым URL. В файле openclaw.json добавьте секцию провайдера:

{
  "models": {
    "providers": [
      {
        "name": "deepseek",
        "api": "openai-completions",
        "baseUrl": "https://api.deepseek.com/v1",
        "apiKey": "sk-..."
      }
    ]
  }
}

Модели: DeepSeek-V3 (основная модель для генерации), DeepSeek-R1 (модель с цепочкой рассуждений). DeepSeek отличается низкой стоимостью при высоком качестве, что делает его привлекательным для интенсивного использования.

OpenRouter

OpenRouter — это унифицированный API-шлюз, предоставляющий доступ к более чем 300 AI-моделям от всех основных провайдеров через единый API-ключ. Это удобный способ экспериментировать с разными моделями без регистрации у каждого провайдера отдельно.

Получение API-ключа: зарегистрируйтесь на openrouter.ai, пополните баланс и создайте API-ключ в разделе Keys.

Добавьте ключ в OpenClaw:

echo "sk-or-v1-..." > ~/.openclaw/credentials/openrouter
chmod 600 ~/.openclaw/credentials/openrouter

OpenClaw имеет встроенную поддержку OpenRouter, и вам не нужно настраивать секцию models.providers — достаточно указать API-ключ. Модели выбираются в формате openrouter/автор/модель, например:

openrouter/anthropic/claude-sonnet-4.5
openrouter/openai/gpt-5
openrouter/deepseek/deepseek-r1
openrouter/google/gemini-2.5-pro

Преимущества OpenRouter: один ключ для всех моделей, автоматическое переключение при недоступности провайдера (fallback), единый счёт и панель управления, доступ к моделям, которые иначе требуют отдельной регистрации.

Amazon Bedrock

Amazon Bedrock предоставляет доступ к AI-моделям через инфраструктуру AWS. Это enterprise-решение, подходящее для организаций, уже использующих AWS.

Настройка: для Bedrock вместо одного API-ключа требуются AWS-креденшалы. Создайте IAM-пользователя с доступом к Bedrock в консоли AWS и настройте переменные окружения:

export AWS_ACCESS_KEY_ID="AKIAIOSFODNN7EXAMPLE"
export AWS_SECRET_ACCESS_KEY="wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY"
export AWS_REGION="us-east-1"

Или добавьте их в файл .env рядом с конфигурацией OpenClaw. Убедитесь, что в выбранном регионе активированы нужные модели через консоль AWS Bedrock.

Доступные модели через Bedrock: Claude (Anthropic), Llama (Meta), Titan (Amazon), Mistral, Cohere и другие — в зависимости от региона и подключённых моделей.

Vercel AI Gateway

Vercel AI Gateway — это прокси для AI-моделей, встроенный в платформу Vercel. Он подходит для разработчиков, уже использующих Vercel для хостинга веб-приложений. Настройка аналогична OpenRouter: единый эндпоинт с маршрутизацией к различным провайдерам.

Moonshot AI и MiniMax

Moonshot AI (Kimi) и MiniMax — это китайские LLM-провайдеры, предлагающие модели с поддержкой длинного контекста и многоязычности. Оба провайдера используют OpenAI-совместимый API.

Для Moonshot AI:

{
  "name": "moonshot",
  "api": "openai-completions",
  "baseUrl": "https://api.moonshot.cn/v1",
  "apiKey": "sk-..."
}

Для MiniMax:

{
  "name": "minimax",
  "api": "openai-completions",
  "baseUrl": "https://api.minimax.chat/v1",
  "apiKey": "..."
}

Эти провайдеры интересны прежде всего поддержкой китайского языка и низкой стоимостью, но качество генерации на русском и английском может уступать Anthropic и OpenAI.

Тестирование провайдеров

После настройки каждого провайдера рекомендуется выполнить тестовый запрос для проверки:

openclaw send "Тест. Ответь одним предложением: какая ты модель и от какого провайдера?"

Для переключения между провайдерами без изменения конфигурации используйте переменную окружения или флаг CLI (если поддерживается вашей версией OpenClaw).

Управление расходами и лимитами

При использовании облачных моделей важно контролировать расходы. Каждый вызов LLM тарифицируется по количеству токенов. Механизм Heartbeat, вызывающий LLM каждые 30 минут, может генерировать заметный расход, особенно с дорогими моделями вроде Claude Opus или GPT-5.

Рекомендации по оптимизации расходов: используйте более дешёвые модели (Haiku, GPT-4o-mini) для рутинных задач и Heartbeat. Увеличьте интервал Heartbeat, если проактивность не критична. Установите лимиты расходов в панели управления провайдера. Мониторьте использование через дашборд провайдера или логи OpenClaw.

Настройте уведомления о достижении пороговых значений расхода в панели провайдера, чтобы избежать неожиданных счетов.

Мультипровайдерная конфигурация

OpenClaw позволяет настроить несколько провайдеров одновременно. Это полезно для резервирования: если основной провайдер недоступен, агент автоматически переключается на резервный. Также можно назначить разные модели для разных задач: мощную модель для сложных запросов и экономичную — для Heartbeat и простых команд.

В файле openclaw.json можно указать несколько провайдеров в секции models.providers, и OpenClaw будет использовать их в соответствии с приоритетом или явным назначением.

Следующий шаг

Если вы хотите работать с OpenClaw полностью автономно, без зависимости от облачных сервисов и без расходов на API, читайте следующую статью о подключении локальных моделей через Ollama.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Как начать пользоваться Midjourney: генерация картинок AI

Midjourney — самый популярный AI-генератор изображений. Фотореализм, арт, иллюстрации, логотипы. Показываем, как начать — от регистрации до первой картинки.

·6 мин·Выбор редакции

Как установить Ollama: запуск AI-моделей на своём компьютере

Ollama — самый простой способ запустить AI-модели локально. Llama, Mistral, Qwen, DeepSeek — всё работает на вашем компьютере, без интернета, бесплатно и приватно.

·7 мин·Выбор редакции

Как начать пользоваться ChatGPT: пошаговая инструкция для Mac, Windows, iPhone и Android

Регистрация, установка, первый запрос — всё, что нужно, чтобы начать общаться с самой популярной нейросетью в мире. Без технических знаний, за 5 минут.

·7 мин·Выбор редакции