Подключение облачных моделей к OpenClaw: пошаговая инструкция
Настройка OpenAI, Anthropic, DeepSeek, OpenRouter, Amazon Bedrock и других облачных LLM-провайдеров в OpenClaw
Тип материала: research
Обзор поддерживаемых облачных провайдеров
OpenClaw поддерживает более двух десятков LLM-провайдеров, от крупнейших платформ до специализированных сервисов. Каждый провайдер подключается через свой API-ключ и конфигурируется в файле openclaw.json или через мастер онбординга. В этой статье мы подробно рассмотрим настройку наиболее популярных облачных провайдеров.
Приоритет провайдеров по умолчанию (при наличии нескольких ключей OpenClaw выберет первый доступный): Anthropic, OpenAI, OpenRouter, Google Gemini, xAI, Groq, Mistral, Cerebras, Moonshot, MiniMax, Amazon Bedrock, Ollama. Вы можете переопределить этот порядок в конфигурации.
Anthropic (Claude)
Anthropic — создатель семейства моделей Claude, одних из самых мощных LLM на рынке. Для подключения к OpenClaw вам потребуется API-ключ.
Получение API-ключа: зарегистрируйтесь на console.anthropic.com, перейдите в раздел API Keys и создайте новый ключ. Скопируйте его — ключ показывается только один раз.
Добавьте ключ в конфигурацию OpenClaw. Через мастер онбординга:
openclaw onboardИли вручную, записав ключ в файл credentials:
echo "sk-ant-api03-..." > ~/.openclaw/credentials/anthropic
chmod 600 ~/.openclaw/credentials/anthropicДоступные модели: Claude Opus 4.5 (самая мощная, для сложных задач), Claude Sonnet 4.5 (баланс качества и скорости), Claude Haiku 4.5 (быстрая и экономичная для простых задач). При наличии ключа Anthropic OpenClaw по умолчанию использует Claude Sonnet как основную модель.
Стоимость: Anthropic тарифицирует по количеству входных и выходных токенов. Claude Sonnet 4.5 — один из наиболее сбалансированных вариантов по соотношению цены и качества. Для экономии используйте Haiku для рутинных задач, а Opus — только для сложных.
OpenAI (GPT)
OpenAI предоставляет доступ к семейству моделей GPT, включая последние версии GPT-5 и GPT-4.5.
Получение API-ключа: зарегистрируйтесь на platform.openai.com, перейдите в API Keys и создайте новый ключ.
Добавьте ключ в OpenClaw:
echo "sk-proj-..." > ~/.openclaw/credentials/openai
chmod 600 ~/.openclaw/credentials/openaiДоступные модели: GPT-5.2 (новейшая флагманская модель), GPT-5 (предыдущий флагман), GPT-4.5-preview (мультимодальная модель), GPT-4o (оптимизированная по скорости). Если у вас нет ключа Anthropic, OpenAI становится провайдером по умолчанию.
Тестирование подключения: после добавления ключа проверьте работу:
openclaw send "Проверка подключения. Какую модель ты используешь?"Агент должен ответить и указать используемую модель.
DeepSeek
DeepSeek — китайский провайдер, предлагающий конкурентоспособные модели по очень низкой цене. DeepSeek использует API, совместимый с OpenAI, что упрощает интеграцию.
Получение API-ключа: зарегистрируйтесь на platform.deepseek.com и создайте API-ключ.
DeepSeek подключается как OpenAI-совместимый провайдер с пользовательским базовым URL. В файле openclaw.json добавьте секцию провайдера:
{
"models": {
"providers": [
{
"name": "deepseek",
"api": "openai-completions",
"baseUrl": "https://api.deepseek.com/v1",
"apiKey": "sk-..."
}
]
}
}Модели: DeepSeek-V3 (основная модель для генерации), DeepSeek-R1 (модель с цепочкой рассуждений). DeepSeek отличается низкой стоимостью при высоком качестве, что делает его привлекательным для интенсивного использования.
OpenRouter
OpenRouter — это унифицированный API-шлюз, предоставляющий доступ к более чем 300 AI-моделям от всех основных провайдеров через единый API-ключ. Это удобный способ экспериментировать с разными моделями без регистрации у каждого провайдера отдельно.
Получение API-ключа: зарегистрируйтесь на openrouter.ai, пополните баланс и создайте API-ключ в разделе Keys.
Добавьте ключ в OpenClaw:
echo "sk-or-v1-..." > ~/.openclaw/credentials/openrouter
chmod 600 ~/.openclaw/credentials/openrouterOpenClaw имеет встроенную поддержку OpenRouter, и вам не нужно настраивать секцию models.providers — достаточно указать API-ключ. Модели выбираются в формате openrouter/автор/модель, например:
openrouter/anthropic/claude-sonnet-4.5
openrouter/openai/gpt-5
openrouter/deepseek/deepseek-r1
openrouter/google/gemini-2.5-proПреимущества OpenRouter: один ключ для всех моделей, автоматическое переключение при недоступности провайдера (fallback), единый счёт и панель управления, доступ к моделям, которые иначе требуют отдельной регистрации.
Amazon Bedrock
Amazon Bedrock предоставляет доступ к AI-моделям через инфраструктуру AWS. Это enterprise-решение, подходящее для организаций, уже использующих AWS.
Настройка: для Bedrock вместо одного API-ключа требуются AWS-креденшалы. Создайте IAM-пользователя с доступом к Bedrock в консоли AWS и настройте переменные окружения:
export AWS_ACCESS_KEY_ID="AKIAIOSFODNN7EXAMPLE"
export AWS_SECRET_ACCESS_KEY="wJalrXUtnFEMI/K7MDENG/bPxRfiCYEXAMPLEKEY"
export AWS_REGION="us-east-1"Или добавьте их в файл .env рядом с конфигурацией OpenClaw. Убедитесь, что в выбранном регионе активированы нужные модели через консоль AWS Bedrock.
Доступные модели через Bedrock: Claude (Anthropic), Llama (Meta), Titan (Amazon), Mistral, Cohere и другие — в зависимости от региона и подключённых моделей.
Vercel AI Gateway
Vercel AI Gateway — это прокси для AI-моделей, встроенный в платформу Vercel. Он подходит для разработчиков, уже использующих Vercel для хостинга веб-приложений. Настройка аналогична OpenRouter: единый эндпоинт с маршрутизацией к различным провайдерам.
Moonshot AI и MiniMax
Moonshot AI (Kimi) и MiniMax — это китайские LLM-провайдеры, предлагающие модели с поддержкой длинного контекста и многоязычности. Оба провайдера используют OpenAI-совместимый API.
Для Moonshot AI:
{
"name": "moonshot",
"api": "openai-completions",
"baseUrl": "https://api.moonshot.cn/v1",
"apiKey": "sk-..."
}Для MiniMax:
{
"name": "minimax",
"api": "openai-completions",
"baseUrl": "https://api.minimax.chat/v1",
"apiKey": "..."
}Эти провайдеры интересны прежде всего поддержкой китайского языка и низкой стоимостью, но качество генерации на русском и английском может уступать Anthropic и OpenAI.
Тестирование провайдеров
После настройки каждого провайдера рекомендуется выполнить тестовый запрос для проверки:
openclaw send "Тест. Ответь одним предложением: какая ты модель и от какого провайдера?"Для переключения между провайдерами без изменения конфигурации используйте переменную окружения или флаг CLI (если поддерживается вашей версией OpenClaw).
Управление расходами и лимитами
При использовании облачных моделей важно контролировать расходы. Каждый вызов LLM тарифицируется по количеству токенов. Механизм Heartbeat, вызывающий LLM каждые 30 минут, может генерировать заметный расход, особенно с дорогими моделями вроде Claude Opus или GPT-5.
Рекомендации по оптимизации расходов: используйте более дешёвые модели (Haiku, GPT-4o-mini) для рутинных задач и Heartbeat. Увеличьте интервал Heartbeat, если проактивность не критична. Установите лимиты расходов в панели управления провайдера. Мониторьте использование через дашборд провайдера или логи OpenClaw.
Настройте уведомления о достижении пороговых значений расхода в панели провайдера, чтобы избежать неожиданных счетов.
Мультипровайдерная конфигурация
OpenClaw позволяет настроить несколько провайдеров одновременно. Это полезно для резервирования: если основной провайдер недоступен, агент автоматически переключается на резервный. Также можно назначить разные модели для разных задач: мощную модель для сложных запросов и экономичную — для Heartbeat и простых команд.
В файле openclaw.json можно указать несколько провайдеров в секции models.providers, и OpenClaw будет использовать их в соответствии с приоритетом или явным назначением.
Следующий шаг
Если вы хотите работать с OpenClaw полностью автономно, без зависимости от облачных сервисов и без расходов на API, читайте следующую статью о подключении локальных моделей через Ollama.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.
Как начать пользоваться Midjourney: генерация картинок AI
Midjourney — самый популярный AI-генератор изображений. Фотореализм, арт, иллюстрации, логотипы. Показываем, как начать — от регистрации до первой картинки.
Как установить Ollama: запуск AI-моделей на своём компьютере
Ollama — самый простой способ запустить AI-модели локально. Llama, Mistral, Qwen, DeepSeek — всё работает на вашем компьютере, без интернета, бесплатно и приватно.
Как начать пользоваться ChatGPT: пошаговая инструкция для Mac, Windows, iPhone и Android
Регистрация, установка, первый запрос — всё, что нужно, чтобы начать общаться с самой популярной нейросетью в мире. Без технических знаний, за 5 минут.