Первый запуск и начальная настройка OpenClaw: пошаговая инструкция
Мастер онбординга, выбор LLM-провайдера, структура конфигурации и первый разговор с вашим AI-агентом
Тип материала: research
Подготовка к первому запуску
После установки OpenClaw (через npm или Docker) следующий шаг — запуск мастера начальной настройки. Этот мастер проведёт вас через конфигурацию всех ключевых параметров: выбор LLM-провайдера, настройку рабочего пространства, подключение каналов связи и активацию навыков.
Перед запуском убедитесь, что у вас есть API-ключ хотя бы одного LLM-провайдера. Если вы планируете использовать облачные модели, подготовьте ключ от Anthropic (Claude), OpenAI (GPT) или другого поддерживаемого провайдера. Если вы хотите работать полностью локально, установите Ollama (подробности — в отдельной статье).
Запуск мастера онбординга
Для нативной установки (через npm) выполните одну из двух команд:
openclaw onboardили эквивалентную:
openclaw startДля Docker-установки используйте:
docker compose run --rm openclaw-cli onboardМастер онбординга запускается в интерактивном режиме и задаёт серию вопросов, на основе которых генерирует конфигурацию.
Шаг 1: выбор LLM-провайдера
На первом шаге мастер предложит выбрать провайдера языковой модели. Вам будет показан список поддерживаемых провайдеров с приоритетом по умолчанию: Anthropic, OpenAI, OpenRouter, Google Gemini, xAI, Groq, Ollama и другие. Выберите провайдера и введите API-ключ, когда будет запрошен.
Мастер проверит введённый ключ, выполнив тестовый запрос к API. Если ключ валиден, вы увидите подтверждение и название доступной модели. Если ключ невалиден, мастер предложит ввести его повторно.
Шаг 2: генерация токена Gateway
Мастер автоматически генерирует уникальный токен для Gateway — внутреннего API-шлюза OpenClaw. Этот токен записывается в файл .env и используется для аутентификации запросов к Gateway. Токен нельзя терять: если вы его потеряете, придётся перегенерировать его и обновить конфигурацию всех подключённых клиентов.
Шаг 3: настройка рабочего пространства
На этом шаге мастер создаёт рабочее пространство (workspace) — набор файлов, определяющих поведение и знания вашего агента. Вам будет предложено указать имя агента и краткое описание его назначения. На основе ваших ответов мастер сгенерирует начальные версии файлов SOUL.md, AGENTS.md и USER.md.
Шаг 4: подключение каналов связи (опционально)
Мастер предложит подключить один или несколько каналов коммуникации: Telegram, WhatsApp, Discord, Slack или веб-чат. Вы можете пропустить этот шаг и настроить каналы позже. Для каждого канала потребуется соответствующий токен или учётные данные (например, Telegram Bot Token).
Шаг 5: активация навыков (опционально)
На последнем шаге мастер показывает список доступных навыков (Skills) и предлагает активировать нужные. Навыки включают работу с электронной почтой, календарём, файловой системой, веб-поиском, умным домом и другими сервисами. Вы можете активировать или деактивировать навыки в любое время после онбординга.
Структура директории ~/.openclaw/
После завершения онбординга OpenClaw создаёт конфигурационную директорию в домашнем каталоге пользователя. Её структура выглядит следующим образом:
~/.openclaw/
├── openclaw.json # Главный конфигурационный файл
├── credentials/ # API-ключи (chmod 600)
│ ├── anthropic
│ ├── openai
│ └── ...
├── sessions/ # Данные сессий
└── workspace/ # Рабочее пространство агента
├── AGENTS.md # Операционные инструкции
├── SOUL.md # Личность и тон агента
├── USER.md # Описание пользователя
├── TOOLS.md # Документация инструментов
├── HEARTBEAT.md # Автономные задачи
├── MEMORY.md # Основная память (100 строк)
├── memory/ # Расширенная память
│ ├── people/
│ ├── projects/
│ ├── topics/
│ └── decisions/
└── skills/ # Файлы навыков
├── email.md
├── calendar.md
└── ...Главный конфигурационный файл openclaw.json содержит путь к рабочему пространству, параметры Gateway, настройки моделей и другие глобальные параметры. Файлы в директории credentials/ хранят API-ключи с ограниченными правами доступа (chmod 600), чтобы другие пользователи системы не могли их прочитать.
Запуск Gateway
После онбординга запустите Gateway — основной серверный компонент OpenClaw:
openclaw gatewayGateway запускается как фоновый процесс и начинает слушать порт 18789 (по умолчанию). В терминале вы увидите сообщение о успешном запуске с указанием адреса и порта.
Для проверки работоспособности Gateway откройте в браузере или выполните curl-запрос:
curl http://localhost:18789/healthzЕсли Gateway работает корректно, вы получите ответ с информацией о статусе. Эндпоинт /readyz показывает готовность к обработке запросов, включая доступность LLM-провайдера.
Первый тестовый разговор
Самый простой способ проверить работу OpenClaw — отправить сообщение через CLI:
openclaw send "Привет! Расскажи о себе."Агент должен ответить, представившись в соответствии с настройками из SOUL.md. Если ответ получен, значит вся цепочка работает: CLI отправляет сообщение через Gateway, Gateway передаёт его в Brain, Brain вызывает LLM-провайдера, получает ответ и возвращает его обратно через Gateway в CLI.
Для более интерактивного общения используйте режим чата:
openclaw chatВ этом режиме вы можете вести непрерывный диалог с агентом прямо в терминале. Для выхода введите /exit или нажмите Ctrl+C.
Основные CLI-команды
OpenClaw предоставляет набор CLI-команд для управления агентом:
# Запуск Gateway
openclaw gateway
# Отправка одиночного сообщения
openclaw send "Ваше сообщение"
# Интерактивный чат
openclaw chat
# Просмотр статуса Gateway
openclaw status
# Просмотр версии
openclaw --version
# Справка по командам
openclaw --help
# Повторный онбординг
openclaw onboardПросмотр логов
Логи OpenClaw — основной инструмент диагностики. Gateway записывает логи в стандартный вывод, а также может сохранять их в файл. Для просмотра логов в реальном времени при нативной установке используйте:
openclaw gateway --verboseФлаг --verbose включает подробное логирование, полезное при отладке. В логах вы увидите входящие и исходящие сообщения, вызовы к LLM-провайдеру, выполнение навыков и ошибки.
Для Docker-установки используйте стандартный просмотр логов контейнера:
docker compose logs -f openclaw-gatewayНастройка SOUL.md: личность вашего агента
Файл SOUL.md — это «лист персонажа» вашего агента. Он загружается в контекст LLM в начале каждой сессии и определяет, как агент себя ведёт. Откройте его в любом текстовом редакторе и настройте под ваши нужды.
Типичный SOUL.md включает: имя агента, роль (личный ассистент, технический помощник, секретарь), тон общения (формальный, дружелюбный, лаконичный), языковые предпочтения (на каком языке общаться), ограничения (что агент не должен делать), контекст (ваш часовой пояс, рабочее расписание).
Настройка HEARTBEAT.md: проактивные задачи
Файл HEARTBEAT.md определяет задачи, которые агент выполняет автономно при каждом heartbeat-цикле (по умолчанию каждые 30 минут). Например, вы можете настроить агента проверять входящую почту, напоминать о предстоящих встречах или мониторить определённые веб-страницы.
Каждая задача описывается в Markdown-формате с указанием условий выполнения, приоритета и ожидаемого результата. Gateway периодически отправляет агенту heartbeat-промпт, и агент решает, какие задачи из HEARTBEAT.md нужно выполнить прямо сейчас.
Устранение типичных проблем при первом запуске
Gateway не запускается, порт 18789 занят. Проверьте, не работает ли уже другой экземпляр OpenClaw или иное приложение на этом порту. Используйте команду lsof -i :18789 (macOS/Linux) для поиска процесса, занимающего порт. Вы можете изменить порт Gateway в конфигурации.
Ошибка аутентификации при вызове LLM. Убедитесь, что API-ключ введён правильно. Проверьте файл в директории credentials/. Убедитесь, что на вашем аккаунте провайдера есть средства (для платных API) и не превышены лимиты запросов.
Агент не отвечает на сообщения. Проверьте логи Gateway командой openclaw gateway --verbose. Убедитесь, что Gateway запущен и доступен по адресу http://localhost:18789/healthz. Проверьте сетевое соединение с LLM-провайдером.
Следующий шаг
Теперь, когда ваш AI-агент настроен и работает, пора разобраться с подключением различных LLM-провайдеров. В следующей статье мы подробно рассмотрим настройку облачных моделей от OpenAI, Anthropic, DeepSeek и других провайдеров.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.
Как начать пользоваться Midjourney: генерация картинок AI
Midjourney — самый популярный AI-генератор изображений. Фотореализм, арт, иллюстрации, логотипы. Показываем, как начать — от регистрации до первой картинки.
Как установить Ollama: запуск AI-моделей на своём компьютере
Ollama — самый простой способ запустить AI-модели локально. Llama, Mistral, Qwen, DeepSeek — всё работает на вашем компьютере, без интернета, бесплатно и приватно.
Как начать пользоваться ChatGPT: пошаговая инструкция для Mac, Windows, iPhone и Android
Регистрация, установка, первый запрос — всё, что нужно, чтобы начать общаться с самой популярной нейросетью в мире. Без технических знаний, за 5 минут.