Тема автономных агентов переживает бурный рост. Возможность делегировать AI не просто генерацию текста, а полноценное выполнение задач — от написания кода до управления сервером — выглядит заманчиво. OpenClaw (ранее известный как Moltbot) к началу 2026 года стал де-факто стандартом в этой индустрии, предоставляя мощный инструментарий для создания цифровых сотрудников.
Однако за удобством скрываются риски. Предоставляя модели доступ к консоли и файловой системе, мы фактически передаем управление "черному ящику". В этой статье мы разберем подход к развертыванию OpenClaw, который минимизирует риски: использование изолированной среды, контейнеризация и контроль доступа.
Запуск агента на локальной рабочей машине — это всегда риск. Ошибочная интерпретация команды или галлюцинация модели может привести к потере данных. Поэтому один из верных подходов для экспериментов и работы — вынос агента в изолированный контур (Sandbox).
Среда: Выделенный VPS или виртуальная машина (Ubuntu 24.04/25.10).
Изоляция: Docker-контейнер с ограниченными правами.
Сеть: Strict Firewall (белый список адресов).
Мозг: Стабильный API провайдер (VseLLM).
Используем чистый образ Ubuntu. Первое действие — настройка сетевого экрана (UFW). Наша задача — закрыть все входящие соединения, которые не являются критически важными.
# Сначала разрешаем SSH, чтобы не потерять доступ! sudo ufw allow ssh # Запрещаем все входящие по умолчанию sudo ufw default deny incoming # Разрешаем исходящие (агенту нужно качать пакеты и ходить в API) sudo ufw default allow outgoing sudo ufw enable
Мы не будем ставить зависимости в систему. Это создает "dependency hell" и затрудняет обновление. Вместо этого опишем инфраструктуру как код (IaC) через docker-compose.
Создайте файл docker-compose.yml:
version: '3.8' services: openclaw: # Используем последний стабильный образ. # Если официальный Docker Hub недоступен, используйте ghcr.io/openclaw/openclaw:latest image: openclaw/openclaw:latest container_name: openclaw_runner restart: unless-stopped # Ограничение ресурсов предотвращает зависание хоста при memory leak deploy: resources: limits: memory: 4096M cpus: '2.0' environment: - OPENCLAW_HOME=/app/workspace # Конфигурация LLM - LLM_PROVIDER=openai - LLM_BASE_URL=https://api.vsellm.ru/v1 - LLM_API_KEY=${VSELLM_API_KEY} volumes: # Монтируем только необходимые директории - ./workspace:/app/workspace - ./config:/app/config # Биндим порт только на loopback интерфейс (localhost) ports: - "127.0.0.1:18789:18789"
Такой подход гарантирует, что даже при компрометации агента злоумышленник (или сбойная нейросеть) останется запертым внутри контейнера.
Качество работы агента напрямую зависит от используемой модели. Локальные модели (Llama, Mistral) хороши для простых задач, но для сложного планирования и написания кода требуются флагманы уровня GPT-5 или Claude 4.
Для доступа к этим моделям из России мы используем агрегатор VseLLM. Это решает сразу несколько проблем:
Единая точка входа: Один ключ дает доступ к моделям OpenAI, Anthropic и Google.
Отсутствие блокировок: Прямое подключение без необходимости настраивать VPN на сервере.
Прозрачная тарификация: Оплата ресурсов в рублях по факту использования.
Экономическая эффективность агента достигается правильным подбором моделей. Нет смысла использовать дорогую Claude Opus 4.5 для проверки статуса сервера.
Рекомендуемая конфигурация openclaw.json на 2026 год:
{ "llm": { "provider": "openai", "base_url": "https://api.vsellm.ru/v1", "api_key": "sk-...", "model": "deepseek/deepseek-v3.2", "fallback_models": ["openai/gpt-5-nano"] } }
Здесь DeepSeek V3.2 выступает в роли основной "рабочей лошадки". При цене всего 18 ₽ за входной миллион токенов (в 12 раз дешевле Claude Sonnet!) она позволяет агенту работать часами, не разоряя баланс, сохраняя при этом качество кодинга на уровне топовых моделей и огромный контекст. В качестве сверхдешевой подстраховки используется GPT-5 Nano.
Чтобы сэкономить вам время на настройку окружения, файрвола и создание конфигурационных файлов, я подготовил bash-скрипт, который делает всё вышеописанное автоматически.
Создайте на сервере файл setup_openclaw.sh и вставьте в него следующее содержимое:
#!/bin/bash # Цвета для вывода GREEN='\033[0;32m' YELLOW='\033[1;33m' RED='\033[0;31m' NC='\033[0m' # Проверка прав root if [ "$EUID" -ne 0 ]; then echo -e "${RED}Запустите скрипт через sudo!${NC}" exit 1 fi echo -e "${GREEN}[1/6] Установка Docker...${NC}" if ! command -v docker &> /dev/null; then curl -fsSL https://get.docker.com -o get-docker.sh sh get-docker.sh && rm get-docker.sh else echo "Docker уже установлен." fi echo -e "${GREEN}[2/6] Настройка UFW (Firewall)...${NC}" ufw allow ssh ufw default deny incoming ufw default allow outgoing echo "y" | ufw enable echo -e "${GREEN}[3/6] Создание папок...${NC}" mkdir -p openclaw/{workspace,config,data} cd openclaw || exit echo -e "${YELLOW}Введите API Key от VseLLM (sk-...):${NC}" read -r API_KEY echo -e "${GREEN}[4/6] Генерация конфигов...${NC}" # Docker Compose с дублированием настроек в ENV cat < docker-compose.yml services: openclaw: image: openclaw/openclaw:latest container_name: openclaw_runner restart: unless-stopped deploy: resources: limits: memory: 4096M cpus: '2.0' environment: - OPENCLAW_HOME=/app/workspace - LLM_PROVIDER=openai - LLM_BASE_URL=https://api.vsellm.ru/v1 - LLM_API_KEY=${API_KEY} - LLM_MODEL=deepseek/deepseek-v3.2 volumes: - ./config:/app/config - ./config:/root/.openclaw - ./workspace:/app/workspace ports: - "127.0.0.1:18789:18789" EOF # JSON Config (Primary: DeepSeek V3.2, Fallback: GPT-5 Nano) cat < config/openclaw.json { "llm": { "provider": "openai", "base_url": "https://api.vsellm.ru/v1", "api_key": "${API_KEY}", "model": "deepseek/deepseek-v3.2", "fallback_models": ["openai/gpt-5-nano"], "temperature": 0.0 } } EOF echo -e "${GREEN}[5/6] Запуск...${NC}" docker compose up -d echo -e "${YELLOW}Ждем инициализации (10 сек)...${NC}" sleep 10 # Попытка найти токен TOKEN=$(docker logs openclaw_runner 2>&1 | grep -iE "token|code|login" | tail -n 1) IP=$(curl -s ifconfig.me || hostname -I | awk '{print $1}') echo -e "\n${GREEN}=== ГОТОВО! ===${NC}" echo -e "Для входа пробросьте туннель (команда на ВАШЕМ ПК):" echo -e "${YELLOW}ssh -N -L 18789:127.0.0.1:18789 root@${IP}${NC}" echo -e "\nАдрес в браузере: http://localhost:18789" if [ -n "$TOKEN" ]; then echo -e "Ваш токен/код: ${RED}${TOKEN}${NC}" else echo -e "Токен не найден. Посмотрите логи: docker logs openclaw_runner" fi
Запустите установку двумя командами:
chmod +x setup_openclaw.sh ./setup_openclaw.sh
Развертывание автономного агента — это баланс между функциональностью и безопасностью. Использование облачной инфраструктуры с четким разделением прав, контейнеризацией и надежным API-провайдером позволяет создать мощный инструмент автоматизации, минимизируя риски для основной инфраструктуры.
Помните: агент — это инструмент, а ответственность за его действия всегда лежит на операторе.
Источник


