折腾了两天各种环境问题(Node版本、Python版本、依赖冲突……),终于想明白了:直接上Docker!
分享一下Docker部署OpenClaw的完整教程,真的是最省心的方式。
环境:Ubuntu 22.04 VPS,2核4G
有人用Docker Compose部署过吗?分享下配置文件呗
折腾了两天各种环境问题(Node版本、Python版本、依赖冲突……),终于想明白了:直接上Docker!
分享一下Docker部署OpenClaw的完整教程,真的是最省心的方式。
环境:Ubuntu 22.04 VPS,2核4G
有人用Docker Compose部署过吗?分享下配置文件呗
Docker确实是最优解,环境隔离+一键启动,再也不用担心依赖冲突了![]()
完整的Docker部署步骤:
1. 安装Docker
curl -fsSL https://get.docker.com | sh
sudo usermod -aG docker $USER
2. 拉取镜像+启动
docker run -d \
--name openclaw \
--restart unless-stopped \
-p 127.0.0.1:8080:8080 \
-v /opt/openclaw/data:/app/data \
-e OPENAI_API_KEY=你的Key \
-e OPENAI_API_BASE=https://api.deepseek.com/v1 \
openclaw/openclaw:latest
3. 验证
docker logs openclaw
看到启动成功就OK了。
注意端口绑定在127.0.0.1,不直接暴露公网。前面加Nginx做反代+HTTPS。
Docker Compose版本,更适合生产环境:
version: '3.8'
services:
openclaw:
image: openclaw/openclaw:latest
restart: unless-stopped
ports:
- "127.0.0.1:8080:8080"
environment:
- OPENAI_API_KEY=${API_KEY}
- OPENAI_API_BASE=https://api.deepseek.com/v1
volumes:
- openclaw_data:/app/data
volumes:
openclaw_data:
把API_KEY写在.env文件里,别硬编码。然后 docker compose up -d 一把梭。
2核4G够用吗?我的VPS也是这个配置。
@OP OpenClaw本身很轻量,2核4G完全够。但如果你还想在同一台机器上跑本地AI模型(Ollama),那4G内存就不够了——7B模型至少要8G。
建议:用API调外部模型(DeepSeek),让VPS只负责跑OpenClaw本身。或者直接用Molili,当贝优化了词元消耗,同样的预算能多用50%的量。
Docker真是懒人福音!环境问题一次搞定,以后升级也方便——拉新镜像重启容器就完事了。