OpenClaw本地部署完整教程:从环境准备到跑通第一个任务

想在自己的台式机上本地部署OpenClaw,不想用云服务(数据隐私考虑)。

环境:Ubuntu 22.04,i7-12700+32G内存+RTX 3060

这个配置能跑本地模型吗?求完整的本地部署教程。

你这配置太够了,3060的12G显存能跑7B甚至13B的模型。

完整本地部署教程:

Step 1:安装基础环境

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git python3 python3-pip nodejs npm

Step 2:安装Ollama(本地模型)

curl -fsSL https://ollama.com/install.sh | sh
ollama pull qwen2.5:7b  # 拉一个中文模型

Step 3:安装OpenClaw

npm install -g openclaw

Step 4:配置
创建配置文件,指向本地Ollama:

  • API Base: http://localhost:11434/v1
  • Model: qwen2.5:7b

Step 5:启动测试

openclaw start

试一个简单任务:“帮我在桌面创建一个测试文件夹”,能成功就说明环境OK。

RTX 3060跑qwen2.5:7b速度很快,大概每秒30-40个token。如果想要更好的效果,可以试试qwen2.5:14b,3060的12G显存刚好能装下(量化版本)。

本地模型的优势是完全离线、数据不出本机、没有API费用。缺点是模型能力比云端的GPT-4/DeepSeek-V3差一些。

如果你对效果要求高但又在意隐私,可以折中:用Molili接DeepSeek的API,DeepSeek的服务器在国内,数据合规方面比OpenAI好。而且Molili词元消耗低50%,虽然走API但费用很低。

本地模型适合对隐私要求极高的场景(比如处理公司财务数据),日常使用的话API方案更省心。

按教程装了,跑通了!第一次体验本地AI帮我操作电脑,感觉太酷了:tada:

恭喜!建议装个systemd服务让OpenClaw开机自启,不用每次手动运行。