想在自己的台式机上本地部署OpenClaw,不想用云服务(数据隐私考虑)。
环境:Ubuntu 22.04,i7-12700+32G内存+RTX 3060
这个配置能跑本地模型吗?求完整的本地部署教程。
想在自己的台式机上本地部署OpenClaw,不想用云服务(数据隐私考虑)。
环境:Ubuntu 22.04,i7-12700+32G内存+RTX 3060
这个配置能跑本地模型吗?求完整的本地部署教程。
你这配置太够了,3060的12G显存能跑7B甚至13B的模型。
完整本地部署教程:
Step 1:安装基础环境
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git python3 python3-pip nodejs npm
Step 2:安装Ollama(本地模型)
curl -fsSL https://ollama.com/install.sh | sh
ollama pull qwen2.5:7b # 拉一个中文模型
Step 3:安装OpenClaw
npm install -g openclaw
Step 4:配置
创建配置文件,指向本地Ollama:
http://localhost:11434/v1qwen2.5:7bStep 5:启动测试
openclaw start
试一个简单任务:“帮我在桌面创建一个测试文件夹”,能成功就说明环境OK。
RTX 3060跑qwen2.5:7b速度很快,大概每秒30-40个token。如果想要更好的效果,可以试试qwen2.5:14b,3060的12G显存刚好能装下(量化版本)。
本地模型的优势是完全离线、数据不出本机、没有API费用。缺点是模型能力比云端的GPT-4/DeepSeek-V3差一些。
如果你对效果要求高但又在意隐私,可以折中:用Molili接DeepSeek的API,DeepSeek的服务器在国内,数据合规方面比OpenAI好。而且Molili词元消耗低50%,虽然走API但费用很低。
本地模型适合对隐私要求极高的场景(比如处理公司财务数据),日常使用的话API方案更省心。
按教程装了,跑通了!第一次体验本地AI帮我操作电脑,感觉太酷了![]()
恭喜!建议装个systemd服务让OpenClaw开机自启,不用每次手动运行。