OpenClaw与Ollama本地模型结合,不仅能让开发者享受到AI编程的便捷,还能确保数据的安全与隐私。本文将详细介绍如何在本地环境中配置OpenClaw以使用Ollama本地模型。
一、前期准备
1. 安装Ollama本地模型服务
首先,你需要在本地环境中安装Ollama服务。Ollama是一个本地LLM(大语言模型)运行时,支持轻松运行各种开源模型。安装过程相对简单,你可以从Ollama官方网站下载适合你操作系统的安装包,或者通过GitHub releases页面获取。安装完成后,确保Ollama服务已启动并正常运行。
2. 下载所需模型
在Ollama服务运行后,你需要下载想要使用的模型。例如,如果你对Qwen3 8b模型感兴趣,可以通过Ollama提供的命令行工具进行下载。确保模型已正确下载并可以在Ollama中运行。
二、配置OpenClaw以使用Ollama本地模型
1. 修改OpenClaw配置文件
OpenClaw的配置文件通常位于其安装目录下,名为openclaw.json。使用文本编辑器打开该文件,我们需要对几个关键部分进行修改。
模型提供商配置:
在models.providers部分,添加Ollama作为模型提供商,并指定其baseUrl、apiKey(对于本地模型,通常使用默认值或任意值即可,因为Ollama不需要真实密钥)、api类型以及模型列表。例如:
json
"models": {
"providers": {
"ollama": {
"baseUrl": "http://localhost:11434",
"apiKey": "ollama-local",
"api": "ollama",
"models": [
{
"id": "qwen3:8b",
"name": "Qwen3 8b",
"reasoning": false,
"input": ["text"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 1280000,
"maxTokens": 128000
}
]
}
}
}
默认模型设置:
在agents.defaults.model部分,指定默认使用的模型为Ollama提供的Qwen3 8b模型。例如:
json
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3:8b",
"fallbacks": ["ollama/qwen3:8b"]
}
}
}
2. 配置OpenClaw Agent
接下来,你需要配置OpenClaw Agent以使用刚刚设置的Ollama模型。这通常通过命令行工具完成,例如:
bash
openclaw agents add qwen3:8b
在执行此命令时,确保按照提示输入正确的配置信息,特别是模型选择部分,应选择之前配置的vllm或相应的Ollama模型。
三、验证配置与测试
1. 重启OpenClaw网关服务
修改配置文件后,为了确保更改生效,你需要重启OpenClaw的网关服务。这通常通过运行一个特定的命令或脚本完成,具体取决于你的安装方式和操作系统。
2. 对话测试
重启服务后,你可以通过OpenClaw提供的TUI(文本用户界面)或其他交互界面进行对话测试。输入一些自然语言指令或问题,观察OpenClaw是否能够正确理解并调用Ollama模型生成响应。如果一切正常,你应该能够看到基于Qwen3 8b模型的智能回复。
四、高级配置与优化
1. 添加更多模型
如果你想要使用更多Ollama模型,只需在openclaw.json配置文件的models.providers.ollama.models部分添加新的模型条目即可。记得为每个模型设置正确的ID、名称和其他参数。
2. 调整模型参数
根据实际需求,你可能需要调整模型的上下文窗口大小(contextWindow)、最大令牌数(maxTokens)等参数以获得更好的性能或响应质量。这些参数同样可以在模型配置条目中进行修改。
五、常见问题与解决方案
1. Ollama服务地址不匹配
确保openclaw.json配置文件中的baseUrl与Ollama服务的实际运行地址一致。如果Ollama服务运行在远程服务器上,请将baseUrl设置为远程服务器的IP地址或域名以及端口号。
2. 模型ID不匹配
确保在配置文件中指定的模型ID与Ollama中已下载的模型名称完全匹配。模型ID通常遵循模型名称:版本号的格式(例如qwen3:8b)。
3. 模型不支持多模态输入
如果你尝试使用支持多模态输入的模型但配置不正确,可能会导致调用失败。确保在模型配置条目中正确设置了input字段以支持所需的输入类型(例如文本、图像等)。
另一种直连途径就是使用一键部署的平台,比如Molili,其可以自定义大模型平台,只需要填写合适的Key就可以。
