OpenClaw与Ollama本地模型配置全攻略

OpenClaw与Ollama本地模型结合,不仅能让开发者享受到AI编程的便捷,还能确保数据的安全与隐私。本文将详细介绍如何在本地环境中配置OpenClaw以使用Ollama本地模型。

一、前期准备

1. 安装Ollama本地模型服务

首先,你需要在本地环境中安装Ollama服务。Ollama是一个本地LLM(大语言模型)运行时,支持轻松运行各种开源模型。安装过程相对简单,你可以从Ollama官方网站下载适合你操作系统的安装包,或者通过GitHub releases页面获取。安装完成后,确保Ollama服务已启动并正常运行。

2. 下载所需模型

在Ollama服务运行后,你需要下载想要使用的模型。例如,如果你对Qwen3 8b模型感兴趣,可以通过Ollama提供的命令行工具进行下载。确保模型已正确下载并可以在Ollama中运行。

二、配置OpenClaw以使用Ollama本地模型

1. 修改OpenClaw配置文件

OpenClaw的配置文件通常位于其安装目录下,名为openclaw.json。使用文本编辑器打开该文件,我们需要对几个关键部分进行修改。

模型提供商配置
models.providers部分,添加Ollama作为模型提供商,并指定其baseUrl、apiKey(对于本地模型,通常使用默认值或任意值即可,因为Ollama不需要真实密钥)、api类型以及模型列表。例如:

json
"models": {
  "providers": {
    "ollama": {
      "baseUrl": "http://localhost:11434",
      "apiKey": "ollama-local",
      "api": "ollama",
      "models": [
        {
          "id": "qwen3:8b",
          "name": "Qwen3 8b",
          "reasoning": false,
          "input": ["text"],
          "cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
          "contextWindow": 1280000,
          "maxTokens": 128000
        }
      ]
    }
  }
}

默认模型设置
agents.defaults.model部分,指定默认使用的模型为Ollama提供的Qwen3 8b模型。例如:

json
"agents": {
  "defaults": {
    "model": {
      "primary": "ollama/qwen3:8b",
      "fallbacks": ["ollama/qwen3:8b"]
    }
  }
}

2. 配置OpenClaw Agent

接下来,你需要配置OpenClaw Agent以使用刚刚设置的Ollama模型。这通常通过命令行工具完成,例如:

bash
openclaw agents add qwen3:8b

在执行此命令时,确保按照提示输入正确的配置信息,特别是模型选择部分,应选择之前配置的vllm或相应的Ollama模型。

三、验证配置与测试

1. 重启OpenClaw网关服务

修改配置文件后,为了确保更改生效,你需要重启OpenClaw的网关服务。这通常通过运行一个特定的命令或脚本完成,具体取决于你的安装方式和操作系统。

2. 对话测试

重启服务后,你可以通过OpenClaw提供的TUI(文本用户界面)或其他交互界面进行对话测试。输入一些自然语言指令或问题,观察OpenClaw是否能够正确理解并调用Ollama模型生成响应。如果一切正常,你应该能够看到基于Qwen3 8b模型的智能回复。

四、高级配置与优化

1. 添加更多模型

如果你想要使用更多Ollama模型,只需在openclaw.json配置文件的models.providers.ollama.models部分添加新的模型条目即可。记得为每个模型设置正确的ID、名称和其他参数。

2. 调整模型参数

根据实际需求,你可能需要调整模型的上下文窗口大小(contextWindow)、最大令牌数(maxTokens)等参数以获得更好的性能或响应质量。这些参数同样可以在模型配置条目中进行修改。

五、常见问题与解决方案

1. Ollama服务地址不匹配

确保openclaw.json配置文件中的baseUrl与Ollama服务的实际运行地址一致。如果Ollama服务运行在远程服务器上,请将baseUrl设置为远程服务器的IP地址或域名以及端口号。

2. 模型ID不匹配

确保在配置文件中指定的模型ID与Ollama中已下载的模型名称完全匹配。模型ID通常遵循模型名称:版本号的格式(例如qwen3:8b)。

3. 模型不支持多模态输入

如果你尝试使用支持多模态输入的模型但配置不正确,可能会导致调用失败。确保在模型配置条目中正确设置了input字段以支持所需的输入类型(例如文本、图像等)。

另一种直连途径就是使用一键部署的平台,比如Molili,其可以自定义大模型平台,只需要填写合适的Key就可以。

Ollama本地跑7B模型够用了

配置API地址那步容易踩坑,端口别写错

本地模型隐私性好但速度慢

量化版模型能兼容吗?

@zynth 量化模型完全兼容Ollama 推荐用Q4_K_M量化格式 平衡了速度和质量 Q2过激会明显降质 Q8太大吃内存 Q4是甜点

@hashx 7B模型够用取决于任务复杂度 简单的代码补全和文本总结没问题 复杂的多步推理还是要13B以上 本地跑13B至少需要16GB内存

@layerx 端口踩坑最常见的是Ollama默认用11434 但有些教程写的是11434有些写11435 以ollama serve启动后显示的端口为准 别被教程误导

填写 API Base URL位置都是正确的,但就是连不上(防火墙、防毒都打开还是不能)

求大神!或是官方的联络方式..

ollama跑7B模型卡不卡?我8G内存