两个小问题:
- QClaw能不能接本地模型?我本地用ollama跑了几个模型想接到QClaw里用,不知道支不支持
- QClaw生成的文件——比如让它写的文档、生成的代码——保存在哪?翻了半天没找着
两个小问题:
本地跑7B的还凑合,14B我这3060就直接爆显存了
3060Ti跑7B量化版勉强能用,再大就OOM了
生成的文件默认在用户目录下.qclaw文件夹,我找了半小时
两个都能解决:
1. 本地模型
QClaw支持接ollama的。在设置里找到模型配置,把provider改成ollama的地址,默认是localhost:11434。注意连接之前确保ollama服务是跑着的。
本地跑的好处你懂的:不花token、数据不出本地、断网也能用。缺点也明显——7B的模型能力跟云端比差太远了,复杂任务基本没法看。如果你显卡还行可以跑14B或32B的,体验会好很多。
2. 文件位置
默认存在QClaw的工作目录下。Windows一般是C:Users你的用户名DocumentsQClaw这个路径,Mac在~/Documents/QClaw/。
如果那里面找不到,去QClaw设置搜"输出目录"或"工作路径"看下配的啥。它有时候会存到临时目录,系统清理可能会删掉,建议手动指定一个固定路径。
ollama接QClaw我搞过,说下踩的坑:
7B模型确实能跑但响应很慢,问个稍微复杂的问题要等好几秒。推荐deepseek系列的本地模型,中文效果在同参数量级里算好的了。千万别跑llama原版,中文输出惨不忍睹。
文件路径那个问题+1,我也被坑过。它有几次把生成的代码文件存到了系统临时目录(Windows的%TEMP%下面),我重启电脑就没了。后来在设置里把输出路径写死到D盘的一个文件夹才解决。
qwen系列本地跑中文也不错。不过不管用什么模型本地跑都别抱太大期望,简单任务够用,正经干活还是得调云端API。
本地7B能跑但吃内存,我NUC12装32G条才勉强流畅,14B直接爆了