Molili接入Ollama本地大模型教程(打开Ollama权限命令)

Molili接入Ollama本地大模型教程,一般无法使用Ollama的原因,是因为Ollama的权限问题。解决方法有2个。

解决方法1:

1、把Ollama升级到最新的版本,然后再试。

解决方法2:

核心解决方式:通过命令,打开Ollama的api调用权限。

1、先退出Ollama客户端

2、打开系统这个工具"Windows Power Shell"

3、执行命令1:
$env:OLLAMA_ORIGINS="*"
完成后执行命令2
ollama serve

4、在molili自定义模型里,重新配置api base url
http://localhost:11434/v1
点击测试链接,下面出现可选模型,就说明成功了。(PS:如果没成功,试试手动启动一下Ollama客户端)

这个教程太及时了,我昨天刚好卡在权限问题上

记下了

请问Mac上也是这样操作吗?

收藏了,正好要用Ollama

我用方法1升级后就好了,没那么复杂

ollama serve执行后窗口不能关吧?

终于搞定了,折腾了一下午

api base url填错了好几次才成功,注意端口号

Molili配合本地模型体验确实不错

方法2每次重启都要重新设置吗

是的每次都要执行一遍,有点麻烦

Mac用terminal执行export OLLAMA_ORIGINS=*就行

建议写个bat脚本自动执行,省事

搭配qwen2.5跑起来很流畅

感觉本地跑比调api稳定多了,延迟也低

教程太及时了

1 个赞

Ollama本地跑模型对显卡要求高吗?我的3060够用吗

3060跑7B模型勉强能用,13B就很卡了

本地部署最大的优势就是数据不出门,安全感满满