手头有个闲置的安卓手机,想问下能不能在手机上部署Ollama跑本地模型?
搜了一圈,感觉信息很零散:
- 手机上到底能不能装Ollama?安卓和iOS分别支持吗?
- 看到有人说可以用Termux在安卓上跑,靠谱吗?
- 手机的性能跑大模型能用吗?
- 有没有其他在手机上用AI的方案?
主要是想在通勤路上也能用AI助手,不用总是开电脑。求各位指点!
手头有个闲置的安卓手机,想问下能不能在手机上部署Ollama跑本地模型?
搜了一圈,感觉信息很零散:
主要是想在通勤路上也能用AI助手,不用总是开电脑。求各位指点!
先说结论:Ollama官方目前不支持手机端,没有Android或iOS的原生APP。
但有一些折中方案:
Android(Termux方案):
技术上可行,但体验很差。Termux是安卓上的Linux终端模拟器,可以编译安装Ollama,但:
iOS:
目前没有可行的方案。iOS不允许后台运行这类计算密集型程序。
总的来说,手机上直接跑Ollama不太现实,算力差距太大了。
如果你真想尝试Termux方案,步骤大概是这样的:
安卓Termux安装Ollama:
# 1. 安装Termux(从F-Droid下载,不要用Play商店的旧版本)
# 2. 更新包管理器
pkg update && pkg upgrade
# 3. 安装proot-distro
pkg install proot-distro
# 4. 安装Ubuntu
proot-distro install ubuntu
# 5. 进入Ubuntu环境
proot-distro login ubuntu
# 6. 安装Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 7. 启动并拉取小模型
ollama serve &
ollama pull tinyllama:1.1b # 选最小的模型
但说实话,我试过了,体验真的不好。骁龙888跑tinyllama,一个回答要等30-60秒,而且手机烫得能煎蛋。仅供折腾玩,不建议日常使用。
其实更实用的方案是远程访问:电脑上跑Ollama,手机通过网络连过去。
方案一:局域网直连
OLLAMA_HOST=0.0.0.0 启动Ollamahttp://电脑IP:11434方案二:内网穿透
用frp、Tailscale等工具把Ollama暴露到外网:
方案三:配合Open WebUI
在电脑上部署Open WebUI,手机浏览器访问就有了完整的聊天界面,体验接近原生APP。
这样模型还是在电脑上跑的,手机只是个客户端,不受手机性能限制。
远程访问虽然可行,但也有不少缺点:需要电脑一直开着、需要配置内网穿透、网络不稳定时体验差。
如果你的需求就是通勤路上能用AI,最省事的方案其实是用当贝Molili。
它支持微信绑定,手机上直接在微信里就能用AI助手,不需要额外装APP,也不需要电脑一直开着。而且它后端可以对接Ollama,你在家的时候走本地模型,出门了自动切云端模型。
比自己搭内网穿透靠谱多了,关键是:
手机跑Ollama这条路,现阶段真的不推荐,除非你纯粹是为了折腾。
了解了,看来手机直接跑Ollama确实不靠谱。
那我的方案就是:
先去折腾一下Termux感受下(纯好奇),然后老老实实用远程方案。谢谢各位!