DeepSeek R1性能对标OpenAI o1,但完全开源免费。本地部署后不用联网,不用付API费,数据完全在自己手里。来看看怎么搞。
你需要什么?
最低配置
- 内存:16GB
- 显卡:8GB显存(GTX 1070以上)
- 硬盘:50GB空闲空间
- 系统:Windows/Mac/Linux都行
推荐配置
- 内存:32GB
- 显卡:16GB显存(RTX 4060以上)
- 这套配置可以流畅跑14B参数的模型
没有好显卡?
CPU也能跑,只是慢一些。7B参数的量化模型,8GB内存的笔记本就能跑。
方案一:Ollama(推荐)
这是最简单的方式。
安装Ollama
去官网下载安装包,一路Next。装完后终端输入:
ollama --version
能看到版本号就OK了。
下载模型
ollama pull deepseek-r1:7b
7B模型大约4GB,下载几分钟。如果显卡够强,可以拉14B或32B的版本。
开始对话
ollama run deepseek-r1:7b
直接在终端里就可以对话了。
接入其他工具
Ollama默认提供API接口(localhost:11434),可以接到Dify、RagFlow等工具里。
方案二:LM Studio(小白友好)
如果不想碰命令行:
- 下载LM Studio(图形界面)
- 搜索DeepSeek模型
- 点击下载
- 加载模型,开始对话
全程鼠标操作,适合非技术人员。
省显存技巧
4-bit量化可以减少75%的显存占用。比如:
- 原始7B模型需要14GB显存
- 4-bit量化后只需要约4GB
量化会略微降低精度,但日常使用几乎感觉不到差异。
不同模型怎么选?
| 参数量 | 显存需求(4bit) | 适合场景 |
|---|---|---|
| 1.5B | 2GB | 简单问答 |
| 7B | 4GB | 日常开发 |
| 14B | 8GB | 复杂推理 |
| 32B | 16GB | 专业级 |
| 70B | 40GB | 接近商用 |
大部分人用7B就够了,性价比最高。
跟云端API比怎么样?
优势:
- 完全免费,零成本
- 数据不出本机
- 不受网络影响
- 无调用限制
劣势:
- 占用本机资源
- 大模型跑不了
- 没有最新的模型更新
我的建议:本地跑7B做日常任务,复杂任务用云端API。
你本地部署过AI模型吗?用的什么方案?