DeepSeek本地部署完整教程:不花一分钱跑AI大模型

DeepSeek R1性能对标OpenAI o1,但完全开源免费。本地部署后不用联网,不用付API费,数据完全在自己手里。来看看怎么搞。

你需要什么?

最低配置

  • 内存:16GB
  • 显卡:8GB显存(GTX 1070以上)
  • 硬盘:50GB空闲空间
  • 系统:Windows/Mac/Linux都行

推荐配置

  • 内存:32GB
  • 显卡:16GB显存(RTX 4060以上)
  • 这套配置可以流畅跑14B参数的模型

没有好显卡?

CPU也能跑,只是慢一些。7B参数的量化模型,8GB内存的笔记本就能跑。

方案一:Ollama(推荐)

这是最简单的方式。

安装Ollama

去官网下载安装包,一路Next。装完后终端输入:

ollama --version

能看到版本号就OK了。

下载模型

ollama pull deepseek-r1:7b

7B模型大约4GB,下载几分钟。如果显卡够强,可以拉14B或32B的版本。

开始对话

ollama run deepseek-r1:7b

直接在终端里就可以对话了。

接入其他工具

Ollama默认提供API接口(localhost:11434),可以接到Dify、RagFlow等工具里。

方案二:LM Studio(小白友好)

如果不想碰命令行:

  1. 下载LM Studio(图形界面)
  2. 搜索DeepSeek模型
  3. 点击下载
  4. 加载模型,开始对话

全程鼠标操作,适合非技术人员。

省显存技巧

4-bit量化可以减少75%的显存占用。比如:

  • 原始7B模型需要14GB显存
  • 4-bit量化后只需要约4GB

量化会略微降低精度,但日常使用几乎感觉不到差异。

不同模型怎么选?

参数量 显存需求(4bit) 适合场景
1.5B 2GB 简单问答
7B 4GB 日常开发
14B 8GB 复杂推理
32B 16GB 专业级
70B 40GB 接近商用

大部分人用7B就够了,性价比最高。

跟云端API比怎么样?

优势

  • 完全免费,零成本
  • 数据不出本机
  • 不受网络影响
  • 无调用限制

劣势

  • 占用本机资源
  • 大模型跑不了
  • 没有最新的模型更新

我的建议:本地跑7B做日常任务,复杂任务用云端API。

你本地部署过AI模型吗?用的什么方案?

1 个赞

DeepSeek本地部署教程赞

教程很详细跟着做成功了

1 个赞

电脑配置要求高吗

8G显存跑得动吗

1 个赞

不花钱跑大模型太香了

大白菜表示价格还可以接受