DeepSeek 本地部署方案
一、环境准备
1. 硬件要求
根据模型大小和功能需求,硬件要求有所不同:
配置级别 | 内存 | 显卡 | 存储 | CPU |
---|---|---|---|---|
基础级 | 16GB | RTX 4060 | 512GB SSD | 8 核及以上 |
旗舰级 | 32GB | RTX 4090 | 1TB SSD | 16 核及以上 |
高级 | 64GB | RTX 5090(32GB 显存) | 2TB SSD | 32 核及以上 |
2. 软件环境
操作系统:推荐使用 Linux(如 Ubuntu 20.04/22.04)、macOS 或 Windows 10/11。
Python:3.8 及以上版本。
深度学习框架:PyTorch 或 TensorFlow(根据模型需求)。
其他工具:Git、Wget、CUDA(GPU 用户)。
二、部署步骤
1. 安装 Ollama
Ollama 是一个用于本地运行 AI 模型的工具,支持 DeepSeek 模型的部署。
访问 Ollama 官网:https://ollama.com/
下载并安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
验证安装是否成功:
ollama
2. 下载 DeepSeek 模型
根据硬件配置选择合适的 DeepSeek 模型版本 (如 1.5B、7B、14B 等)。
ollama run deepseek-r1:1.5b # 下载 1.5B 模型
3. 配置模型保存路径 (可选)
如果希望将模型保存到其他路径 (如 D 盘),可以修改环境变量:
Windows 用户:
- 按 Win+I 键,进入系统设置。
- 搜索 「环境变量」,编辑系统环境变量。
- 新建系统变量
OLLAMA_MODELS
,值为模型保存路径 (如D:\DeepSeek\Models
)。
Linux 用户:
export OLLAMA_MODELS=/path/to/your/models
4. 运行模型
在终端中运行以下命令启动模型:
ollama run deepseek-r1:1.5b
如果需要后台运行,可以使用以下命令:
ollama run --daemon deepseek-r1:1.5b
5. 使用可视化界面 (可选)
为了更方便地与模型交互,可以使用浏览器插件:
安装 PageAssist
插件 (Chrome 浏览器)。
打开插件设置,选择已下载的 DeepSeek 模型。
在插件界面中输入问题,即可与模型进行交互。
6. 高级功能 (可选)
- 联网搜索:通过集成 SerpAPI 实现联网搜索功能。
- 知识库搭建:将本地文档或数据导入模型,训练专属知识库。
- Web 界面:使用 FastAPI 和 Streamlit 搭建 Web 界面,方便多人使用。
三、注意事项
1. 硬件要求
本地部署需要较高的硬件配置,尤其是显存和内存。如果硬件不足,建议选择低参数模型。
2. 模型版本
本地部署的 DeepSeek 模型通常是蒸馏版,性能可能低于云端满血版。
3. 技术支持
如果遇到问题,可以参考官方文档或社区讨论。