
使用Ollama本地部署DeepSeek-R1大模型
大模型开发/技术交流
2月11日4917看过
介绍使用百度智能云GPU服务器来实现DeepSeek的本地部署
☞ 如果您在大模型落地过程中遇到任何问题,可以提交工单咨询:https://console.bce.baidu.com/ticket/#/ticket/create?productId=279
☞ 同时,大模型技术专家可为您提供效果调优、应用定制和技术培训等付费专属服务:https://cloud.baidu.com/product/llmservice.html
引言
DeepSeek-R1是由中国的深度求索(DeepSeek)公司开发的大模型,用低成本以及更小的算力规模实现了美国顶级AI模型的效果。
DeepSeek已遵循MIT协议实现了开源,本文介绍使用百度智能云GPU服务器来实现DeepSeek的本地部署。
模型部署
安装环境
硬件环境
-
百度智能云 GPU 服务器。
计算型 GN5 服务器, 推荐最低配置 16 核 CPU,64GB 内存,Nvidia Tesla A10 单卡 24G显存,搭配 100GB SSD 数据盘, 安装 Windows Server 2022系统 。
-
如果您使用自己的环境部署
建议 NVIDIA GPU,民用卡 30、40 系列,商用卡 T4、V100、A10 等系列,至少8G以上显存。服务器配置建议最低配置为 8 核 32 G 100G 磁盘,5M 带宽。
软件环境
-
Ollama 0.5.7或更高版本
-
ChatBox 1.9.8或更高版本
-
Windows Server 2022或更高版本
-
Nvidia驱动版本572.13, CUDA工具版本12.8 或更高版本
安装步骤
购买服务器

-
安装操作系统
-
选择 Windows 公共镜像,支持 Windows2019 及以上版本,本教程我们选择 Windows2022 。

-
通过 VNC 登录实例,安装 GPU 驱动程序。

安装Ollama
-
Windows客户端安装。
-
从官方下载地址下载,保证最新版本,下载好后直接运行安装。

-
安装完毕会自动运行,右下角可以看到这个图标:

-
打开windows PowerShell或在CMD命令行终端,输入ollama命令,回车,即可显示ollama命令的使用帮助。

下载DeepSeek模型
DeepSeek包含1.5b, 7b, 8b, 14b, 32b, 70b, 671b不同参数级别,参数越大,精度越高,模型效果越好,根据自己的GPU显存大小选择不同的参数级别。
由于A10 GPU只有24G显存,我们可以安装14b模型版本,如果您的显存80G,那么推荐安装70b模型版本。
执行如下命令,ollama会自动下载模型并加载运行,出现
success
提示时,说明模型加载完成,可以愉快的跟大模型交流了。
ollama run deepseek-r1:14b

配置远程访问
-
停止ollama 服务
右下角这个图标,右键选择退出 。

-
设置环境变量OLLAMA_HOST,OLLAMA_ORIGINS
右键"此电脑 > 属性 > 高级系统设置 > 环境变量 > Administrator 的用户变量 > 新建用户变量"。
环境变量名
|
变量值
|
说明
|
OLLAMA_HOST
|
:8888
|
根据业务需要更改Ollama的监听地址和端口
|
OLLAMA_ORIGINS
|
*
|
允许跨域访问,方便浏览器调用Ollama的API
|
设置环境变量,表示监听在
0.0.0.0:8888
上。

环境变量名
|
变量值
|
说明
|
OLLAMA_HOST
|
:8888
|
根据业务需要更改Ollama的监听地址和端口
|
OLLAMA_ORIGINS
|
*
|
允许跨域访问,方便浏览器调用Ollama的API
|
-
设置完毕环境变量,打开新的powershell或者CMD命令行终端, 重新启动ollama服务并加载模型。
ollama run deepseek-r1:14b
模型应用
使用ChatBox对话
模型部署完成后,我们可以使用命令行或者API与模型进行对话,但在交互上总是不太方便,我们可以使用ChatBox工具,通过交互界面与模型对话。
-
ChatBox官方网地址:https://chatboxai.app/zh , 从官网上下载最新工具,安装完毕后,我们来配置本地模型。
如果chatbox和ollama运行在同一服务器上,ollama地址可以选择本地127.0.0.1地址,否则需要输入实际地址。

-
与模型对话

API调用
开启远程连接之后,您就可以远程调用API了,示例如下,10.10.3.10替换为您服务器IP。
curl http://10.10.3.10:8888/api/generate -d '{"model": "deepseek-r1","prompt": "你是谁?"}'
流式输出:

如果想要get更多大模型技巧,推荐学习工信部教考中心x百度推出的《生成式人工智能应用工程师》百度推出的《百度AI大模型工程师》、《零基础速通 DeepSeek:AI 变革破局思考与实践》(即将上线)
评论
