add 02_基础操作/AI模型管理/基于openKylin本地部署并运行DeepSeek-R1开源模型.md.

Signed-off-by: zhangtianxiong <ztx159@163.com>
This commit is contained in:
zhangtianxiong 2025-02-06 08:36:35 +00:00 committed by Gitee
parent 5e8b153e5d
commit 3b457c8695
No known key found for this signature in database
GPG Key ID: 173E9B9CA92EEF8F
1 changed files with 61 additions and 0 deletions

View File

@ -0,0 +1,61 @@
# 基于openKylin本地部署并运行DeepSeek-R1开源模型
## 第一步下载并安装ollama
●方式一
执行如下命令:
curl -fsSL https://ollama.com/install.sh | sh
●方式二
前往github平台自行下载后解压下载地址如下
执行如下命令进行解压缩:
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
●方式三
如以上两种方式均无法成功下载可通过关注openKylin公众号回复ollama获取百度网盘链接进行下载。
## 第二步启动ollama服务
执行如下命令启动ollama服务
ollama serve
然后打开一个新的终端窗口,查看是否已启动成功,如下图所示:
## 第三步下载并安装运行DeepSeek-R1模型
执行如下命令下载并安装运行DeepSeek-R1 1.5b模型
ollama run deepseek-r1:1.5b
注意本次演示以1.5b模型为例若您的电脑性能更高可下载安装deepseek-r1更高规格的模型效果更好哦具体官方命令如下
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
至此已完成DeepSeek-R1模型的部署接下来我们来问它一个问题测试一下
可以看到基于openKylin开源操作系统本地部署的DeepSeek-R1 1.5b模型,在非常短的时间内即可给出它的分析过程及最终答案。