手把手教你将本地部署的DeepSeek R1集成到Dify

发布于 2025-2-3 13:45
浏览
0收藏

今天,手把手教大家在本地部署DeepSeek R1,并将其集成到Dify中,实打实提升你的工作效率!

一、本地部署模型

本部分介绍在本地通过ollama部署DeepSeek R1。

1、安装ollama

在ollama官网,选择操作系统,下载ollama应用程序并安装

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

命令行输入ollama,出现下面的提示,则说明安装成功。

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

2、部署deepseek模型

在ollama官网,点击「Models」,选择第一个「DeepSeek R1」

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

根据自己的显存选择对应的版本大小。


模型名称

参数规模(b)

显存需求(FP16,GB)

显存需求(4位量化,GB)

7b模型

7

16

4

16b模型

16

37

9

67b模型

67

154

38

236b模型

236

543

136

671b模型

671

1543

386

推荐GPU:
- 7B和16B之类的较小型号,消费者GPU(例如NVIDIA RTX 4090)是合适的。
- 较大的模型,超过1000亿个参数的模型,通常需要数据中心GPU,例如NVIDIA H100或分布式设置中的多个高端消费者GPU。

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

如何查看自己电脑显存呢?

在windows10电脑上,右键点击左下方的Win10图标,弹出下拉菜单,选择【运行】选项并点击进入运行对话窗口,在运行对话窗口内输入dxdiag命令【主要查看N卡】。

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

计算:电脑显存==>16112MB / 1024MB约等于16GB,选择最小7B参数的模型。

点击7b,然后在右侧会出现下载命令:

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

将下载命令复制,到命令行中执行:

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区


下载之后,就可以通过命令行和大模型进行对话了:

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

通过命令行和大模型进行对话不太方便,接下来,介绍一下将其集成到Dify中,通过可视化的方式调用。

二、Dify中配置DeepSeek R1

登录到已经部署好的Dify中,点击设置,在「模型供应商」选择「ollama」

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

「模型名称」填:deepseek-r1:7b。

「基础URL中」,若ollama和Dify是同一台机器部署,并且Dify是通过Docker部署,那么填http://host.docker.internal:11434,

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区


其他情况填http://localhost:11434,填完之后点击保存即可。

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区


三、创建应用

在Dify中创建一个应用来使用DeepSeek R1模型。

创建一个「聊天助手」,填写「应用名称」和「描述」,点击创建:

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

选择添加好的DeepSeek R1模型:

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区


需要注意的是,DeepSeek R1是一个推理模型,不支持函数调用,也就是说无法集成在DIfy的智能体中,但是DeepSeek V3可以。

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

没有联网的deepseek-r1存在严重的幻觉。

手把手教你将本地部署的DeepSeek R1集成到Dify-AI.x社区

 

本文转载自 AIGC新知​,作者: 绛烨

收藏
回复
举报
回复
相关推荐