
手把手教你将本地部署的DeepSeek R1集成到Dify
今天,手把手教大家在本地部署DeepSeek R1,并将其集成到Dify中,实打实提升你的工作效率!
一、本地部署模型
本部分介绍在本地通过ollama部署DeepSeek R1。
1、安装ollama
在ollama官网,选择操作系统,下载ollama应用程序并安装
命令行输入ollama,出现下面的提示,则说明安装成功。
2、部署deepseek模型
在ollama官网,点击「Models」,选择第一个「DeepSeek R1」
根据自己的显存选择对应的版本大小。
模型名称 | 参数规模(b) | 显存需求(FP16,GB) | 显存需求(4位量化,GB) |
7b模型 | 7 | 16 | 4 |
16b模型 | 16 | 37 | 9 |
67b模型 | 67 | 154 | 38 |
236b模型 | 236 | 543 | 136 |
671b模型 | 671 | 1543 | 386 |
推荐GPU:
- 7B和16B之类的较小型号,消费者GPU(例如NVIDIA RTX 4090)是合适的。
- 较大的模型,超过1000亿个参数的模型,通常需要数据中心GPU,例如NVIDIA H100或分布式设置中的多个高端消费者GPU。
如何查看自己电脑显存呢?
在windows10电脑上,右键点击左下方的Win10图标,弹出下拉菜单,选择【运行】选项并点击进入运行对话窗口,在运行对话窗口内输入dxdiag命令【主要查看N卡】。
计算:电脑显存==>16112MB / 1024MB约等于16GB,选择最小7B参数的模型。
点击7b,然后在右侧会出现下载命令:
将下载命令复制,到命令行中执行:
下载之后,就可以通过命令行和大模型进行对话了:
通过命令行和大模型进行对话不太方便,接下来,介绍一下将其集成到Dify中,通过可视化的方式调用。
二、Dify中配置DeepSeek R1
登录到已经部署好的Dify中,点击设置,在「模型供应商」选择「ollama」
「模型名称」填:deepseek-r1:7b。
「基础URL中」,若ollama和Dify是同一台机器部署,并且Dify是通过Docker部署,那么填http://host.docker.internal:11434,
其他情况填http://localhost:11434,填完之后点击保存即可。
三、创建应用
在Dify中创建一个应用来使用DeepSeek R1模型。
创建一个「聊天助手」,填写「应用名称」和「描述」,点击创建:
选择添加好的DeepSeek R1模型:
需要注意的是,DeepSeek R1是一个推理模型,不支持函数调用,也就是说无法集成在DIfy的智能体中,但是DeepSeek V3可以。
没有联网的deepseek-r1存在严重的幻觉。
本文转载自 AIGC新知,作者: 绛烨
