![](https://s5-media.51cto.com/aigc/pc/static/noavatar.gif)
DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏! 原创 精华
这个春节,DeepSeek 实在太火爆了。
今天分享下 DeepSeek + 本地知识库的部署。
先看个全局数据流程图,如下图所示。
基于本地的 DeepSeek 搭建个人知识库。使用本地服务,首先安装 bge-m3 嵌入模型,用于将文本数据转换为向量标识的模型。
#命令行窗口执行拉取下即可。
ollama pull bge-m3
pulling manifest
pulling daec91ffb5dd... 100% ▕████████████████████████████████████████████████████████▏ 1.2 GB
pulling a406579cd136... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
pulling 0c4c9c2a325f... 100% ▕████████████████████████████████████████████████████████▏ 337 B
verifying sha256 digest
writing manifest
success
1、方案一:基于 Cherry Studio 搭建
第一、下载 Cherry Studio
注意安装的时候,如果是 Windows 系统,不要在 C 盘安装,安装到其他磁盘。
第二、本地模型知识库
1.配置本地 Ollama
2.Ollam 模型选择
操作步骤如上:
a.找到左下角设置图标
b.选择模型服务
c.选择 Ollama
d.点击管理
e.点击模型后面的加号(会自动查找到本地安装的模型)
f.减号表示已经选择了
3.知识库配置
操作步骤如上:
a.选择知识库
b.选择添加
c.选择嵌入模型
d.填写知识库名称
4.添加知识文档
Cherry 可以添加文档,也可以添加目录(这个极其方便),添加完以后出现绿色的对号,表示向量化完成。
5.搜索验证
操作步骤如上:
a.点击搜索知识库
b.输入搜索顺序
c.点击搜索 大家可以看下我搜索的内容和并没有完全匹配,不过已经和意境关联上了。
6.大模型处理
操作步骤如上:
a、点击左上角的聊天图标
b、点击助手
c、点击默认助手(你也可以添加助手)
d、选择大模型
e、选择本地 DeepSeek,也可以选择自己已经开通的在线服务
f、设置知识库(不设置不会参考)
g、输入提问内容
h.发问
可以看到 DeepSeek 已经把结果整理了,并告诉了我们参考了哪些资料。
2、方案二:基于AnythingLLM 搭建
第一、下载 AnythingLLM Desktop
注意安装的时候,如果是 Windows 系统,不要在 C 盘安装,安装到其他磁盘。
第二、AnythingLLM 配置
操作步骤:点击左下角的设置
操作步骤如上:
a.点击 LLM 首选项
b.选择 Ollama 作为模型提供商
c.选择已安装的 DeepSeek 模型
d.注意下地址
e.保存
操作步骤如上:
a.向量数据库不用动即可,使用自带的(PS:如果没有选择安装目录,默认在C盘,如果后续有需要可以挪走)
b.嵌入模型配置
c.可以使用自带的,也可以使用 Ollama 安装好的
e.配置完点击左下角的返回即可
第三、配置工作区
操作步骤如上:
a.新建的工作区
b.默认会话
c.上传知识库文档
将文档拖拽到上传框。注意,只需要拖拽一次就行了,它在聊天框能看到。不知道为什么,我这拖拽以后,没看到上传成功,然后又拖拽了几次。然后聊天框就好多份。
当然你可以配置远程文档,Confluence、Github 都可以了。
需要注意的是文档在工作区间内是共用的。
第四、设置 API 功能
AnythingLLM 可以提供 API 访问的功能,这个可以作为公共知识库使用。
3、总结
个人知识库+本地大模型的优点如下:
第一、隐私性很好,不用担心自己的资料外泄、离线可用。
第二、在工作和学习过程中对自己整理的文档,能快速找到,并自动关联。
第三、在代码开发上,能参考你的开发习惯,快速生成代码。
本文转载自公众号玄姐聊AGI 作者:玄姐
原文链接:https://mp.weixin.qq.com/s/Dva8puqsQPPmXZBlOsZ5iQ
![](https://s5-media.51cto.com/aigc/pc/static/noavatar.gif)