DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏! 原创 精华

发布于 2025-2-11 10:36
浏览
0收藏

这个春节,DeepSeek  实在太火爆了

今天分享下 DeepSeek + 本地知识库的部署

先看个全局数据流程图,如下图所示。

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

基于本地的 DeepSeek 搭建个人知识库。使用本地服务,首先安装 bge-m3 嵌入模型,用于将文本数据转换为向量标识的模型。

#命令行窗口执行拉取下即可。
ollama pull bge-m3
pulling manifest
pulling daec91ffb5dd... 100% ▕████████████████████████████████████████████████████████▏ 1.2 GB
pulling a406579cd136... 100% ▕████████████████████████████████████████████████████████▏ 1.1 KB
pulling 0c4c9c2a325f... 100% ▕████████████████████████████████████████████████████████▏  337 B
verifying sha256 digest
writing manifest
success

1、方案一:基于 Cherry Studio 搭建

第一、下载 Cherry Studio

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

注意安装的时候,如果是 Windows 系统,不要在 C 盘安装,安装到其他磁盘。

第二、本地模型知识库

1.配置本地 Ollama

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

2.Ollam 模型选择

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤如上:

a.找到左下角设置图标

b.选择模型服务

c.选择 Ollama

d.点击管理

e.点击模型后面的加号(会自动查找到本地安装的模型)

f.减号表示已经选择了

3.知识库配置

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤如上:

a.选择知识库

b.选择添加

c.选择嵌入模型

d.填写知识库名称

4.添加知识文档

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

Cherry 可以添加文档,也可以添加目录(这个极其方便),添加完以后出现绿色的对号,表示向量化完成。

5.搜索验证

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤如上:

a.点击搜索知识库

b.输入搜索顺序

c.点击搜索 大家可以看下我搜索的内容和并没有完全匹配,不过已经和意境关联上了。

6.大模型处理

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤如上:

a、点击左上角的聊天图标

b、点击助手

c、点击默认助手(你也可以添加助手)

d、选择大模型

e、选择本地 DeepSeek,也可以选择自己已经开通的在线服务

f、设置知识库(不设置不会参考)

g、输入提问内容

h.发问

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

可以看到 DeepSeek 已经把结果整理了,并告诉了我们参考了哪些资料

2、方案二:基于AnythingLLM 搭建

第一、下载 AnythingLLM  Desktop

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

注意安装的时候,如果是 Windows 系统,不要在 C 盘安装,安装到其他磁盘。

第二、AnythingLLM 配置

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤:点击左下角的设置

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤如上:

a.点击 LLM 首选项

b.选择 Ollama 作为模型提供商

c.选择已安装的 DeepSeek 模型

d.注意下地址

e.保存

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤如上:

a.向量数据库不用动即可,使用自带的(PS:如果没有选择安装目录,默认在C盘,如果后续有需要可以挪走)

b.嵌入模型配置

c.可以使用自带的,也可以使用 Ollama 安装好的

e.配置完点击左下角的返回即可

第三、配置工作区

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

操作步骤如上:

a.新建的工作区

b.默认会话

c.上传知识库文档

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

将文档拖拽到上传框。注意,只需要拖拽一次就行了,它在聊天框能看到。不知道为什么,我这拖拽以后,没看到上传成功,然后又拖拽了几次。然后聊天框就好多份。

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

当然你可以配置远程文档,Confluence、Github 都可以了

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区

需要注意的是文档在工作区间内是共用的。

第四、设置 API 功能

AnythingLLM 可以提供 API 访问的功能,这个可以作为公共知识库使用。

DeepSeek + 本地知识库:真的太香了!保姆级教程,建议收藏!-AI.x社区


3、总结

个人知识库+本地大模型的优点如下:

第一、隐私性很好,不用担心自己的资料外泄、离线可用。

第二、在工作和学习过程中对自己整理的文档,能快速找到,并自动关联。

第三、在代码开发上,能参考你的开发习惯,快速生成代码。


本文转载自公众号玄姐聊AGI  作者:玄姐

原文链接:​​https://mp.weixin.qq.com/s/Dva8puqsQPPmXZBlOsZ5iQ​


©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
收藏
回复
举报
回复
相关推荐