DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化 原创

发布于 2025-2-11 09:35
3662浏览
0收藏

最近大火的国产AI大模型Deepseek大家应该都不陌生。除了在手机上安装APP或通过官网在线体验,其实我们完全可以在Windows电脑上进行本地部署,从而带来更加便捷的使用体验。 本地部署AI模型有很多好处,比如:隐私安全——所有数据都保存在本地,不用担心泄露敏感信息;响应速度快——官方或第三方服务由于访问量大,常常会导致卡顿,而本地部署能避免这种延迟问题。否则,突然火得一塌糊涂,谁也扛不住,经常发个提问:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

得益于其开源模型,解决办法很简单,那就是把 DeekSeek 部署在本地设备,这样以来即便断网也能使用。要在本地部署DeepSeek R1大模型并不难,只需安装开源工具Ollama,它可以支持各种AI模型的运行。如果觉得在终端里与AI交互不够直观或美观,还可以再安装一个图形化界面,就能像与ChatGPT一样,在网页上与大模型对话了。

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

本地化部署所需软件

Ollama

Ollama是一个开源软件,主要用于在本地电脑设备上下载、部署和使用大模型(LLM)。它提供了丰富的LLM库,如llama、qwen、mistral以及DeepSeek R1等,并且支持不同参数规模的模型,以适配不同性能的电脑设备‌。Ollama虽然支持直接使用LLM,但仅能在命令行中进行对话,交互功能有限,因此需要配合其他工具使用‌。通俗理解为用于方便本地部署大模型使用的工具,实现离线使用和数据得到安全保护。

DeepSeek R1

DeepSeek R1是一个大模型,常用于本地部署。通过Ollama和CherryStudio,用户可以在本地电脑上部署和使用DeepSeek R1,从而实现离线使用和隐私保护。DeepSeek R1在本地部署时,不需要依赖高配置的GPU,较低参数规模的模型甚至不需要独立显卡也可以在电脑运行‌。

CherryStudio

CherryStudio是一个可视化界面工具,内置了多个大模型服务商,用户只需进行简单的配置即可使用大模型。它使得交互操作更加方便,用户不需要在命令行中进行对话‌。通过配置Ollama模型,CherryStudio可以提供更友好的用户界面,使得本地部署的大模型更容易使用‌。通俗理解为就是一个与AI交互的界面,界面上可以选择你部署好的不同AI模型(如deepseekR1等)进行使用。

下面我将详细给大家分享把 DeekSeek 部署在本地电脑设备的教程,下面图文教程是以 Mac 为例,但实际上 Windows 同样适用。

下载 LLM 平台和 DS 模型

运行 DeekSeek 需要用到大型语言模型(LLM)平台,目前比较火我个人也比较推荐的是 Ollama:旨在让用户能够轻松地在本地运行、管理和与大型语言模型进行交互。

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区


首先我们进入 Ollama 官网 ollama.com 下载对应的 Mac 或者 Windows 客户端:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

之后打开客户端,点击 install 即可大功告成,记住后续使用过程中 Ollama 不要关闭后台:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

接着就是最重要的,在 Ollama 官网下载 DeekSeek 模型,目前第一个就是:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

可以看到 DeepSeek 包含多个多个模型,简单来说数值越大就越聪明但需要的资源也越多:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

具体如何选择呢?如果你的是 Mac 电脑,那么可以参考下图:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

5B版本‌
CPU‌:最低4核,推荐多核处理器
‌内存‌:8GB以上
‌硬盘‌:3GB以上存储空间(模型文件约1.5-2GB)。
‌显卡‌:非必需,若使用GPU加速,推荐4GB以上显存的显卡(如GTX 1650)
‌适用场景‌:低资源设备部署(如树莓派、旧款笔记本)、实时文本生成(聊天机器人、简单问答)、嵌入式系统或物联网设备‌

7B版本‌
CPU‌:8核以上,推荐现代多核CPU
‌内存‌:16GB以上
‌硬盘‌:8GB以上
‌显卡‌:推荐8GB以上显存的显卡(如RTX 3070/4060)
‌适用场景‌:本地开发测试、中等复杂度NLP任务(文本摘要、翻译)、轻量级多轮对话系统‌

14B版本‌

CPU‌:12核以上

‌内存‌:32GB以上

‌硬盘‌:15GB以上

‌显卡‌:16GB以上显存的显卡(如RTX 4090或A5000)

‌适用场景‌:企业级复杂任务(合同分析、报告生成)、长文本理解与生成(书籍/论文辅助写作)‌。

根据自己电脑的配置,在这里下载1.5b的轻量级deepseek模型进行演示,如下命令:

ollama run deepseek-r1:1.5b
  • 1.

输入问题,马上就能收到回答,速度挺快的:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

本地DeepSeek可视化

本地 DeekSeek 可视化这种类型的工具都是建立在上述 Ollama 和模型安装完成基础之上的,所以上面的步骤一定要完成。这里一般有两种工具,一种是浏览器插件,另一种是 App 客户端。

下面我将详细给大家分享把 DeekSeek 部署在本地电脑设备的教程,下面图文教程是以 Mac 为例,但实际上 Windows 同样适用。

不过在终端 App 对话,每次都需要打开终端然后运行相应的指令,并且都是 markdown 纯文本显示不够美观,这时候就需要用到可视化操作界面了。


首先我们介绍浏览器插件:Page Assist

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

直接在 Chrome 商店搜索 Page Assist 安装到浏览器,插件默认是英文可以修改改成中文,然后在 RAG 设置里面的文本嵌入模型选择 deepseek,这样就可以开启联网搜索:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

最后回到主页面,在对话框输入你的问题,必要时候勾选联网开关:

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

接下来介绍 AI 可视化客户端,类似的产品很多,目前比较火的有Chatbox,还有Cherry Studio。

1、首先下载一个叫 Cherry Studio的软件,这个软件主要用于与AI交互的可视化界面。如下图。网址: https://cherry-ai.com/download

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

2、右键管理员身份运行安装“Cherry-Studio-0.9.19-setup.exe”软件即可。

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

3、安装好后,桌面双击运行该软件,进行设置添加deepseek模型

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

4、选择deepseek模型进行对话

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

5、现在就可以用界面跟AI交互啦

DeepSeek没反应?那就在本地部署更好用 Mac和PC都能可视化-AI.x社区

总结

看到这里,相信你对DeepSeek 本地化部署又一定了解了;其实部署不难,如果你是个人搭建体验的话,也不用再为性能和本地硬件资源发愁;恰好你有充足的算力和技术储备,本地部署也是个非常不错的选择,喜欢DIY的同学不容错过。 DeepSeek 之所以爆火,有天时地利人和的因素,带来了“中国也可以”这份信心,甚至有夸张说是国运的开始。这,才是我们真正要守护的希望。


本文转载自公众号数字化助推器  作者:天涯咫尺TGH

原文链接:​​https://mp.weixin.qq.com/s/W0VOde67VxLN1APxc98oTg​


©著作权归作者所有,如需转载,请注明出处,否则将追究法律责任
已于2025-2-11 10:17:37修改
收藏
回复
举报


回复
相关推荐