保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理

发布于 2025-3-18 23:20
1806浏览
0收藏

软件安装

总共需要安装三个软件,分别为Ollama、Docker Desktop、Open WebUI

Ollama 介绍:Ollama 是一款开源工具,专注于简化大型语言模型(LLM)在本地环境中的部署与运行。它支持多种主流模型(如 Llama 3、Mistral、Gemma 等),提供跨平台兼容性(macOS/Linux/Windows),通过命令行实现快速安装与交互。其核心优势在于隐私保护(数据无需上传云端)和可定制性,允许用户微调模型参数或加载自定义模型。开发者和研究者可借助其轻量化设计及活跃社区资源,便捷地探索自然语言处理、内容生成等场景,尤其适合对数据安全敏感或需要离线使用的需求。项目还支持模型库扩展与API集成,平衡了易用性和灵活性。

下载地址:https://ollama.com  根据你电脑的操作系统,下载合适的版本,安装即可。

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

Docker Desktop 介绍:Docker Desktop 是一款专为开发者设计的桌面应用程序,提供本地化容器化开发环境,支持在 macOS、Windows 和 Linux 系统上无缝构建、运行及共享容器化应用。它通过简化 Docker 引擎的配置与管理,集成 Kubernetes 集群、镜像仓库和网络存储工具,实现跨平台环境的一致性部署。其可视化界面与命令行工具(CLI)结合,支持快速创建隔离的容器环境,助力开发、测试及调试微服务、云原生应用等场景。  

下载地址:https://docs.docker.com/desktop/  

根据你电脑的操作系统,下载合适的版本,安装即可。

在Ollama、Docker Desktop安装完成并运行之后,开始Open WebUI的安装部署。

Open WebUI介绍:Open WebUI 是一款开源、可扩展且功能丰富的自托管 Web 用户界面,专为本地化部署和运行大型语言模型(LLM)而设计。它支持多种 LLM 运行程序(如 Ollama 和 OpenAI 兼容的 API),并提供了类 ChatGPT 的交互体验,同时强调隐私保护和离线操作能力。

下载地址:

https://github.com/open-webui/open-webui

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

把这段话复制到终端Terminal,进行open-webui镜像下载

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

下载完成之后,打开Docker Desktop,点击下图所示的 ports

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

就可以在浏览器中看到ollma 的用户界面了。

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

点击左下角设置-模型,进行模型下载

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

由于我的mac 只有 16G内存,这里我选择7b 的模型进行部署

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

复制模型名称到这里,点击右侧下载按钮就好

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

下载完成~ 就可以使用了

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

点击新建对话

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

使用测试

测试一道简单的高中数学题

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

开始思考~

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

得出答案~

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

给一道逻辑推理题:有五个人:甲、乙、丙、丁、戊。他们分别排在第一到第五的位置。根据以下的提示,判断出他们的排序: 甲不在第一位。 乙在丙的前面。 丁在戊的后面。 丙不在最后一位。

我本地部署的 7b 推理模型花了 8 分钟进行推理,后续又测试了一次,花了约 5 分钟

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

于是同样的问题我测试下官网的671b参数的,花了 86 秒~ 答案是一样的

保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理-AI.x社区

总结

在本地部署的话,还是需要好一点的硬件,我这 16G内存的 macbook 明显不够,推理不够快。

看 deepseek 的推理过程有很多 Aha Moment(顿悟时刻),有种大模型产生了意识的感觉!

本文转载自AI思与行,作者:cc

已于2025-3-18 23:20:51修改
收藏
回复
举报
回复
相关推荐