
保姆级教程!M3芯片+Ollama本地部署DeepSeek R1:小白也能玩转AI推理
软件安装
总共需要安装三个软件,分别为Ollama、Docker Desktop、Open WebUI
Ollama 介绍:Ollama 是一款开源工具,专注于简化大型语言模型(LLM)在本地环境中的部署与运行。它支持多种主流模型(如 Llama 3、Mistral、Gemma 等),提供跨平台兼容性(macOS/Linux/Windows),通过命令行实现快速安装与交互。其核心优势在于隐私保护(数据无需上传云端)和可定制性,允许用户微调模型参数或加载自定义模型。开发者和研究者可借助其轻量化设计及活跃社区资源,便捷地探索自然语言处理、内容生成等场景,尤其适合对数据安全敏感或需要离线使用的需求。项目还支持模型库扩展与API集成,平衡了易用性和灵活性。
下载地址:https://ollama.com 根据你电脑的操作系统,下载合适的版本,安装即可。
Docker Desktop 介绍:Docker Desktop 是一款专为开发者设计的桌面应用程序,提供本地化容器化开发环境,支持在 macOS、Windows 和 Linux 系统上无缝构建、运行及共享容器化应用。它通过简化 Docker 引擎的配置与管理,集成 Kubernetes 集群、镜像仓库和网络存储工具,实现跨平台环境的一致性部署。其可视化界面与命令行工具(CLI)结合,支持快速创建隔离的容器环境,助力开发、测试及调试微服务、云原生应用等场景。
下载地址:https://docs.docker.com/desktop/
根据你电脑的操作系统,下载合适的版本,安装即可。
在Ollama、Docker Desktop安装完成并运行之后,开始Open WebUI的安装部署。
Open WebUI介绍:Open WebUI 是一款开源、可扩展且功能丰富的自托管 Web 用户界面,专为本地化部署和运行大型语言模型(LLM)而设计。它支持多种 LLM 运行程序(如 Ollama 和 OpenAI 兼容的 API),并提供了类 ChatGPT 的交互体验,同时强调隐私保护和离线操作能力。
下载地址:
https://github.com/open-webui/open-webui
把这段话复制到终端Terminal,进行open-webui镜像下载
下载完成之后,打开Docker Desktop,点击下图所示的 ports
就可以在浏览器中看到ollma 的用户界面了。
点击左下角设置-模型,进行模型下载
由于我的mac 只有 16G内存,这里我选择7b 的模型进行部署
复制模型名称到这里,点击右侧下载按钮就好
下载完成~ 就可以使用了
点击新建对话
使用测试
测试一道简单的高中数学题
开始思考~
得出答案~
给一道逻辑推理题:有五个人:甲、乙、丙、丁、戊。他们分别排在第一到第五的位置。根据以下的提示,判断出他们的排序: 甲不在第一位。 乙在丙的前面。 丁在戊的后面。 丙不在最后一位。
我本地部署的 7b 推理模型花了 8 分钟进行推理,后续又测试了一次,花了约 5 分钟
于是同样的问题我测试下官网的671b参数的,花了 86 秒~ 答案是一样的
总结
在本地部署的话,还是需要好一点的硬件,我这 16G内存的 macbook 明显不够,推理不够快。
看 deepseek 的推理过程有很多 Aha Moment(顿悟时刻),有种大模型产生了意识的感觉!
本文转载自AI思与行,作者:cc
