轻松掌握 AI 大模型!Windows 新突破:Ollama 赋能本地部署

人工智能 Windows
Ollama 的出现为我们带来了全新的AI应用可能性。凭借其出色的本地部署能力和广泛的AI功能,Ollama 必将成为开发者和普通用户的最爱。

Ollama—— 这是一个专为本地部署优化的 AI 模型。Ollama 在模型大小、性能和部署灵活性等方面都有非凡的表现,与传统云端部署相比,它可以轻松运行在普通的台式电脑或笔记本电脑上。这无疑是 AI 大模型的一次重大突破!

接下来,让我们一起来了解Ollama的更多细节:Windows基于Ollama部署本地AI大模型

一、大模型工具Ollama介绍

  • 官网地址:https://www.ollama.com/

图片图片

  • Ollama是一个用于部署和运行各种开源大模型的工具;
  • Ollama它能够帮助用户快速在本地运行各种大模型,极大地简化了大模型在本地运行的过程;
  • 用户通过执行几条命令就能在本地运行开源大模型,如Llama 2等;
  • 综上,Ollama是一个大模型部署运行工具,在该工具里面可以部署运行各种大模型,方便开发者在本地搭建一套大模型运行环境;

 二、Ollama工具下载

下载地址:https://ollama.com/download

图片图片

注意:Ollama的运行会受到所使用模型大小的影响

  • 例如:运行一个7 B(70亿参数)的模型至少需要8GB的可用内存(RAM),而运行一个13 B(130亿参数)的模型需要16GB的内存,33 B(330亿参数)的模型需要32GB的内存;

  • 需要考虑有足够的磁盘空间,大模型的文件大小可能比较大,建议至少为Ollama和其模型预留50GB的磁盘空间;

  • 性能较高的CPU可以提供更好的运算速度和效率,多核处理器能够更好地处理并行任务,选择具有足够核心数的CPU;

  • 显卡(GPU):Ollama支持纯CPU运行,但如果电脑配备了NVIDIA GPU,可以利用GPU进行加速,提高模型的运行速度和性能;

三、Ollama工具安装

点击OllamaSetup.exe安装:

图片图片

按照提示2步即可:

图片图片

图片图片

安装完成后测试:ollama --version。

图片图片

四、Ollama工具拉取大模型运行。

图片图片

Ollama拉取运行。

图片图片

Windows查看大模型端口:

netstat -ano | findstr 11434。

图片图片

默认Ollama API会监听11434端口,可以使用命令进行查看。

图片图片

成功!!!

Ollama 的出现为我们带来了全新的AI应用可能性。凭借其出色的本地部署能力和广泛的AI功能,Ollama 必将成为开发者和普通用户的最爱。

责任编辑:武晓燕 来源: 不码不疯魔
相关推荐

2023-11-27 07:03:58

2024-11-06 16:00:16

2024-09-05 15:48:21

2024-06-06 08:06:19

鸿蒙大语言模型LLM模型

2009-12-11 17:25:00

Grub突破root

2024-10-22 08:55:40

2023-05-22 14:52:51

人工智能卡点

2018-05-16 10:17:21

有孚人工智能双态运维

2024-05-08 17:05:44

2024-09-26 00:10:00

Agent大模型AI

2024-01-10 09:00:00

OpenAILocalGPT开源大模型

2024-10-30 11:06:59

SpringAI模型

2020-12-14 09:23:16

人工智能教育机器人

2024-04-19 09:37:49

Ollama大语言模型开源

2024-04-23 13:24:48

琶洲算法大赛

2022-06-10 12:26:56

电商出海安全
点赞
收藏

51CTO技术栈公众号