开源 AI 聊天机器人 MLC LLM 发布:本地运行无需联网,集显电脑、苹果 iPhone 也能用

人工智能 开源
一个名为 MLC LLM 的全新开源项目已在 GitHub 上线,完全本地运行无需联网,甚至集显老电脑、苹果 iPhone 手机都能运行。

5 月 2 日消息,目前大多数 AI 聊天机器人都需要连接到云端进行处理,即使可以本地运行的也配置要求极高。那么是否有轻量化的、无需联网的聊天机器人呢?

一个名为 MLC LLM 的全新开源项目已在 GitHub 上线,完全本地运行无需联网,甚至集显老电脑、苹果 iPhone 手机都能运行。

MLC LLM 项目介绍称:“MLC LLM 是一种通用解决方案,它允许将任何语言模型本地部署在一组不同的硬件后端和本地应用程序上,此外还有一个高效的框架,供每个人进一步优化自己用例的模型性能。一切都在本地运行,无需服务器支持,并通过手机和笔记本电脑上的本地 GPU 加速。我们的使命是让每个人都能在设备上本地开发、优化和部署 AI 模型。”

MLC LLM 项目官方演示

▲ MLC LLM 项目官方演示

IT之家查询 GitHub 页面发现,这个项目的开发者来自卡内基梅隆大学的 Catalyst 计划、SAMPL 机器学习研究小组以及华盛顿大学、上海交通大学和 OctoML 等。他们还有一个名为 Web LLM

MLC 是 Machine Learning Compilation 的简称

▲ MLC 是 Machine Learning Compilation 的简称

MLC LLM 使用了 Vicuna-7B-V1.1,后者是一种基于 Meta 的 LLaMA 的轻量级 LLM,效果虽然不如 GPT3.5 或 GPT4,但在大小方面比较占优势。

目前,MLC LLM 可用于 Windows、Linux、macOS 和 iOS 平台,暂时还没有适用于 Android 的版本。

根据外媒 tomshardware 的测试,6GB 内存的苹果 iPhone 14 Pro Max 和 iPhone 12 Pro Max 手机成功运行了 MLC LLM,安装大小为 3GB。而 4GB 内存的苹果 iPhone 11 Pro Max 无法运行 MLC LLM。

图源 tomshardware

▲ 图源 tomshardware

此外,ThinkPad X1 Carbon(第 6 代)也测试成功运行 MLC LLM,这是一款搭载 i7-8550U 处理器的笔记本,没有独立显卡,配有英特尔 UHD 620 GPU。MLC LLM 在 PC 平台需要通过命令行运行,外媒测试表现一般般,回复时间需要将近 30 秒,而且几乎没有连续对话能力,希望能在后续版本中得到改进吧。

图源 tomshardware

▲ 图源 tomshardware

MLC LLM 的 GitHub 页面:点此查看

责任编辑:庞桂玉 来源: IT之家
相关推荐

2023-09-28 20:57:23

Meta人工智能聊天机器人

2023-12-18 19:05:34

2024-11-01 07:30:00

2022-07-05 06:42:01

聊天机器人人工智能

2019-03-22 09:00:00

AI人工智能聊天机器人

2016-10-25 14:42:52

白宫开源机器人代码

2023-02-28 07:59:19

OpenAI聊天机器人

2021-05-24 15:29:24

人工智能机器人聊天

2023-11-06 21:07:23

人工智能聊天机器人Grok

2020-12-02 13:00:17

Recast.AI聊天机器人人工智能

2023-03-29 13:07:34

微软网络安全聊天机器人

2023-04-28 16:56:26

2023-03-07 07:52:47

ChatGPT人工智能

2023-02-15 14:33:26

2020-08-14 16:18:30

人工智能

2024-09-30 13:11:09

2020-02-02 09:19:14

聊天机器人机器人智能

2019-12-19 16:08:40

人工智能机器人数据

2022-07-03 10:23:06

机器人场景个性化
点赞
收藏

51CTO技术栈公众号