在全面“本地化”前,所有AI PC都是“伪AI PC”?

发布于 2024-4-2 12:23
浏览
0收藏

先思考一个问题:

一个依赖于云端 AI 的 PC,能够称之为 AI PC 吗?

2024 年的 PC 市场,AI PC 无疑会是最重要的概念之一,主流 PC 厂商以及英特尔、AMD 都在下重金押注。但对于已经发布的 AI PC 产品,不少人并不认可,核心在于这些 AI PC 中「AI」与「PC」(硬件)基本是分离的。

很简单,就拿目前 PC 上最大的 AI 用例——微软 Copilot 来说,在英特尔与微软对「AI PC」的联合定义中,强调必须配备混合架构芯片、Copilot 及其对应的物理按键。但事实是,所有升级到最新 Windows 11 版本的 PC 都能使用 Copilot,因为 Copilot 只依赖于微软 Azure 云端算力,与 PC 硬件本身无关。

换言之,无论是不是顶着「AI PC」的光环,不论是依赖云端算力抑或是本地性能强大,一切PC看似都是AI PC,大家用起来都是「众生平等」。

这样看,似乎现在的AI PC全都是“伪概念”,只有等到 Copilot 能在本地运行,并且深入 Windows 系统层面,或许才会出现真正的 AI PC。

好消息是,这个时间点可能就是下一代。

Copilot 将支持本地运行,Windows 12 大变革

Copilot 要支持本地运行的消息,之前其实就有包括集邦咨询在内的机构和媒体传出,但传闻终归是传闻,云计算已经是第一大支柱业务的微软,未必会允许 Copilot「下云」。

所幸在台北举办的英特尔人工智能峰会上,英特尔客户端计算事业部副总裁 Todd Lewellen 在接受采访时表示,Copilot 将很快支持在 PC 上本地运行。

 当然不是全部功能。众所周知,终端算力不可能和云端算力相比,想要让 Copilot 保持强大的性能和「智商」还是离不开云端的支持。但据 Todd Lewellen 介绍,Copilot 的很多关键功能将直接运行在本地的 NPU 上。

也不只是我们今天所看到的云端 Copilot。

早在雷科技之前关于下一代 Windows(以下简称「Windows 12」)的报道中,我们就引用消息源指出,微软将引入 AI 驱动的 Windows Shell,通过「高级版 Copilot」,持续帮助系统增强搜索、启动项目或工作流、上下文理解等生成式 AI 能力。

同时,微软还在开发一项新的时间线功能,允许让 Copilot 记下所有应用、网站浏览等活动记录,并且能够随时进行回溯,甚至是通过 Copilot 增强的搜索能力,快速找到过去某个时刻在 Windows 上的活动。

除此之外,微软还有更多基于 AI 改造 Windows 的想法和计划。

但不管是 Copilot 的本地运行还是在系统层面的深度引入,都意味着未来「AI 味」越来越重的 Windows 需要更强的端侧算力。

「将进入下一代 AI PC,NPU(算力)的要求为 40 TOPS,」Todd Lewellen 表示,「我们即将推出的下一代产品将属于这一类别。」

真AI PC需要强悍算力,芯片巨头燃战火

从之前多个来源的传闻以及英特尔高管的说法来看,40 TOPS(每秒万亿次运算)是微软对于下一代 AI PC 的最低算力要求,而且需要注意的是,这是对 NPU 的要求,不同于当下混合架构(CPU+GPU+NPU)提供的算力。

而仅从 NPU 提供的算力来看,今天所有宣称「AI PC」的笔记本电脑产品,都够不到微软下一代 AI PC 的资格。

比如英特尔最新的酷睿 Ultra,也就是 Meteor Lake,在 CPU+GPU+NPU 共同参与运算下的 AI 算力可达 34 TOPS,但如果仅算 NPU 就只有 10 TOPS,GPU 才是出力的大头。而 AMD 最新一代锐龙 8040 系列(Hawk Point),NPU 的算力也只有 16 TOPS:

两者都低于 40 TOPS 的性能要求。

相比之下,将在年中集中上市的骁龙 X Elite 笔记本倒是满足了要求,混合架构下的 AI 算力可以达到 75 TOPS,仅 NPU 的算力也能达到 45 TOPS。

不过这种优势大概只能保持半年。

英特尔这边是确定了下一代 Lunar Lake(预计年底发布)的 NPU 算力将超过 40 TOPS。AMD 那边虽然没有消息,但如果不出意外也会在下一代大幅提升 NPU 算力,以满足微软对于 AI PC 的标准和 Windows 系统的需求。

至于为什么微软只看 NPU,其实不难理解。Todd Lewellen 表示,微软坚持让 Copilot 在 NPU 而不是 GPU 上运行,以尽量减少对电池寿命的影响:


去年(与微软)进行了很多讨论,我们问『为什么我们不能在 GPU 上运行它?』他们说是希望确保 GPU 和 CPU 被释放出来完成其他工作。而且我们希望确保出色的电池寿命体验,如果在 GPU 上运行 Copilot 和其中一些工作负载,你会看到对电池续航的巨大影响。


核心其实就是两点:一是不能影响 CPU 和 GPU 日常干活;二是 GPU 用于 AI 运算功耗太大了,对续航的影响太大,NPU(神经网络处理器)作为专门为神经网络运算而设计的处理器,则恰恰有更高的效率和更低的功耗。

 而这也从一个侧面说明了,目前已发布的 AI PC 产品,并没有准备好面对「AI 真正改变 PC 体验」的未来。

但 PC 的未来又是什么?

依赖云有致命问题,本地对AI PC意味着什么?

个人终端的特性决定了,基于云端运行的 AI 存在太多问题,首当其冲的就是隐私安全。一个表现是,在与 Copilot 或者 ChatGPT 等 AI 聊天机器人的对话中,用户是不敢发送个人隐私信息的。

当微软要基于 AI 改造 Windows 系统的时候,肯定要让 AI 从系统层面了解和处理大量关于系统、软件运行以及用户的数据,但不管是网络连接还是模型训练,都会大幅放大用户隐私泄露的风险。

从这个角度,虽然我们离不开云端运行的强大 AI,但同时,基于本地运行的 AI,又是必需的。

另外受制于网络连接,延迟和稳定性都会影响云端 AI 的实际处理能力,从而影响到用户的终端体验,还有云端的持续成本等问题,都是英特尔、高通以及各大 PC 和手机厂商强调「端侧 AI」的重要原因。

不过更本质的问题是,只有将 AI 平台化,自下而上从系统层面重新设计产品体验,将算力平台化,让应用可以充分利用端侧算力,才能真正称得上 AI 化。而这些,都需要 AI 能在本地运行,终端也能提供相应的端侧算力。

这也是 PC 的未来。也只有当 Windows 开始自我革命,改造基于 AI 的个人电脑操作系统;当处理器厂商毅然决然转身,大幅提高 AI 运算效率;当 PC 厂商脚踏实地,真正思考 AI 时代的 PC 体验:

PC 才会是真正的 AI PC。

本文转载自​​钛媒体​

标签
收藏
回复
举报
回复
相关推荐