业内称ChatGPT风格搜索会让谷歌成本增加十倍 每年多花几十亿

人工智能
整个科技行业的高管们都在讨论运营像ChatGPT这种人工智能的高昂费用。OpenAI公司首席执行官萨姆·奥特曼(Sam Altman)曾在推特上说,ChatGPT每次和用户对话的计算成本高达几美分或更多,“让人难以忍受”。

2月23日消息,随着人工智能聊天工具ChatGPT持续火爆,诸如谷歌和微软等提供搜索业务的公司已经开始在搜索界面中整合人工智能聊天机器人功能。但对于这些科技巨头来说,这种聊天机器人风格的搜索引擎会让运营成本增加10倍,带来高达几十亿美元的支出。

整个科技行业的高管们都在讨论运营像ChatGPT这种人工智能的高昂费用。OpenAI公司首席执行官萨姆·奥特曼(Sam Altman)曾在推特上说,ChatGPT每次和用户对话的计算成本高达几美分或更多,“让人难以忍受”。

谷歌母公司Alphabet董事长约翰·汉尼斯(John Hennessy)在接受采访时表示,尽管微调有助于迅速降低成本,但“与大型语言模型等人工智能交换信息的成本可能是完成标准关键字搜索功能的10倍以上”。

2022年Alphabet净利润接近600亿美元。分析师们表示,即使基于聊天机器人的搜索业务有广告收入,这项技术也可能对Alphabet的利润产生不利影响,并带来几十亿美元的额外成本。

投行摩根士丹利估计,谷歌去年3.3万亿次搜索查询的成本约为每条0.55美分,根据人工智能要生成的文本量,这个数字只会多不会少。分析师预计,如果“类似ChatGPT的人工智能聊天机器人能够用50个字的答案处理只有当今搜索一半的查询量”,那么到2024年,谷歌每年成本就要增加60亿美元。

其他分析师也有类似看法。专注于芯片技术的研究和咨询公司SemiAnalysis表示,考虑到谷歌新推出的张量处理单元(Tensor Processing Units)以及其他优化措施,在搜索中添加ChatGPT风格的人工智能可能会让Alphabet多花30亿美元。

这种人工智能比传统搜索引擎更昂贵的原因是所涉及的计算能力更高。分析人士表示,这种人工智能依赖于造价几十亿美元的芯片,相应成本需要分摊到几年的使用寿命中。所消耗的电力同样会增加企业运营成本和碳排放指标方面的压力。

处理人工智能搜索查询的过程被称为“推理”,每次搜索时启动模仿人脑的巨大神经网络,生成一堆文本,可能还会查询大型搜索索引信息来获取事实信息。

Alphabet的汉尼斯表示,“你必须降低推理成本,”他称“最坏情况下需要几年时间”。

尽管运营费用高昂,Alphabet仍需要考虑如何应对来自其他科技公司的挑战。本月早些时候,竞争对手微软展示了如何将人工智能聊天机器人嵌入必应搜索引擎的计划。据Similarweb估计,微软高管们瞄准的是谷歌高达91%的搜索市场份额。

微软首席财务官阿米·胡德(Amy Hood)告诉分析师,随着改进后的必应上线,用户数量增加和广告收入带来的好处已经超过了成本。胡德表示,“对我们来说,即使以我们正在讨论的服务成本计算,毛利率也是增加的。”

谷歌另一个竞争对手、搜索引擎You.com首席执行官理查德·索切尔(Richard Socher)表示,添加人工智能聊天体验以及图表、视频和其他生成技术应用程序将增加30%到50%的运营费用。但他说,“随着时间的推移,技术会变得越来越便宜。”

一位接近谷歌的消息人士提醒说,现在确定聊天机器人的具体成本还为时过早,因为运行效率和使用情况会因为所涉及的技术有很大差异,而且搜索产品早就用人工智能提供技术支持。

埃森哲首席技术官保罗·多尔蒂(Paul Daugherty)说,尽管如此,拥有几十亿用户的搜索巨头之所以没有立即推出人工智能聊天机器人,考虑成本是两个主要原因之一。

他说:“一是准确性,二是你必须以正确的方式扩大规模。”

多年来,Alphabet和其他公司的研究人员一直在研究如何以更低成本训练和运行大型语言模型。

更大模型通常需要更多的芯片进行推理,因此运行成本更高。能让消费者趋之若鹜的人工智能背后模型规模相当庞大,比如说ChatGPT背后的模型就有1750亿个参数,每次运行的成本也会随用户查询的长度而不断变化。

一位资深科技高管表示,要让几百万消费者使用这种人工智能,目前成本仍然过高。这位不愿透露姓名的高管表示:“这些模型非常昂贵,因此下一阶段的进步将降低训练这些模型和推理的成本,这样就可以在每个应用程序中使用它。”

一位知情人士说,目前OpenAI的计算机科学家已经想出如何通过复杂代码来优化推理成本,从而提高芯片运行效率。

一个长期存在的问题是,如何在不影响准确性的情况下,将人工智能模型中的参数量减少10倍甚至100倍。

“如何最有效地剔除(参数),仍然是一个悬而未决的问题,”曾负责英特尔人工智能芯片项目的纳文·拉奥(Naveen Rao)说。

与此同时,一些公司考虑付费使用人工智能搜索,比如OpenAI的升级版ChatGPT服务每月收取20美元的订阅费用。技术专家还表示,一种变通方法是将更小的人工智能模型应用于更简单的任务,Alphabet正在探索这一方法。

Alphabet本月表示,“较小版”的LaMDA人工智能模型将为聊天机器人巴德提供动力,“所需的计算能力大大降低,使我们能够扩展到更多用户。”

在上周一次会议上,当被问及ChatGPT和巴德等聊天机器人时,汉尼斯表示,更有针对性的模型而不是无所不能的系统才有助于“降低成本”。

责任编辑:姜华 来源: 网易科技
相关推荐

2021-06-02 22:54:34

技巧 Git Clone项目

2023-02-23 07:02:16

人工智能聊天机器人

2022-10-27 07:09:34

DjangoAPIRedis

2017-09-26 14:56:57

MongoDBLBS服务性能

2022-03-19 23:20:57

加密货币安全信息泄漏

2022-04-19 14:03:23

加密货币NFT安全

2024-12-06 06:20:00

代码枚举

2009-03-09 08:54:39

2020-09-16 16:07:34

Chrome插件浏览器

2021-09-03 12:03:21

ADM存储

2023-06-13 13:52:00

Java 7线程池

2023-09-07 11:29:36

API开发

2019-03-27 13:45:44

MySQL优化技巧数据库

2009-12-15 21:49:05

2022-10-19 14:03:45

开源AI

2016-07-07 15:38:07

京东

2017-12-06 08:06:47

IBMGPU机器学习

2021-08-17 14:30:09

Windows电脑微软

2015-12-10 10:31:46

谷歌云计算

2022-02-07 15:05:07

模型AI训练
点赞
收藏

51CTO技术栈公众号