谷歌研究员炮轰GPT初创公司瞎炒作,连发18条推文怒怼!

人工智能 新闻
面对GPT公司疯狂营销的乱象,谷歌研究员发长文怒怼其商业化模式:炒作救不了GPT!但投资人表示:无所谓,好玩就行

在AI领域,去年的流量王者,非生成式AI莫属。

从DALL-E 2到ChatGPT,从Stable Diffusion到Midjourney,AIGC行业呈现爆炸式的增长。​

基于人工智能的生成式工具纷至沓来,让投资公司和广大公众眼花缭乱。

顶级投资公司红杉资本在一篇博文中写道:「生成式人工智能不仅变得更快、更便宜,而且在某些情况下比人类创造得更好。」「很容易想象到,几十年后,生成式人工智能将深深植根于我们的工作、创造和娱乐方式中。」

投资公司对AIGC的热情可以用金钱来衡量,仅2022一年,该领域就有78笔交易,预计13.7亿美元。

然而,尽管AI模型的创造者和投资者都相信他们是改变地球的力量,在该领域,并非每个人都相信这些生成机器是最好的选择。

谷歌研究员:炒作救不了GPT

「人工智能的当前氛围与2021年web3热潮有很多相似之处,这让我感到不舒服,」对于当前的投资热潮,谷歌深度学习研究专家、深度学习系统Keras的创建者,François Chollet在推特上发出了强烈警告。「人们对不讲事实的叙述信以为真。」


图片

François Chollet

「每个人都坚信,未来2-3年内,GPT会产生『改变文明』的影响(并带来100倍的投资回报率),」他继续说道。「就我个人而言,我认为LLM的发展存在牛市和熊市两种情况。」

他认为在牛市情况下,「生成式AI成为与大多数科技产品交互的广泛范例」。即使在这种情况下,通用人工智能(AGI)仍然是一个「白日梦」。

与此同时,在熊市情况下,像GPT-3这样的大型语言模型会发现「在SEO(搜索引擎优化)、营销和文案领域的成功案例有限」,并最终证明是一个「彻彻底底的泡沫」。

Chollet认为,LLM最终的发展很有可能介于两者之间,并偏向后者。「人工智能作为我们信息的通用接口」是未来肯定会发生的事情,但这一代技术还无法完全做到这一点。

LLM模型是否成功,一个重要的标准是商品化。如果LLM能够产生巨大的经济回报,那么这项技术的商品化就算成功。

以OpenAI为例,在2021年,该公司的利润大约为五百到一千万美元;到2022年,这个数字变成了三千到四千万。即使强大如OpenAI,也只有图像生成技术的商业价值获得了市场的认可。

Chollet称,自己喜欢在推特上搜索最热门的ChatGPT推文,以深入了解这一技术的相关用例。在浏览过大量推文后,Chollet发现,80%的帖子都在讲如何引流,更有甚者,只是骗取点击量的噱头。

图片

不论是「付费解锁ChatGPT的10个秘密」还是各类ChatGPT培训班,LLM的出现对流量变现的商业化模式带来了颠覆性的影响。

不过,Chollet认为ChatGPT的实际潜力远不止于此。它可能会在消费品、教育和搜索领域大放光彩。

无论未来如何,人们很快就会知道。数十亿美元争先恐后地涌入这个赛道,将ChatGPT或类似技术应用到大量产品中。到今年年底,人们将有足够的数据来做出判断。

当然,Chollet也表示,撇开炒作不谈,深度学习可以「构建很多很酷的东西」。5年前是这样,今天是这样,5年后仍然会是这样。哪怕褪去炒作者赋予它的光环,这项技术也非常有价值。

web3无法和LLM相提并论。毕竟web3是纯粹的噱头,而LLM是具有实际应用的真正技术。Chollet所提到的炒作,是在风险投资人群中形成的泡沫。

文章的最后,Chollet解释了GPT技术是如何「营销成功」的。「投资GPT的驱动力不是实验数据或利润表,而是纯粹的炒作和毫无根据的叙述。他们形成了自洽的循环:炒作吸引投资,投资增加会引来更多的炒作,进而有更多的资本涌入。」

最重要的是,谎言重复一百遍就成为了常识。没有任何数据支持的「大饼」,在口口相传中变成了不证自明的圭臬。

马库斯:别太相信GPT

对GPT持谨慎态度的不止Chollet一人,纽约大学教授马库斯也常常对世人的热情泼冷水。

在接受采访时,马库斯表示,虽然ChatGPT看起来无所不知,但它也很容易出错。ChatGPT和之前一样,相关系统「仍然不可靠,仍然不了解现实世界,仍然不了解心理世界并且仍然充满错误。」

因此,尽管AI界对GPT-4的到来满心欢喜,马库斯却给出了7个不太积极的预测。

1. GPT-4仍然会像它的前辈一样,犯下各种愚蠢的错误。它有时可能会很好地完成给定的任务,有时却罢工不干,但你并不能提前预料到即将出现的是哪种情况。

2. GPT-4对物理、心理和数学方面的推理依然靠不住。它或许能够解决部分之前未能挑战成功的项目,但在面对更长和更复杂的场景时依然束手无策。

比如,当被问及医学问题时,它要么拒绝回答,要么偶尔会说出听起来很有道理但很危险的废话。尽管它已经吞噬了互联网上的大量内容,但它并不能足够可信和完整地提供可靠的医疗建议。

3. 流畅幻象(fluent hallucinations)仍将十分常见,而且很容易被诱发。也就是说,大型语言模型依然是一个能被轻易用于制作听起来很有道理但却完全错误的信息的工具。

4. GPT-4的自然语言输出仍然无法以可靠的方式为下游程序提供服务。利用它构建虚拟助手的开发者会发现,自己无法可靠地将用户语言映射到用户的意图上。

5. GPT-4本身不会是一个能解决任意任务的通用人工智能。如果没有外部的辅助,它既不能在Diplomacy中击败Meta的Cicero;也不能可靠地驾驶汽车;更不能驱动《变形金刚》里的「擎天柱」,或者像《杰森一家》里的「Rosie」那样多才多艺。

6. 人类「想要什么」与机器「去做什么」之间的「对接」,依然是一个关键且尚未解决的问题。GPT-4仍将无法控制自己的输出,一些建议是令人惊讶的糟糕,掩盖偏见的例子也会在几天或几个月内被发现。

7. 当AGI(通用人工智能)实现时,像GPT-4这样的大型语言模型,或许会成为最终解决方案的一部分,但也仅限于其中的一部分。单纯的「扩展」,也就是建立更大的模型直到它吸收了整个互联网,在一定程度上会被证明是有用的。但值得信赖的、与人类价值观相一致的通用人工智能,一定会来自于结构化程度更高的系统。它将具有更多的内置知识,并包含明确的推理和计划工具。而这些,都是现在的GPT系统所缺乏的。

马库斯认为,在十年内,也许更少,人工智能的重点将从对大型语言模型的扩展,转向与更广泛的技术相结合。

酷炫的东西总是好玩的,但这并不意味着它能带领我们走向可信的通用人工智能。

投资者:但它很好玩诶

但即便如此,即使AI领域的专家苦口婆心劝导投资人「快逃」,GPT的追随者们仍然有手中的支票,表达对技术的乐观。

就在今日,微软正在商谈向OpenAI投资100亿美元,这将带来公司市值增至近300亿美元。

风投公司General Catalyst的Niko Bonatsos接受采访时称:「这是我们一直在等待的范式转移。」 「或许比我们想象中来得更大。」

在投资者看来,这些算法很酷。文本-图像生成器令人印象深刻,为不懂Photoshop的小白打开了创意世界的大门。对他们来说,GPT系统至少玩起来很有趣。

尽管行业CEO对这些项目仍处于相对初级阶段的事实持开放态度,即使该领域的未来是光明的,但目前来看,它们所呈现的破坏潜力和模糊的创意界限很难被忽视。

在Chollet看来,要真正形成「范式转移」,产品不仅要酷炫有趣,甚至对利基产品非常有用。

他警告说,风投们冒着比他们想象的要大得多的风险,既为半生不熟的产品的炒作周期提供燃料,又被疯狂薅羊毛。而资本并没有对这个前景广阔但仍有相当局限性的新兴市场进行审慎的预测。

「每个人都开始相信自己是被选中的人,尤其是那些自称是逆势投资者的人,」他说。

责任编辑:张燕妮 来源: 新智元
相关推荐

2022-06-15 18:57:43

人工智能

2020-12-23 17:50:46

AI语言模型AI伦理

2020-08-10 09:14:50

软件测试工具技术

2020-08-11 07:45:38

软件测试

2014-02-18 16:50:17

谷歌SlickLogin安全公司

2022-06-06 10:58:52

训练DeepMind研究

2023-04-05 14:25:58

LLM谷歌OpenAI

2021-06-29 15:33:28

谷歌Transformer模型

2014-05-20 14:21:55

谷歌收购BYOD

2019-08-01 08:15:06

机器学习谷歌算法

2018-04-08 15:32:47

Hadoop大数据Gartner

2021-02-21 00:18:47

恶意软件研究职业技术

2022-02-07 15:05:07

模型AI训练

2020-09-21 14:25:26

Google 开源技术

2021-09-14 10:01:39

云计算初创公司谷歌

2016-11-13 23:11:15

2020-08-24 08:15:29

软件互联网分布式

2023-12-18 15:08:00

GPTOpenAI泄露

2020-12-10 10:38:56

谷歌Android开发者

2010-09-09 08:41:34

点赞
收藏

51CTO技术栈公众号