GPT5基本玩崩了!谷歌和Meta胜算很大!AI投资人爆料:Meta承接谷歌搜索后,或收购某独角兽,OpenAI其实贼挣钱

原创
人工智能
作为应用程序开发者,你知道的一件事是人类是没有耐心的。因此,你需要始终构建在性能和质量方面优化的解决方案。作为应用程序开发者,你不能对用户说,比如,我打算提供一个高质量的响应。

编辑 | 言征

出品 | 51CTO技术栈(微信号:blog51cto)

临近年尾,相信很多朋友都在盘点这一年。很多人都在有意无意地在围观大模型这场全明星球赛。

OpenAI、谷歌、Anthropic、Meta,还有马斯克的 XAI,以及AI应用层面比如Perplexity等一众新秀球员,究竟谁会技压群雄,赢得接下来的2025?

这还得交给入局久的专业老球迷来做赛事的点评。12月初,在知名商业博客节目Invest Like The Best中,有两位大模型领域的老球迷对这一赛事做了很犀利全面的点评。一位是投了25家大模型领域公司(4家基础设施,21家AI应用)的Benchmark普通合伙人Chetan Puttagunta,另一位是基金操盘手Modest Proposal。

两位都非常接近OpenAI、谷歌、Meta、Anthropic等公司的内幕,对各大球员的优势软肋远比外界媒体了解的更多,这次给到了很多让人惊掉下吧的言论,因为时间很长,这里摘选最为炸裂的几点:

  1. 预训练的扩展转到了推理的扩展,但推理扩展也很快穷尽。
  2. GPT-5总体上发布崩溃了,2026年、2028年才有希望。
  3. 模型层的稳定对于应用层来说是一个巨大的福音。
  4. Llama 4 相对于 Llama 3 是否是阶跃函数,这都不重要,重要的是他们是否突破了效率的界限。
  5. Meta应该收购Perplextity。

一、大模型2024现状:预训练转向推理,测试时缩放

Patrick:

Chetan,或许你可以先从你的角度跟我们讲讲,在关于大型语言模型及其扩展的故事中,在技术方面当下最有趣的部分是什么。

Chetan:

是的,我认为我们现在处于这样一个阶段,即人们普遍认同或知晓,在过去的两年里,所有实验室在如何看待规模扩展方面都遇到了某种趋于平稳的效果,这特别是在预训练领域。据规模扩展的规律,在预训练中,计算能力增加得越多,得到的模型就越好。一切都以数量级来考虑。所以,在这个问题上增加 10 倍的计算能力,模型性能和智能就会有一个阶跃函数式的提升。

这无疑在这里带来了令人难以置信的突破,我们从所有实验室看到的都是非常出色的模型。但这一切的阴影甚至从2022年底开始,在某个时候,我们将耗尽由人类生成的文本数据。

而且我们很快就要进入合成数据的世界了。世界上所有的知识实际上都已被标记化,并被这些模型所吸收。当然,存在小众数据、私人数据以及所有这些尚未被标记化的小型存储库,但就数量级而言,这不会对这些模型的可用数据量产生特别显著的增加。

在 2022 年展望未来时,你们看到了合成数据是否能让这些模型继续扩展这个重大问题。

正如你们看到的那条线,大家都认为这个问题会在 2024 年真正凸显出来。而现在我们就在这里,我们身处当下,大型模型供应商都在努力用合成数据进行训练。而现在,正如媒体所报道的,以及所有这些人工智能实验室的领导者都公开表示,由于合成数据,我们现在遇到了限制

由大型语言模型自身生成的合成数据无法使预训练中的规模扩展得以持续。因此,我们现在转向一种被称为测试时计算的新范例。从非常基本的层面来说,测试时计算就是你实际上让大型语言模型审视这个问题,想出一系列可能的解决方案,并并行推进多种解决方案。你创建了这个叫做验证器的东西,反复地对解决方案进行迭代处理,而这种新的扩展范例,可以说,在 X 轴上以对数刻度测量的时间,以及在 Y 轴上的智能。

这就是我们如今的处境,似乎几乎所有人都在迈向这样一个世界:在这个世界里,我们从基于预训练和训练的扩展,发展到基于如今被称为推理的扩展,或者说推理时间、测试时间,无论你怎么称呼它。这就是截至 2024年第四季度我们的现状。

Patrick:

这是一个关于整体情况的后续问题。那么,先把资本支出以及我们稍后与大型公共科技公司讨论的所有其他问题放在一边,基于你现在所了解的情况,能否说,转向以时间为变量的测试时缩放,就像“谁在乎呢?”只要这些东西变得越来越强大,这不就是最重要的吗?而且我们是以一种不同于仅仅基于预训练的方式来做这件事的,这一事实又如何呢?真的有人在乎吗?这重要吗?

二、就像大模型训练撞墙一样,推理也会很快撞墙

Chetan:

在测试时间或推理范例中,有两件事很快就会凸显出来,那就是大型语言模型(LLMs)会非常迅速地探索潜在解决方案的空间。作为模型开发者或从事模型工作的人员,很快就会意识到,用于测试时间计算的算法可能会很快耗尽有用的解决方案搜索空间。这是第一点。

第二点,存在一种被称为验证器的东西,它正在审视哪些可能是好的解决方案,哪些可能是坏的解决方案,应该追求什么,以及能够辨别出哪些是好的解决方案,哪些是坏的解决方案,或者哪些是最佳路径,哪些不是最佳路径。目前尚不清楚这是否会随着计算能力的无限增强而呈线性扩展。最后,任务本身可能是复杂的、不明确的,而限制因素可能是计算能力,也可能不是。

所以,思考这些问题总是非常有趣的,就好像你有无限的计算能力来解决这个问题,你能否做得更快?当然,在推理方面,肯定会有一些问题,如果你只是扩大计算规模就能做得更快。但很多时候,我们开始看到证据表明,在我们当今拥有的技术中,这不一定是能随计算呈线性扩展的东西。

现在我们能够解决所有这些问题吗?当然,会有算法的改进,会有数据的改进,会有硬件的改进,这里会有各种各样的优化改进。我们仍在发现的是,用于推理的基础模型所拥有的固有知识或可用数据仍然有限。仅仅因为你在追求测试时间,并不意味着你就能通过在测试时间扩大计算规模来突破之前所有的数据限制。

所以,这并不是说我们在推理方面遇到了障碍,也不是说我们在测试时间遇到了障碍。这只是问题集、挑战以及计算机科学问题开始演变。作为一名风险投资家,我非常乐观,相信我们能够解决所有这些问题。但它们是可以解决的。

三、GPT-5?至少得2026年,甚至2028年

Patrick:

那么,如果这就是研究实验室的观点,Modest,我很好奇你能给我们讲讲大型公共科技公司的悲观看法,因为在这个话题上,很多内容都是关于支出资本、战略定位、所谓的所有这些支出的投资回报率,以及他们将如何在这一巨额资本支出中获取回报。你认为Chetan刚刚所说的一切都能很好地反映在公共科技公司的立场、定价和估值中吗?

Modest:

我认为你必须从宏观层面开始,然后再深入到微观层面。为什么这很重要呢?因为大家都知道,如今在标准普尔 500 指数中,大型科技公司所占比例更大。但除此之外,我认为从主题上讲,人工智能已经更广泛地渗透到工业、公用事业领域,而且我认为,作为对这一领域的直接投资,其市值占比在 40%到 45%之间。

而且,如果你甚至将其扩展到世界其他地区,你就会把阿斯麦(ASML)、台积电(TSMC)以及整个日本芯片行业都牵扯进来。

所以,如果你看看累计市值,这是当下对人工智能的直接投资,规模巨大。所以我认为,当你审视整个投资格局时,你几乎被迫对此形成看法,因为几乎所有人都会在某种形式上与一个指数进行对比,而该指数在微观层面上将是人工智能的衍生投资。我认为这是一个令人着迷的时代,因为所有的公开市场投资都是对不同路径进行情景分析和概率加权。如果你回想一下大概四个月前我们谈论的时候,我想说,结果的分布已经发生了变化。

当时,在那个时间点,在那个层面上进行预训练和扩大规模绝对是可行之道。当时我们就讨论了其影响。我们谈论过帕斯卡的赌注,也谈论过囚徒困境。在我看来,当投入成本是 10 亿美元或 50 亿美元时,谈论这些是容易的。但我们很快就要接近这样一个时间点,届时赌注将达到 200 亿美元或 500 亿美元。你可以看看这些公司的现金流量表。很难悄悄加入300亿美元的交易额度。

因此,GPT-5 的发布总体上崩溃了。让我们将其应用于所有不同的实验室。我认为这原本会是关于投入资金量的一个重大证明点,因为这些都是三到四年的投入承诺。当时是在谈论 Stargate,即假设的由 OpenAI 和微软讨论的 1000 亿美元数据中心,那是在 2028 年的交付承诺。

但在接下来的六到九个月中的某个时候,要么行,要么不行。我们已经知道,30 万到 40万个芯片的超级集群将在明年年底到 2026 年初交付。但我们可能需要看到下一款机型取得一些成功的证据,才能获得下一轮的承诺。所以,我认为所有这些都是背景。在微观层面上,如果我们从预训练转向推理时间,这将是一个非常有力的转变,并且有几个重大影响。

其一,它能使收入生成与支出更好地协调一致。我认为这对于整个行业来说是一个非常非常有益的结果,因为在预训练领域,情况并非如此。

将投入 200 亿、300 亿、400 亿美元用于资本支出,在 9 到 12 个月内训练模型,进行训练后的工作,然后将其推出,然后希望通过推理从中获得收入。在测试时间计算扩展的世界里,你现在正在使你的支出与模型的底层使用情况相匹配。因此,就纯粹的效率和财务方面的可扩展性而言,对于超大规模企业来说,这要好得多。

我认为第二个重大影响在于,同样,我们必须说,我们不知道预训练的规模化是否会停止。但如果你确实看到了这种向推理时间的转变,我认为你需要开始思考如何重新设计网络架构?你是否需要在能源低成本的陆地上建立数百万个芯片超级集群,还是需要在全国范围内分散布局更小、更低延迟、更高效的推理时间数据中心?而且当你重新设计网络架构时,对电力利用率和电网设计的影响是什么?

我想说,支撑投资世界很大一部分的诸多叙述,我认为都得重新思考。而且我要说,由于这是一种相对较新的现象,如今公众市场尚未开始着手应对这种潜在的新架构是什么样子,以及它可能会如何影响一些潜在的支出。

四、无需大量算力和资源小团队式创新造出一个DeepSeek

Patrick:

Chetan,我很好奇,或许能讲讲 DeepSeek 以及其他类似的情况,在这些情况中,你会看到小团队用相对较少的资金构建新模型,在性能上与一些前沿模型相竞争。你能谈谈这种现象以及它让你想到了什么,或者对整个行业有何影响吗?

Chetan:

这真的令人惊叹。在过去的,大概六周的时间里,我们在 Benchmark 这里见到的团队,成员人数在两到五人之间。Modest之前在你们的播客中谈过这个,那就是技术创新的故事一直是,在帕洛阿尔托的某个车库里,总是有两到三个人在做一些事情,以非常非常迅速地赶上老牌企业。

我认为我们现在在模型层看到了这种情况,坦率地说,这是两年来未曾见过的。具体而言,我认为我们仍然不能百分之百确定预训练和训练规模的回归不会发生。

我们目前还不知道。但在当下这个趋于平稳的时期,我们开始看到这些小团队赶上前沿。我所说的前沿是指最先进的模型在哪里,特别是在文本处理方面?我们看到这些小团队,确切地说,只有两到五个人,以远低于大型实验室投入多个数量级的资金跃上了前沿。

我认为部分原因在于开源模型的数量惊人地激增。具体来说,Meta 在 LLaMA 方面的所作所为在这里产生了巨大的影响。LLaMA 3.1 有三种版本,分别为 4050 亿、700 亿和80 亿。而 LLaMA 3.2 则有 10 亿、30 亿、110 亿和 900 亿这几种版本。

你可以获取这些模型,下载它们,将它们放在本地机器上,你可以将其放入云端,可以将其放在服务器上,并且你可以使用这些模型来进行提炼,优化——调整、训练、改进等等,等等,并凭借相当有趣的算法技术跟上前沿。

而且由于你不需要大量的计算资源,或者你不需要大量的数据,你就能够在特定的垂直领域、特定的技术或者特定的用例方面展现出特别的聪明才智和创新能力,从而非常迅速地跃升至前沿。我认为这在很大程度上改变了我个人对模型层以及模型层潜在早期投资的看法。这里存在很多不确定性,很多依赖变量,而且实际上在六周内,这一切可能都不再成立了。

但如果这种状态成立,即预训练并非因合成数据而扩展,这仅仅意味着你现在可以做得更多,以最少的资金迅速跳到前沿,找到你的用例,找到你最强大的地方,然后从这一点出发,坦率地说,超级巨头会成为最好的朋友。

因为在当今,如果你处于前沿领域,你正在推动一个用例,你不再受到 GPU 的特别限制。特别是如果你打算进行测试时推理、测试时计算之类的工作,并且你为比如说 10 家企业客户提供服务。或者也许这是一个针对特定用例优化的消费解决方案。

计算方面的挑战已经不像2022年那么大了。在 2022 年,你会和这些开发者交流,这就变成了这样一个问题:嗯,你能把十万个集群拼凑在一起吗?因为我们需要进行训练,然后还得去买所有这些数据,即便你知晓所有技术,突然间你一算,就会说,要启动第一次训练运行我得花十亿美元。而这可不是一种可行的模式。

从历史上看,这就是风险投资模式。风险投资模式一直是能否组建一支非凡的团队,实现技术突破,做到资本轻型化,迅速超越现有企业,然后以某种方式获得分销立足点并推进。在过去两年的模式层面,这似乎绝无可能实现。但在过去的六、八周里,这种情况确实发生了改变。

5.大模型只是另一种工具

Modest:

我认为这很重要。关于 Meta 开源以及超大规模公司的开源推动前沿发展,小型模型能够扩展到非常成功的程度,这是极其有益的,特别是对于没有原生大型语言模型的 AWS 来说。但如果你退一步思考一下云计算的历史,就会发现它为开发者和建设者提供了一套工具。AWS 率先清晰地阐述了这一愿景。

9 月份在高盛的一次会议上,马特·加曼公开谈到了此事。但他们的观点显然一直是,大型语言模型只是另一种工具,生成式人工智能是他们能够为其企业客户和开发者客户提供以打造下一代产品的另一种工具。这种愿景面临的风险是一个全能且具有普遍性的暴民。

所以,这再次让你不得不重新思考,如果我们不构建这些大规模的预训练实体,将训练损失降至近乎为零,并以这样或那样的形式构建出那个隐喻中的上帝,那会怎样。

相反,如果行业的重点是在测试阶段、推理阶段,并试图在客户需要的地方解决实际问题,我认为这再次重新设计并重新构建了这项技术如何推出的整个愿景。而且我认为我们需要谦逊,因为我们不知道 LlaMA 4 会是什么样子。我们不知道Grok 3 即将推出。这是目前在有史以来最大的集群上进行训练的两个模型。

所以我们现在所说的一切可能在三个月内都是错的。但我认为,当下的整个工作就是吸收所有可用的信息,并根据我们如今所知重新描绘各种情景路径。如果这是正确的,我觉得人们还没有更新他们对于这些路径可能如何发展的先验判断。

Patrick:

我很好奇,Chetan,对于这种变化,也许现在你会投资一家模式公司,你怎么看。我记得两年前我们一起吃晚餐的时候,你跟我说,作为一家公司,你们刚刚决定不投资这些公司。就像你说的,这不符合我们的模式。我们不会在首次试运行时就开出数十亿美元的支票。

因此,我们不在那部分堆栈上进行投资。我们更多地投资于应用层,在这场讨论中稍后我们会再次回到这个话题。但也许再多谈谈这种关于其如何运作的更新观点,一个示例投资可能是什么样子,以及即使 LLaMA 4 是预训练缩放损失保持不变,这是否会改变,因为这似乎只是像 DeepSeek 那样受益。好的,现在不是 3.2,而是 4,我们仍在做我们的事,而且仍然更好、更便宜、更快等等。

那么,是的,对于这种新观点,即有可能投资于模式公司,而不仅仅是应用公司,你有何看法?

Chetan:

在 Meta 的上一次财报电话会议上,马克·扎克伯格谈到了他们开始开发 LLaMA 4,并表示 LLaMA 4 正在一个比以往他所见过的任何集群都大的集群上进行训练。

所引用的数字表明,它比十万台 H100 还要强大,或者比我所看到的关于其他公司正在做的任何事情都要强大。而且他还说,你知道,较小的 Llama 4 型号应该会在 2025年初准备好。这真的很有趣,因为无论 Llama 4 相对于 Llama 3 是否是阶跃函数,这都不重要,重要的是他们是否突破了效率的界限,达到了即使只是逐步提升的程度,这对开发者群体产生的影响也是相当深远的,因为如今 Llama 的影响力有两个方面,我认为这对 Meta 非常有利,其一。Llama 所使用的 Transformer 架构是一种标准架构,但它有自己的细微差别。

而且,如果构建于 Llama 之上的整个开发者生态系统开始仅仅假定 Llama 3 Transformer架构是基础且某种标准的做法,那么这就有点像是将整个堆栈朝着 Llama 的思维方式标准化,从硬件供应商如何支持你的训练运行,到超级巨头等等,不一而足。因此,对 Llama 本身的标准化开始变得越来越普遍。

所以,如果你要创办一家新的模式公司,最终的结果是,如今从 Llama 开始,不仅很棒,因为 Llama 是开源的,而且还极其高效,因为整个生态系统都在采用这种架构。所以你是对的,作为一家拥有 5 亿美元资金的早期基金,我们试图在每个基金周期进行 30 项投资,10 亿美元的试运行基本上意味着你要投入两笔资金来进行一次可能成功也可能不成功的试运行。

因此,这是一项资本高度密集型的业务。顺便说一下,这些模型的折旧时间表令人望而生畏。蒸馏作为一种技术,使得这些模型的防御性和这些模型的注释极其具有挑战性。这实际上归结为你在其之上进行的应用是什么,你的网络效应是什么,你如何在那里获取经济效益等等。

我认为,就目前的情况而言,如果你是一个两到五人的团队,你可以以编程为例,通过在 Llama 的基础上进行微调训练,推动建立一个能更快生成更好编程答案的模型,然后提供一个应用程序,其中包含你自己的定制模型,这确实能为你的客户(无论是开发者还是其他类似的人员)带来非凡的效果。所以,我们这里的特定方法和策略一直是,从我们看到 OpenAI API 开始流行起的时候起,就大力投资于应用程序。

2022 年夏天,我们开始看到开发者谈论这些 OpenAI API。从那时起,我们的很多努力就是寻找那些考虑利用这些 API 来开拓应用层的企业家,并真正开始思考在当前这波人工智能浪潮之前根本不可能存在哪些应用。

显然,我们已经看到一些非常出色的成功公司从中脱颖而出,它们仍处于早期阶段,但它们所展现出的发展势头、所提供的客户体验、所采用的生物识别技术等等,都非同凡响。几周前,布雷特·泰勒(Brett Taylor)曾在你们的播客节目中,塞拉(Sierra)就是一个这样的例子。在采购方面,我们有一个叫做 Levelpath 的项目。在整个投资组合中,在应用层还有许多其他例子,在那里,你可以审视每一个大型 SaaS 市场,用应用层的投资去开拓它,并开始思考如今哪些是两年、三年、四年前还无法实现的事情。

六、大模型这场球赛,谁会胜出?OpenAI?谷歌?还是Meta?

Patrick:

我很好奇,想稍微谈谈我们谈到的那些大型基础模型参与者,比如 Llama,但不太想谈 xAI、 Anthropic 和 OpenAI,也许还有 Meta。先从你说起,我很好奇你对于它们的战略定位以及每家重要的方面的想法。

也许以 OpenAI 为例,也许这里的关键在于他们打造了一个多么出色的品牌,他们拥有庞大的用户群体,他们有众多出色的合作伙伴,人们知晓并使用他们的产品,有很多人为他们付费,比如 20 美元之类的。也许在这种模式中,分发渠道比产品本身更为重要。

我很好奇你对这三位球员的看法,到目前为止他们占据主导地位,但通过你目前的分析,似乎重要的是他们要不断创新。

Modest:

所以我认为对 OpenAI 来说有趣的部分在于,他们刚刚完成了最近一轮融资,而且对于投资理由有一些相当公开的评论。没错,很多评论都围绕着这样一个观点,即他们在消费端已经获得了逃逸速度,ChatGPT 现在是认知的参考,随着时间的推移,他们将能够聚集巨大的消费需求端,并据此收取适当的费用,而他们在企业 API 和应用程序构建方面的投入要少得多。

如果你仔细想想我们所谈论的内容,就会发现这超级有趣。

在他们的财务数据中,如果你剔除训练费用,如果你剔除这笔巨大的前期支出需求,按照他们的预测,这实际上很快就会成为一家利润丰厚的公司。所以从某种意义上说,这可能会更好。

那么现在问题变成了,一家不再在前沿领域呈阶跃式推进的公司,其防御能力如何?在这方面,我认为这最终将归结为一点,谷歌也在前沿推进,而且他们很可能会免费赠送产品,还有 Meta。

我认为我们或许可以花一整集来谈论 Meta 以及他们在企业和消费者方面的嵌入式选择权。但让我们先谈谈消费者方面。

这是一家拥有超过 30 亿消费者接触点的企业。他们显然正在将 Meta AI 应用于各种场景。不难看出,他们应该收购 Perplexity 公司

但你刚刚还看到司法部站出来表示,谷歌应该被迫授权其搜索索引。我想不出还有谁比 Meta 更有利可图,它有机会以极低的成本承接谷歌的搜索索引。但关键在于,我认为将会有两个大规模的互联网巨头免费提供本质上类似于 ChatGPT 的产品。所以这将是一个引人入胜的案例研究,探讨“这种产品能否在消费者心目中占据主导地位”。

我的孩子们知道 ChatGPT 是什么,他们不知道 Claude 是什么。我的家人知道 ChatGPT 是什么,他们不知道 Grok 是什么。所以我认为对于 OpenAI 来说,问题在于你能否超越免费?如果你能,而且训练成本降低,这将是一家很快就能盈利的公司。

如果你去了解 Anthropic 公司,我认为他们面临着一个有趣的困境,即人们认为 Sonnet 3. 5 可能是现有的最佳模型。他们拥有令人难以置信的技术人才。他们不断吸纳越来越多的 OpenAI 研究人员,我认为他们会构建出出色的模型,但他们有点受困。他们在消费者中的知名度不高。

在企业方面,我认为 Llama 会让前沿的模型构建者很难试图在那里创造巨大的价值。所以他们被困在中间。出色的技术专家,优质的产品,但并非真正可行的策略。而且你看,他们又筹集了 40 亿美元。

对我来说,这表明预训练的扩展效果不太好,因为 40 亿美元远远达不到他们的需求。如果扩展的途径是预训练,那我对他们未来的战略路径就没什么好的判断力了。我认为他们陷入了困境。

关于 xAI,我就当不知道了。他(埃隆·马斯克)是一位独一无二的人才,他们将拥有一个 20 万芯片集群,并且有一个面向消费者的接触点,他们正在构建一个应用程序编程接口(API)。但我认为,如果预训练是扩展的途径,那么他们将面临与其他所有人相同的数学难题,只不过可能因埃隆独特的筹资能力而有所缓解。

但同样,在接下来的四五年的时间里,数字会迅速变得如此庞大,甚至可能超过他。然后,如果到了测试阶段,计算和算法改进以及推理,它们的差异在哪里,它们的市场切入点在哪里,当你有人在消费端站稳脚跟,而企业端又有一个同样强大的开源实体时,情况会怎样?

所以当你审视这三者时,我认为最容易看清的是 OpenAI 未来的发展方向是什么。

不过,关于 OpenAI,我要说的是诺姆·布朗,我发现他是研究领域最出色的沟通者之一。他最近上了红杉资本的播客节目,当被问及通用人工智能时,他说,你看,我觉得我在 OpenAI 之外的时候,对整个通用人工智能的事情持怀疑态度。但实际上这是他们所关注的。

当我进入 OpenAI 工作时,我非常清楚他们对于通用人工智能(AGI)非常认真,这是他们的使命,其他一切都服务于 AGI。我们很容易坐在外面,清晰地阐述如果我们负责那里可能会采取的策略,但我认为我们需要意识到这样一个事实,即他们之所以能走到今天这一步,部分原因在于他们肩负着使命。

该任务是开发通用人工智能,对于为其设定任何其他最终目标,我们都应该非常谨慎。

七、2025,AGI已经接近实现至少端到端时代已经到来

Chetan:

而我个人的看法是,通用人工智能已经非常接近实现了。

Patrick:

再多说几句。那为什么它还没到这儿?这些东西比我打交道的大多数人都聪明。

Chetan:

是的,我想是这样。狭义定义的人工通用智能(AGI),或者也许是从广义定义的角度来看,这取决于你的观点,是一个高度自主的系统,在某些情况下在某些具有经济价值的工作中超越了人类的表现。用这种视角很容易说 AGI 已经存在。我认为非常明确的是,如果你看看 OpenAI 发布的公告以及他们高管在最近几周接受的采访,其中一个例子是端到端的旅行预订,这是我们可以期待在 2025 年看到的东西,在那里你可以提示系统为你预订旅行,然后它就会去做。

这是一种新的思维方式,即端到端的任务完成或端到端的工作完成。这显然涉及推理,涉及自主工作,涉及使用计算机,正如克劳德所阐述的那样。而且你正在将这些大型语言模型与生态系统本身相互作用的多种方式结合起来,将其放入一个非常出色的组合中,从而能够完成端到端的工作,并使其完全自动化,做得比人类更好。在我看来,从这个角度来看,我们已经非常非常接近了。

而且我设想,到 2025 年,我们将非常接近或达到通用人工智能的水平。鉴于当前的进展和创新,再加上现在转向测试时的计算和推理,从这个角度来看,通用人工智能即将到来。

Modest:

这很有趣,因为我们有点像在温水里煮的青蛙,我们相当轻松地通过了图灵测试,然而再也没有人坐在这里谈论:天哪,我们通过了图灵测试。它来了又过去了。所以,也许通用人工智能的宣告也是同样的道理,就像,是的,当然模型能够预订端到端的旅行。这实际上没那么难。

然而,两年半以前,如果你说:“嘿,有一种算法,你可以告诉它你想做什么,它会从头到尾安排好并给你发送一张收据。”你会说,

“没门儿。”所以这可能有点像煮青蛙,突然有一天你醒来,一个实验室说:“嘿,我们实现了通用人工智能。”大家可能有点像,“啊,酷。”不过,实验室宣布实现通用人工智能在更广泛的意义上有趣,有一个特别的原因,那就是与微软的关系。微软去年夏天首次披露,在通用人工智能实现之前,他们拥有 OpenAI 知识产权的全部权利。

所以,如果 OpenAI 选择宣称已实现通用人工智能,我认为这将在他们和微软之间引发一种非常有趣的动态,这将加剧当前已经在发挥作用的、本就非常有趣的动态。所以,这在明年肯定是值得关注的,不仅对公开市场的投资者而言是如此,对更广泛的生态系统的影响也是如此。因为我再次认为,如果我们现在所走的道路是正确的,那么随着我们向前推进,关系和商业伙伴关系将会有很多重新洗牌。

Patrick:

Chetan,Modest对大公司的评估中还有其他内容吗?而且鉴于我们没有特别谈到谷歌,我们很希望听听你对谷歌的看法。有没有他说的话你不同意或者想要进一步追问的?

Chetan:

不,我认为我们只是不知道的是,我们不知道所有这些房间里进行的潜在讨论,我们可以推测并了解我们可能会怎么做。但我认为,归根结底,每一家互联网企业或科技企业最终都归结为以下两种情况。

在消费者方面,分销随后与某种网络效应和锁定效应相结合,然后你就能凭借这一点脱颖而出,在竞争中占据优势。而在企业方面,这在很大程度上是一种由技术差异化以及以出色的服务级别协议、优质的服务以及非常独特的解决方案交付方法所驱动的业务。所以,Modest对消费者的评论以及消费者将如何演变。

我认为这完全正确。Meta、谷歌和 XAI 都有面向消费者的接触点OpenAI 如今拥有出色的品牌,凭借 ChatGPT 以及大量的消费者接触点

而在企业方面,挑战在于这些 API 迄今在很大程度上都不如开发者所期望的那样可靠。

由于超大规模云服务提供商出色的工作,开发人员已经习惯,如果你为一款产品提供 API,那么这款产品应该是无限可扩展的,全天候可用的,API 失效的唯一原因是某个大型数据 中心停电之类的原因。很少有理由让 API 失效。这已成为开发人员对企业解决方案的思维模式。在过去的两年里,AI API 的质量对应用程序开发人员来说是一个巨大的挑战。

因此,最终的结果是人们已经找到了变通方法,并通过纯粹的创新解决了所有这些问题。但在这方面继续推进,我们再次回到这一点上。如果预先训练和扩展不是解决之道,而完全取决于测试时的计算能力,这就是我们再次回到超大规模运营商传统方式的地方。我认为在这方面,AWS 具有极大的优势,因为 Azure 和 Google 都有出色的云服务,但 AWS拥有最大的云。

它确实以一种非常独特的方式构建了弹性。即使在今天,如果你运行 LLaMA 模型,你会希望在 AWS 上运行 LLaMA 模型,或者由于某些原因,如果你有一些非常特定的用例并且需要为本地客户提供支持,你也可以在那些监管环境复杂或存在合规原因的大型金融机构中,如果你愿意,你可以在本地运行这些模型。

而且,AWS 甚至已经在这方面有所行动,比如 VPC(虚拟专用云)、GovCloud 以及诸如此类的东西。所以,如果我们假设预训练和扩展工作已经完成,那么突然之间, AWS 就会变得极其强大,在过去几年里,他们的策略就是与开发者生态系统中的所有人交朋友,而不是自行开展大型语言模型的工作。

嗯,他们正在推进,但并非以与其他公司相同的方式推进,这最终很可能会成为一个相当不错的策略,因为突然间你就拥有了最好的 API 服务。我认为另一部分是谷歌,我们还没谈论到它,他们的云在某些方面非常出色。所以他们有企业业务。如果你看看最新的收益报告,会发现他们的企业业务实际上已经相当大规模了。显然,他们的消费业务占主导地位,而且一直有一种看法认为他们如今受到了冲击。

我认为这些力量对他们极具破坏性。但目前尚不清楚这种破坏是否已经发生。他们对此采取了什么行动?显然他们正在努力尝试,而且很明显他们正在非常努力地尝试。

但我认为这是一件值得关注的事情,也是我喜欢的那种,因为这是典型的创新者困境。显然,作为现有企业,他们正努力站在不被创新者取代的有利一边。他们非常努力。所以在商业史上,现有企业成功阻止创新者攻击的情况非常少见。

而且如果他们在这个时代确实捍卫了自己的业务,那将是一项非凡的成就。

Modest:

是的,谷歌非常引人入胜,因为曾有一位出色的卖方分析师卡洛斯·基尔吉纳(Carlos Kirjner),不幸的是,他去世了。但在 2015 年和 2016 年,他花了大量报告来写谷歌在人工智能方面的进展,以及他们在 DeepMind 所做的基础工作,实际上他非常喜欢这些工作,最终去了谷歌工作,但首先揭示了他们在神经网络和深度学习方面所做的基础工作这一想法。

显然,他们被这种大规模的暴力扩展所震惊,推动这波技术的是实实在在地在计算上投入。但如果你阅读过任何对那些预见到这堵数据墙的人的采访,他们谈到的其中一点是,自我对弈可能是克服数据不足的一种模式。而谁比 DeepMind  更擅长自我对弈呢?

如果你审视一下 DeepMind 在 Transformer 出现之前所拥有的成果,以及他们将 Transformer 与计算能力的扩展相结合所取得的成果,似乎他们已经具备了所有能取胜的条件。但我一直以来提出的问题都不是谷歌能否在人工智能领域取胜?而是,无论取胜是什么样子,它是否有可能重现当前范例中取胜时的辉煌?这才是真正的问题所在。

正如Chetan所说,如果他们能克服困境并取得胜利,那将会令人惊叹,但我认为他们具备这样的条件。真正的问题在于,他们能否凭借现有的资产打造出一家企业,这家企业在任何方面都能像可以说是我们所见过的最伟大的商业模式——互联网搜索那样出色。所以我同样很期待关注他们。我认为在企业方面,他们拥有令人难以置信的模式和资产。

我认为他们需要赢得很多信任。我觉得随着时间的推移,他们在那个世界里起起落落,所以我认为这对他们来说是一个更难突破的方面。但在消费者方面,当然在模型构建方面,他们已经具备了所有获胜的条件。

问题在于,那个奖项究竟是什么样子?尤其是现在,看起来似乎不存在一两个能称霸的模型

八、大模型越稳定,应用越有机会

Patrick:

Chetan,我很好奇,作为一名寻求回报的投资者,你个人希望走什么样的道路?

Chetan:

我个人希望人工智能能持续很长时间。作为一名风险投资者,你需要巨大的颠覆来解锁分销。如果你看看互联网或移动领域所发生的情况,以及价值在哪里产生,在这两波浪潮中,价值主要在应用层产生。显然,我们的假设,也是我的假设,是这一层由于人工智能应用层的创新,将再次非常有利于分销的解锁。我认为到目前为止这在很大程度上已经显现出来了。虽然仍处于早期阶段,但那些推出面向消费者和企业的人工智能应用产品的供应商发现,这些解决方案之所以能够存在,完全是因为人工智能。它们正在以一种坦率地说在 SaaS 或面向专业消费者的 SaaS 等领域无法实现的方式解锁分销渠道。

我们将给你一个非常具体的例子,一个由人工智能驱动的应用程序。我们现在正向《财富》500 强企业的首席信息官展示这些演示。两年前,确实有一些不错的演示。如今,这是一个非常出色的演示,同时还结合了五个客户参考案例,这些客户都是同行,他们在生产中使用了它,并取得了巨大的成功。在那次交流中,有一点变得非常清晰,那就是我们所展示的并非是对现有 SaaS 解决方案的 5%的改进。而是关于我们能够大幅削减软件支出和人力资本支出,并将其转移到这个人工智能解决方案上。而且你对软件的 10 倍传统投资回报率的定义很容易被认可,人们能在 30 分钟内理解。

于是你开始看到,过去软件即服务(SaaS)和人工智能应用通常有着非常漫长的销售周期,而现在 15 分钟就能做出决定,30 分钟就能做出决定。而且对于企业来说,采购流程完全不稳定。现在首席信息官会说类似这样的话:“咱们尽快把这个搞定。”我们打算进行为期 30 天的试点。一旦成功,我们就会签订合同并立即部署。这些情况在三年、四年前的软件即服务领域是完全不可能的,因为当时你是在与老牌企业竞争,在与他们的分销优势、服务优势以及所有这类东西竞争。而且很难证明你的特定产品是独特的。

所以,自 2022 年以来,我可以说自 2022 年 11 月的 ChatGPT 以来,这在这个世界上似乎是一个非常好的前后界限。我们已经对人工智能公司进行了  25  项投资,对于一个由五个合作伙伴组成的 5 亿美元基金来说,这是一个非凡的速度。上次我们达到这种速度是在 2009 年 App Store 推出的时候。然后,我们再次达到这种速度是在 1995 年、1996 年的互联网时期。在这两者之间,你们可以看到我们的投资步伐相当缓慢。

在非颠覆性时期,我们平均每年大概投资五到七次。显然,现在我们的投资步伐大幅加快。如果你看看这 25 家公司,其中四家是基础设施公司,其余的是应用公司。而且我们刚刚投资了我们的第一家模式公司,不过这还没有公布。

但这是两个人,两个非凡的、才华横溢的人,他们带着很少的资金就投身于前沿领域。所以,我们显然已经押注并预料到,在应用层会有巨大的创新和分发解锁。我们已经看到这种情况正在发生。作为软件投资者,这些产品确实令人惊叹。

它们需要对这些事物的架构方式进行彻底的重新思考,从第一性原理出发。你需要统一的数据层,需要新的基础设施需要新的用户界面以及诸如此类的东西。显然,初创企业相对于老牌软件供应商具有显著的优势。这并不是说老牌软件供应商停滞不前,只是如今在企业软件领域,创新者的窘境比在消费领域更激烈地在我们眼前上演。

我认为在消费领域,消费者参与者已经意识到了这一点,正在推动变革,并正在采取行动。然而,我认为在企业领域,即便你意识到了这一点,即便你有采取行动的愿望,解决方案的构建方式也无法响应大幅的重组架构。那么,我们能看到这种情况发生吗?一家大型 SaaS 公司会暂停销售两年,然后彻底重新架构其应用堆栈吗?

当然,但我就是觉得这不会发生。所以,如果你看看关于人工智能软件支出正在发生什么的任何分析,比如仅纯支出在 2023 年和 2024 年之间同比增长了 8 倍。在短短一年的时间里,就从几亿美元增长到了远远超过 10 亿美元。你可以看到这种拉动,你能感受到这种拉动。

如果你身处这些人工智能应用公司中的任何一家,会发现这类公司更多地是受供应限制而非需求限制。我们与这些应用公司的首席执行官交流,他们只是会说类似这样的话:“嗯,就我所能看到的情况,我看到了需求。”我只是没有能力为所有对我表示同意的人提供服务。所以我打算对其进行细分,然后到他们所在的地方去。

作为一名投资者,我所希望的是这种情况能持续下去,我们能保持稳定,从而专注于这些方面。坦率地说,模型层的稳定对于应用层来说是一个巨大的福音,主要是因为作为应用开发者,你坐在那里看着模型层每年都实现阶跃式的飞跃。

而且你在某种程度上不知道该构建什么,也不知道哪些是应该等待构建的,因为显然你希望它与模型层完全一致,因为模型层现在正转向推理。这对于应用程序开发人员来说是一个很好的地方。

作为应用程序开发者,你知道的一件事是人类是没有耐心的。因此,你需要始终构建在性能和质量方面优化的解决方案。作为应用程序开发者,你不能对用户说,比如,我打算提供一个高质量的响应。

想了解更多AIGC的内容,请访问:

51CTO AI.x社区

https://www.51cto.com/aigc/

责任编辑:武晓燕 来源: 51CTO技术栈
相关推荐

2024-05-11 10:12:43

人工智能

2023-09-27 12:56:33

AI训练

2010-03-11 10:07:31

谷歌前员工天使投资人

2024-03-01 13:20:58

机器人OpenAIGPT

2024-02-04 12:32:04

模型数据

2024-05-06 08:45:00

Meta训练

2023-10-19 08:30:56

模型搜索

2023-11-23 08:53:50

OpenAI人工智能

2017-12-19 10:34:46

AR游戏互联网AR技术

2015-12-28 10:31:59

独角兽2016估值

2024-03-07 13:02:16

SaaS独角兽效率

2019-08-07 17:34:59

2024-04-28 14:32:58

JavaCopilot应用

2019-11-15 17:57:59

容联

2018-10-15 15:38:19

物联网独角兽IOT

2020-06-15 14:40:55

智慧停车AI传统停车

2024-08-05 07:00:00

AI数据

2015-08-27 13:36:43

企业市场独角兽

2023-09-28 20:57:23

Meta人工智能聊天机器人

2021-07-28 10:25:49

机器人人工智能技术
点赞
收藏

51CTO技术栈公众号