开源模型,是全村希望还是智商税?

原创 精选
开源 人工智能
不同企业根据自身的优势进行差异化竞争。例如,百度利用其在搜索领域的数据积累,而其他公司比如字节则可能利用自己强大的内容生产生态。这些企业都在走差异化路线,借助自己在生态上的积累,让AI的价值最大化。

嘉宾 | 郭炜、沈旸、程戈

主持 | 薛彦泽

整理 | 李美涵

大模型的场域,被开闭源自动地划分为两个阵营。自此,开闭源之争的硝烟一直盘旋在大模型的上空。

从奥特曼颇为无力的辩称:OpenAI的Open指的是人工智能成果的广泛共享,而非模型的开源。到李彦宏直截了当的断言:开源模型可能是一种“智商税”,随着时间的推移,开源模型只会越来越落后。开源模型在商业模式上的断裂及性能的落后一直饱受诟病。

然而,Llama 3.1的横空出世给开源注入了强心剂。有人说,Meta的持续开源是对开源唱衰论的最有力反击。周鸿祎也站出来说,大模型不该沦为少数厂家的赚钱工具。

为了能挖掘这场开闭源之争的更多细节,AIGC实战派邀请了白鲸开源CEO 郭炜、前神码CIO 沈旸以及湖南国家应用数学中心副主任程戈,深入探讨了“为什么市面上头部AI产品依赖闭源大模型?”“开源是不是比闭源的成本更高”等话题,力图厘清开闭源之争的这一争锋点——开源大模型,到底是全村的希望,还是智商税?

以下是访谈要点:

•Meta的开源策略,其主要目的是抢夺信息入口,而非商业授权带来的收入。开源模型可能有后劲不足的问题。

•当前大模型的参数还不够大。如果以人脑的神经元作为参考,能实现AGI的大模型,其参数规模可能需要达到万亿甚至十万亿级别。

•开源的商业模式尚未成熟。对于To C的AI产品来说,模型性能的微弱差异都可能会影响到最终的用户体验。

•开源模型所要求的微调、部署等额外成本,只有能从垄断性的行业中收回时才合理,所以适合医疗、金融领域的B端客户。

•开源大模型的size一定是有体量限制的,考虑到企业部署和运行模型的成本,估计开源的“爆点”将在100B左右大小诞生。

•目前的开源模型还不是真开源,无法调动整个社区的力量。开源的核心在于改动能够被贡献回上游,从而一起打造更强大的工具。

经过整理的采访内容如下。

1.开源顶流“刚”得过GPT-4o ?

薛彦泽:最近Meta公司开源的Llama 3.1 405B的模型能不能刚得过GPT-4o?模型的实力究竟是怎样的,如此庞大的体量会不会在实际部署时遇到挑战?

沈旸: 我们看到这个参数的时候,就放弃部署了,知道肯定跑不起来。不过,我认为这个size的商业化潜力很大。如果是一个7B参数的小模型,企业很容易完成私有部署,模型厂商很难赚到钱。但对于405B这样size的模型,一般企业很难搞定,必须要借助云服务,这是一条重要的营收来源。

程戈:Llama和GPT,商业逻辑是不一样的。Meta的开源策略是出于对流量入口的争夺,就像移动互联网的时代,安卓通过开源以对抗苹果一样。

每当Meta开源新的模型,股价就会上扬,这说明资本对其商业策略是认可的。但Meta是否真的能达到其商业目的,我是会画个问号的,对B端用户来说,开源模型可能无法完全保证其数据安全;对C端流量来说,Meta是否能够通过吸引用户并将模型封装成优质产品,还有待观察。

值得注意的是,与移动互联网时代不同,大模型作为后台服务,API的切换相对容易,用户和服务商粘性不强。所以我担心我对Meta的开源策略可能后劲不足,我想他们主要目的还是抢占信息入口,而非商业授权带来的收入。

郭炜:我自己搞开源10多年了,据我观察,开源项目的成熟一般需要三到五年的时间。现在就断言大模型的开源项目能不能打败GPT-4o可能为时尚早。

首先,大模型的热潮虽然让Llama等开源模型广为人知,但它们的产品形态和未来方向实际上还未确定。其次,我不认为大模型本身是一个产品,我觉得它更像是数据库这样的基础组件。不同的模型可以类比为Oracle、Postgres或MySQL——它们本身并不直接解决业务问题,而是作为构建其他应用的基础。

薛彦泽:那我们再往上一层说,开闭源生态,目前各处于什么样的状态,哪个可能更占优一点?

郭炜:我说一个跟大家稍微不一样的观点,我认为大模型本身不那么重要,谁掌握数据才重要。模型跑分高不代表在实际的应用场景中能满足用户的需求。

为什么手机百度里的AI搜索助手使用频率那么高,能以80%到90%的准确率快速回答问题,就是因为有百度的数据加持,让你快速获得你需要的数据,豆包和元宝的优势也在于此。

程戈: 我想补充一下具身智能领域的信息,在这方面我觉得开源的市场会更好一些。具身智能如果要实现离线功能,必然需要在开源基础上进行开发,并对模型进行精简,使其体量足够小,能完成家政等特定场景中的任务就可以。

开源生态的话,已经在运动规划方面公开了权重,无需再付出预训练的成本,只要去做微调就可以了,能够很好的降低成本。

2.“模型先变小,才能继续变大”?

薛彦泽:现在AI领域有个论断说,“模型必须先变小,才能继续变大”,老师们怎么看这条规律?

郭炜:不能说这个规律不对哈。但是,大和小是模型的两个不同层次,是并行的,本质是取决于不同的应用场景。

我还是以数据库的发展举例,在早期,大家做数据库也是拼命做大。像IBM的DB2这样的大型数据库可能需要占据整个房间,而随着技术的进步,它们逐渐缩小到机柜甚至单个服务器的规模。同时,也出现

了针对特定场景优化的小型数据库,比如运行在手机或电脑中的数据库。

我觉得大模型的发展也会是双向的,而不是所谓的“先后”。解决通用问题还是需要大模型,具体到一个具体问题,例如智能眼镜的日常交互,一定是小模型更合适。

薛彦泽:更大模型的推出速度好像在放缓,比如GPT-5的延期。

郭炜:大模型的迭代速度慢。然而,LLM领域的“军备竞赛”尚未结束,后面肯定还有更大的模型。

薛彦泽:回到这个论断本身,是否暗示了现在的大模型训练遇到了数据、算力等方面的瓶颈,需要采取蒸馏等方法先得到小模型,才能继续发展?

沈旸: 我觉得模型当前的参数还不够大。如果以人脑的1000亿个神经元作为参考,现有的AI模型参数量与之相比还相差甚远。如果AGI能做到在各种任务上超越人类,参数规模可能需要达到万亿甚至十万亿级别。

在达到这样的规模之前,我们都在探索AI大模型的天花板。因为transformer架构是个概率模型,只有当我们触及到这个极限,等那时我们才会考虑通过蒸馏等方法来缩小模型规模,看是否能够在减少参数的同时保持或提升性能。

例如下一次发的4050B模型,跑分只比405B高一分,这个时候就应该考虑往小里做了。总的来说,这还是一个探索的阶段,未知空间还很大。

有关数据的问题,我个人感受是数据还远远没有耗尽。目前大模型学到的都是表面的知识,就像三体人学习人类一样。经过筛选的数据,使得模型都是中立的“伟光正”。就像今天的这场直播,我们会有观点的冲突,之后才有讨论、说服和决策,但目前的大模型还没有允许被“喂”不同立场或者是“人格”的语料。

程戈: 参数规模,主要是两个原因决定的。我们说的“智能涌现”,是说随着参数扩大,模型的性能线性提升,但到达某一点后,性能提升会非常快。然而,如果要再进一步,则需要更高质量的数据。而目前,带来的信息增益是最多的数据已经消耗的差不多了。

其次,多模态数据的引入虽然带来了参数规模的增长。然而,视觉数据跟自然语言数据相比,噪声太多。在这种情况下,单纯增加参数规模带来的成本收益比将逐渐降低,因此我们可能不会继续盲目增加参数规模。另外,端侧推理的需求也影响了模型规模,在本地能run的模型隐私性更好,这使得现阶段小模型的涌现和流行成为自然。

3.头部产品依赖闭源模型?

薛彦泽:现在AI的头部产品,几乎都是依赖闭源大模型的。开源模型是不是主要面向B端和学术侧?为什么会出现这种现象?

郭炜:闭源大模型已经有了自己的商业模式。而开源在这方面还未成熟,可能需要三到五年的时间,才能真正进入良性的生长周期。

以安卓为类比,它也是做了很多年才开始有收入的。

目前,闭源模型在To C领域用的更多,因为它们有流量,能够吸引投资人,获得大量的资金支持。而开源模型虽然在To B上有所应用,但不如前者广泛。在To B领域,场景适配的重要性远超过模型本身的性能。许多海外的SaaS服务,仍然在调用闭源模型的API。因为开源模型还需要自行部署、训练和优化,这对于企业来说是额外的投入。

沈旸:目前为什么闭源模型更受欢迎呢,我觉得可以从以下几种商业情景考虑:

首先,对于想做初期POC(概念验证)或企业内部应用来说,使用闭源模型的成本非常低廉。大模型云调用的方式省去了硬件成本,通过按需付费(如按token计费)方式即可。

其次,对于目标是做到头部AI应用的用户来说,为了追求效率和性能,也会倾向于采用闭源模型。

最后,就是我刚才提到的,开源模型一定是个“伟光正”的大模型,这使得AI在内容上有过滤,可能在商业效果上打折扣。

如果要说开源大模型的未来,我觉得关键在大型企业出于数据安全考虑,必须进行本地部署的情况。然而,在这种情况下,模型的size一定是有体量限制的,要能兼顾模型的运行和成本等问题,我估计范围在100B左右。

程戈: 我觉得这是模型不同的商业模式所决定的。在C端市场,即使是细微的性能差距也会在客户体验中被放大,导致使用开源模型的产品在商业竞争中处于劣势。

设想一个B端企业采用开源模型,其竞争对手使用闭源,模型之间可能只有5%到10%的效果差距。但对一般用户来说,他们并不关心这一点点差距,因此用户体验成为了竞争的关键。只有当开源模型的能力达到与闭源模型相似的水平时,中间厂商才会采用并提供给中小开发者使用。

为什么是现在大家看到开源在B端和学术界受欢迎?B端是因为许多行业的竞争能力来源于其私有数据,为了保护商业利益,哪怕性能逊色些,也不得不用开源。而学术界的研究和实验需要,与闭源模型的黑盒特性间不适配,不满足学术研究的透明度和可复现性。

4.使用开源模型,成本未必低于闭源?

薛彦泽: 接下来我们聊聊开源模型的成本,因为还需要投入人力做微调,在实际的生产环境中也许不如闭源更经济?

沈旸:开源之所以贵,就是大家想去做微调,只要你放弃了这个想法,它的使用成本是极其低的。

例如,如果你想将一个通用的开源大模型调整为特定于金融领域的模型,这非常难,更好的做法是等待金融领域的大企业把这个模型开源出来。尽量不要自己做微调,更为经济高效。

薛彦泽:但开源模型的价值不就在于大家可以自己做微调和训练吗?

郭炜:做个比喻,我就觉得开源模型比作一个中专生,它可能不如闭源模型那样已经达到大专生的水平,但开源模型的优势在于它的可塑性。你可以通过微调来教授它专业知识,或者通过规则来指导它,使其适应特定领域的应用。

然而,无论采用哪种方式,开源模型使用的时间成本一定是大于闭源模型的。如果你想在短期内做一个产品,使用闭源模型是必然的。说实话,目前的开源大模型是爱好者,前辈级大企业的玩具,普通企业很难入场去用。

薛彦泽: 如果程老师做一款AI产品,会选择开源还是闭源?

程戈:开源跟闭源的选择,它跟最终的产品形态是相关的,而不是简单的根据To B 还是To C来决定。

如果我面向的是行业用户,例如医疗领域,我会选择开源模型。因为在这种情况下,我积累的医疗数据是行业内的竞争优势,而其他医疗巨头把模型开源的概率非常小,因为这不符合他们的商业利益。因此,我会将开源模型与我的领域特定场景和数据结合起来。

但如果我的产品是基于一个创意idea,只是用大模型来为C端用户提供增值服务,那么我选闭源。开源模型虽然省去了预训练成本,但增加了微调、推理及维护的成本。这些额外成本只有能从行业垄断性或竞争力中收回时才合理。

5.开源模型,是全村希望还是智商税?

薛彦泽: 李彦宏近日提出“开源模型都是智商税”,包括月之暗面的杨植麟也说开源只是To B的拓客手段,怎么看?

郭炜:用刚才的比喻来说,现在的开闭源放在一起比,就是用安卓1.0对打iPhone 3GS,现在看着开源模型还比较弱,将来谁赢谁输尚未可知。

但我倒是不同意将开源模型粗暴地当做"智商税"。开源模型,尽管没有经过商业化打磨,但有可能像早期的安卓系统那样,拥有活跃的社区和多方参与,能够快速迭代和改进。

问题是,现在开源模型我觉得不是真开源。真正的开源是能够获得正反馈的,应该包括代码、数据和训练方法的全面开放,允许用户发现问题并做出贡献。现在开源模型不是这样的,缺少数据和训练方法的开放,无法获得实质性的反馈和改进。

我和阿帕奇基金会成员讨论过,了解到开源模型的标准正在制定。只有当这些标准确立后,我们才能深入讨论什么是开源模型。此外,尽管有些企业基于开源模型进行开发,但这些改动往往无法反馈到原始模型中,这限制了开源社区的健康发展。开源的核心在于改动能够被贡献回上游,从而一起打造更强大的工具。而现在的开源大模型还只是一个分发渠道。

沈旸:首先来说,李彦宏说“开源模型都是智商税”的时候,一定是有其特定背景的。当时提出这一观点时,国内还没有出现70B参数级别的开源大模型,当时开源模型的性能与闭源模型相比差距很大,几乎无法使用。因此,很多公司对开源模型进行一些简单的改造,然后提供给企业,这可能是他所批评的行为。

但以今天的情况看,这一观点已经不再成立。无论是国内70B参数的模型,还是如405B这样的模型,性能已经非常接近闭源模型,推理成本也相差无几。

至于未来谁更强大,我认为这与开源或闭源没有直接关系,而是看谁砸的钱更多。例如,如果Meta 能投入100亿美元,而百度只能投入10亿美元,那么投入更多的公司无论是开源还是闭源,其模型性能都会很强。

目前,无论是百度、阿里、Meta还是其他公司,都不是以AI或大模型作为主要营收来源。如果依赖这些作为主要营收,我觉得没有一家公司能活得下去。

程戈:李彦宏的观点有一定的道理,特别是在当时国内出现了所谓的千模大战,以及许多基于开源模型的小规模微调产品,这些产品在性能上很难超越闭源模型。

不过,周鸿祎说大模型不应该成为少数厂商的赚钱工具,我也同意这个看法。归根到底,这和他们各自的商业模式有关系。

现在,不同企业根据自身的优势进行差异化竞争。例如,百度利用其在搜索领域的数据积累,而其他公司比如字节则可能利用自己强大的内容生产生态。这些企业都在走差异化路线,借助自己在生态上的积累,让AI的价值最大化。

不过,市场上的通用大模型最终不会容下太多竞争者——就像手机操作系统一样,市场最终只会留下少数几家。这将是一个自然选择的过程,由市场决定哪些模型能够生存下来。

责任编辑:武晓燕 来源: 51CTO技术栈
相关推荐

2022-08-27 15:08:40

数字化转型IT企业

2022-09-16 10:01:58

编程

2016-02-24 09:42:56

谷歌VRcardboard

2023-04-12 07:40:58

机械鼠标行程

2020-12-11 12:35:00

人工智能科技机器

2019-05-20 15:44:11

盒装智商税CPU

2022-07-01 11:29:39

软件开发

2020-04-08 17:30:56

硬盘主板显卡

2022-07-14 10:04:15

NFT数字藏品

2021-10-25 22:46:54

手机硬件价格

2023-07-13 07:18:20

RTX 4060RTX 3060模式

2018-08-31 15:44:39

程序员技能开发者

2012-12-11 15:25:21

开源硬件

2015-12-29 10:42:10

微软开源产品

2012-10-09 09:14:47

2013-10-22 11:28:21

大数据

2020-11-05 10:00:23

手机信号

2021-07-02 22:23:50

Nacos配置模型

2009-05-04 17:08:13

开源ApacheGPL
点赞
收藏

51CTO技术栈公众号