高达3.6万亿token!PaLM 2训练数据翻5倍,全新Bard对比ChatGPT有8个优势

人工智能 新闻
PaLM2模型训练数据是上一代的5倍,达到3.6万亿。基于PaLM2的Bard对比ChatGPT有8项优势。

决定大模型能力的关键因素,到底是模型的参数,还是训练文本的大小?

谷歌发布的PalM2,似乎选择了后者作为提升的主要路径。

据悉,谷歌用于训练的PaLM2的文本数量几乎是训练其前身模型的5倍。

图片

而且上周宣布PaLM 2时,谷歌明确表示,该模型比早期的PaLM更小。

谷歌内部文件显示,PaLM经过了5400亿的参数训练,而新推出的PaLM2,训练参数接近腰斩,只有3400亿个。

图片

技术文档中训练数据的描述

但是在另一个模型训练的关键数据——训练语料大小上,谷歌开始疯狂堆料,把PaLM的7800亿的训练token量直接推到了3.6万亿!

而且除了Token数量的激增,PaLM2在数据质量上也有很大的提升。

图片

训练数据中各个语言的比例

所以相比PaLM,第二代在英语语料数据量没有显著增长的情况下,英语性能明显提高,部分原因是因为英语数据的质量提升了。

大模型路线选择

OpenAI没有公开GPT-4的训练参数数量,但是谷歌没有藏着掖着,主动公开了PaLM2训练参数。

而且在谷歌I/O大会上,还同时发布了4个参数更少的模型。

其中最小的一款模型 Gecko(壁虎),甚至可以在智能手机上运行。

图片

这一举动侧面反应了谷歌未来的野心,希望在更多的平台上部署自己的大模型。

在这个大背景之下,从长远的角度来看,谷歌几乎不可能选择堆训练参数量来提升模型性能,增加训练语料的数量和质量几乎成了必然的选择。

PaLM 2:史上最强大模型?

在I/O大会上宣布PaLM 2时,谷歌证实:该模型经过100种语言的训练,可以执行广泛的任务。它已经被用来为25个功能和产品提供支持,包括谷歌的实验性聊天机器人Bard。

PaLM 2有四种尺寸,从小到大依次是:Gecko(壁虎)、Otter(水獭)、Bison(野牛)和Unicorn(独角兽)。

基于现在公开披露的数据,PaLM 2比现有的任何模型都更强大。

Meta的LLaMA在今年二月推出,它在1.4万亿个token上进行了训练。

图片

而上一次OpenAI分享训练规模,还是在推出GPT-3时,当时OpenAI说,它接受了3000亿个token的训练。

另外,谷歌两年前曾提出LaMDA模型,当时它接受了1.5万亿个token的训练。

AI军备竞赛升温,公众要求更高透明度

对于大模型训练数据的细节,大厂们都很默契地选择了「Close」。

发布GPT-4时,OpenAI没有公布架构(包括模型大小)、硬件、训练计算、数据集构建、训练方法等细节,理由是「像GPT-4这样的大规模模型的竞争格局和安全影响」。

被OpenAI逼到墙角的谷歌,也一直渴望展示自己AI技术的力量,包括如何将其嵌入到搜索、电子邮件、文字处理和电子表格中,但是此前,谷歌一直不愿意公布训练数据的大小或其他细节。

保密的原因,当然就是业务的竞争性质。

无论是谷歌还是OpenAI,都在争抢着希望使用聊天机器人而不是传统搜索引擎的用户。

但随着AI军备竞赛的升温,研究社区正在要求更高的透明度。

而现在,随着AI应用迅速成为主流,围绕底层技术的争议也愈发激烈。

随着新的人工智能应用迅速成为主流,围绕底层技术的争议也越来越激烈。

今年2月,谷歌研究高级科学家El Mahdi因公司缺乏透明度,选择辞职。

周二,OpenAI首席执行官Sam Altman在参议院司法小组委员会关于隐私和技术的听证会上作证,同意立法者的观点——需要监管AI的新系统。

「对于一项非常新的技术,我们需要一个新的框架,」Altman说。「当然,像我们这样的公司,对于在全球推出的工具负有很大责任。」

Bard可以干但ChatGPT干不了的事

1. 访问网络

相对于ChatGPT,Bard的一个显著优势就是——可以访问互联网。

问问今天(5月17日)的体坛大事,Bard快速总结出来了。

图片

而ChatGPT无法直接访问互联网,只能通过其付费版本Plus上的插件访问网络。

2. 图像生成

图片

在生成图像上,Bard也超越了ChatGPT的付费和非付费版本。

谷歌宣布将通过集成Adobe Firefly,提供AI图像生成功能。这个功能增强了对话的视觉效果,让用户获得了上下文更丰富的信息。

3. 语音输入

图片

在语音输入方面,Bard也优于ChatGPT,用户只要通过语音,就可以和模型交互了。

这样在多任务处理和打字不方便时,用户就多了一种快速获取响应的边界方式。

小编把今日体坛新闻的问题读了一遍,Bard就自动显示了。唯一要注意的是,英文发音要足够标准。🤣

图片

4. 编码能力

图片

在编码能力上,Bard也超越了ChatGPT,它能够协助20多种编程语言,包括 C++、Python、Java、TypeScript、JavaScript等。它可以辅助开发者进行代码生成、解释和调试。

相比之下,虽然ChatGPT也具有编码功能,但它在处理额外任务时存在不足,相比之下OpenAI的Codex可能更适合执行这些任务。

让Bard用python生成一个斐波那契数列,并打出前10个数字。

Bard成功完成了。

图片

5. 高度整合Gmail

图片

与Gmail集成,是Bard是另一个重要优势。

Gmail拥有超过20亿用户,是全球最大的电子邮件服务商。如果在邮件中能用Bard,无疑为电子邮件交互开辟了新的可能性。

但是,微软也正把ChatGPT添加到Microsoft 365 中,并将嵌入到 Word、Excel、PowerPoint以及Gmail的竞争者中。

6. 分享输出内容

另外,Bard还可以将结果立即导出到Gmail和Docs。

用户可以将生成的内容直接导出到这些平台,轻松与他人分享。这个功能大大简化了共享信息的过程,使撰写电子邮件变得非常轻松。

另一方面,OpenAI在设置中有一个类似的导出选项。用户可以导出帐户详细信息和对话,以可下载文件的形式发送到电子邮箱中。

7. 支持图像提示

图片

Bar还有一大功能是,能够使用图像作为提示。

用户只需点击图片或使用Google Lens扫描图像,就可以向Bard寻求帮助了。

比如,用户可以查找与某张图片类似的度假胜地,还可以询问其这个地点的历史意义。

同样,GPT-4 也是一个多模态大模型,可以接受图像和文本输入,不过截至本文发布之日,在付费版本中也没有引入这个功能。

8. 网页摘要

因为Bard可以联网,因而它可以通过简单地共享链接来总结某个网页。

相比之下,ChatGPT不能联网,用户只能手动复制和粘贴想要总结的内容。

不过,Bard也有其局限性,特别是在毒性方面。

在测试过程中,当给出明确的有毒提示时,Bard在超过30%的时间内,会产生有毒反应。

此外,在英语、德语和葡萄牙语等语言中,PaLM 2总体上会表现出更明显的毒性行为。

总的来说,由于不同的架构和测试方法,直接比较这PaLM2和GPT-4有一定的挑战性。

在推理任务中,PaLM 2的表现与GPT-4类似,甚至更好。

不过,在编码任务中,PaLM 2需要多次尝试,以及额外的编码token,才能获得良好的性能。

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-05-19 10:26:01

谷歌模型

2023-05-17 13:45:31

谷歌PaLM 2

2023-06-03 13:28:35

ChatGPTAItoken

2023-06-12 08:00:00

聊天机器人ChatGPT人工智能

2023-05-26 07:47:41

ChatGPT模型AI

2023-05-24 07:47:23

ChatGPT参数模型

2023-03-31 08:11:04

2024-04-09 13:21:00

AI开源

2017-02-28 15:35:09

OPPO

2023-03-31 13:57:36

谷歌AI

2013-07-01 18:43:35

个推公共平台云推送优势

2023-11-09 12:41:40

AI数据

2023-05-11 07:06:07

谷歌人工智能

2023-03-29 19:35:43

ChatGPT标注数据

2023-05-15 12:11:24

2023-06-08 10:02:50

ChatGPTBardGoogle

2009-09-04 12:12:09

思科认证互联网专家思科认证

2023-12-08 13:11:58

2024-07-29 08:52:00

模型数据

2023-07-26 00:34:45

JavaOracle模式
点赞
收藏

51CTO技术栈公众号