Sam Altman放豪言:OpenAI训GPT-5不差钱,人类已接近AGI阈值

人工智能
前段时间,OpenAI CEO Sam Altman和CTO Mira Murati在WSJ的专访里,探讨了AGI、未来GPT的发展、以及AI对人类的影响。

「OpenAI的最终目标为什么是AGI?什么是AGI?」

「ChatGPT以及其他语言模型的用途是什么?」

「人类与人工智能的关系在未来会发生什么变化?」

在2023年《华尔街日报》(WSJ)的科技新闻发布会上,OpenAI的首席执行官Sam Altman和首席技术官Mira Murati讨论了人工通用智能(AGI)、未来GPT模型的发展,以及人工智能对人类的影响。

而九年前,Sam Altman在《华尔街日报》会议上表示人工智能导致人类失业,是个不需要太担心的很久以后才会发生的事。

不到十年时间,Altman和他共同创立的公司OpenAI发布了名为ChatGPT的人工智能聊天机器人。

它能够撰写电子邮件、商业计划、甚至是代码,而这在九年前是难以想象的。

在讨论当下人工智能对人类社会带来的冲击和影响时,Altman仍然乐观,但比九年前更加慎重。

图片图片

OpenAI的终极目标:AGI

AGI,这个概念从诞生起,就被人们赋予了无限美好的想象。

Altman同样如此,他认为AGI会是人类有史以来最杰出的造物。

图片图片

有了这个伟大的工具,人类就能够解决现今世界上的各种问题,并为人类自己、彼此和世界创造出难以想象的新鲜事物。

那时候,人类会有更具创意的自我表现手段。但Altman肯定,这些变化将为人类带来巨大的好处。

「再过九年,华尔街日报邀请我时,你们可能会提问:那时候我们为什么会认为人类不想要AGI到来呢?」

那么AGI将会在什么时候出现?人们又要如何分辨AGI的到来?

Altman将AGI定义为我们还没有的东西。十年前,人们可能会觉得像GPT-4或GPT-5就是AGI。

但现在,GPT-4只是被人们看作为一个还不错的「小聊天机器人」。

人们对AGI的基准门槛要求变得越来越高,这要求人们对人工智能付出的努力也越来越多。

Altman表示,「人类现在已经足够接近AGI的阈值,提升AI的能力变得不那么重要。我们当前面临的问题是如何定义AGI。」

GPT-5:解决「幻觉」与数据版权问题

OpenAI自成立后已发布了多个版本的GPT,每个版本都比上一个更强大。

今年3月,OpenAI发布了最新的模型——GPT-4。但关于OpenAI的下一个模型,人们依旧充满了期待:GPT-5是否正在研发?

面对这个问题,OpenAI的CTO Mira Murati的回答是,「我们还没到这一步」。

但她也表示,OpenAI一直致力于下一件事,如减少模型幻觉:未来发布的GPT-5将致力于解决现在困扰模型的幻觉问题。

Mira表示,虽然GPT-4已经在幻觉问题上取得了很大的进展,但离完全解决幻觉问题还有一段距离。

但OpenAI一直沿着解决问题的正确的轨道:人类反馈强化学习(RLHF),让模型输出真正可靠的内容。

并且,OpenAI还通过整合多种技术来减少模型幻觉问题,如为模型增加检查和搜索的能力,为模型提供更多的事实数据,以保证用户能够从模型中获得更多的事实输出。

但对OpenAI来说,版权一直是个争议。

不仅是用来训练模型的数据、模型生成的内容也常常涉及到版权保护问题。

多个出版商、以及作家都对OpenAI的侵权行为多有抗议。

而Altman从另一个角度讨论了数据使用以及数据所有权问题。

在未来,OpenAI的新模型将成为每个人都能使用的基础设施,这意味着思考数据所有权和经济流动的方式都会发生改变。

现在,OpenAI正在努力与不同的数据版权所有者建立合作关系,但随着模型的智能和能力变得越来越强,未来训练模型所需的数据也会变得越来越少。

但当前的模型,在训练时仍然需要尽可能多的人类所生产的每个数据。不过,Altman表示这不会是模型未来长期发展的路径,因为未来真正重要的是有价值的数据。

随着OpenAI在技术上的进步,关于数据和所有权的讨论将会发生转变。

人类与AI的未来

首先是人类与AI的关系问题。

9月25日,OpenAI为GPT-4加入了更多的个性化功能。现在,ChatGPT可以看、听和说话。

新增的GPT-4的语音功能相当人性化,与人的交流十分自然。

可以预见的是,无处不在的AI即将成为人类生活的现实。

未来,我们无法避免与人工智能的交互,而这带来了一个问题:人类应该如何对待自己与人工智能的关系。

而训练模型的OpenAI以及其他公司,在某种程度上能够控制与人们缔结起关系的人工智能。

这将是一个令人不安的未来,这些人工智能很可能会成为人类的朋友、甚至是伴侣。

但Altman明确表示,自己不希望人们与人工智能建立起超出人类朋友的亲密关系:人工智能与人类不同,也许这些系统充满了个性,但这与人性无关。

因此,与人工智能交流时,要和人类交流有所区别。

「我们之所以将模型命名为ChatGPT而不是一个人的名字,是为了让用户明确和自己交流的是一个人工智能,而不是真正的人类。」Altman强调了这点。

但就像人们拥有有很多不同的关系那样,人也会与人工智能建立起特别的关系。但最终,人们会意识到人工智能与人类是不同的,但我们与其建立起的关系不会因此而破裂。

另一方面,AI的迅速发展也让人们担心其带来的不可控风险:利用这些系统进行犯罪以及对就业市场的冲击。

如命令AI入侵计算机系统或设计生化武器等。

图片图片

这并非是遥不可及的未来,从生成式AI潮爆发后,利用AI进行诈骗和网络的行为已屡见不鲜。

但Altman认为,在技术发展的过程中,这些负面的影响是不可避免的。

我们要去解决的是技术带来的风险,而不是放弃发展。后者对人类来说,仍然是一种道德上的失败。

而在人类历史上,几乎每一次技术革命都会深刻地影响就业市场,或是发生彻底的颠覆或是一半的工作岗位都会消失。

但事实上,旧的工作消失后,新的工作就会诞生。这正彰显了人类的进步,问题在于我们的社会适应变化的速度。

在两代人、最多三代人的时间内,人类就可以适应几乎任何程度的就业市场变化。

也许会有人不愿意、不喜欢改变自己的工作,但工作的性质是会变化的。

对一个狩猎采集的原始部落里的人来说,在电脑前敲敲字也不可能是真正的工作。

「工作仅仅是人类试图用一些愚蠢的地位游戏来娱乐自己。」Altman说道。

真正的挑战是应对就业市场革新的过渡。

社会需要采取行动来确保人们在这个过渡中不会受到伤害,仅仅提供普遍基本收入是不够的,人们需要拥有主动权和影响力,参与对未来的建设。

这也是OpenAI为什么如此坚决地推广ChatGPT的原因。

虽然不是每个人都能够使用人工智能技术,但随着越来越多人的参与,人们将有机会思考并划定未来发展的方向。

这是我们最应重视的事。

参考资料:

https://www.youtube.com/watch?v=byYlC2cagLw

责任编辑:武晓燕 来源: 新智元
相关推荐

2023-03-17 07:33:24

GPT-5GPT-4OpenAI

2024-01-18 12:30:03

2023-06-02 12:10:43

OpenAI版本GPT

2023-04-13 13:38:59

2023-08-02 00:19:46

2023-09-07 13:06:18

人工智能模型

2023-06-08 07:58:29

2023-06-08 11:41:40

芯片AI

2024-04-09 09:38:16

OpenAI模型

2023-08-02 13:52:59

GPT-5模型

2023-11-19 21:29:19

ChatGPTOpenAI

2024-03-05 07:41:34

2023-08-11 10:44:20

GPT-5

2023-11-14 14:26:29

OpenAIGPT-5

2023-08-10 15:22:48

人工智能OpenAI

2009-10-28 22:13:22

2023-11-16 15:57:00

数据训练

2024-01-22 13:57:00

模型训练

2023-11-23 13:45:00

模型训练

2023-08-08 12:51:55

AI技术
点赞
收藏

51CTO技术栈公众号