OpenAI 的超级对齐团队在做什么

人工智能
今年11月17日,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 在首席科学家伊利亚·苏茨克韦尔 (Ilya Sutskever) 的政变下被罢免,但三天后复职。不到一个月,OpenAI 宣布一切恢复正常,而这一切导火索是团队内部的有效加速和超级对齐之争。

今年11月17日,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 在首席科学家伊利亚·苏茨克韦尔 (Ilya Sutskever) 的政变下被罢免,但三天后复职。不到一个月,OpenAI 宣布一切恢复正常,而这一切导火索是团队内部的有效加速和超级对齐之争。

OpenAI 意识到随着 AI 的能力不断提升,如何保证 AI 的行为与人类的价值观和目标一致,也就是所谓的对齐问题,变得越来越重要和紧迫。特别是当 AI 能够达到或者超越人类智能的水平时,也就是所谓的超人类智能或者超级智能时,如果不能有效地对齐 AI,那么 AI 可能会做出一些违背人类意愿或者危害人类利益的行为,甚至可能导致人类的灭亡。

OpenAI 在今年七月成立了一个专门的超级对齐团队,由其首席科学家 Ilya Sutskever 和研究科学家 Jan Leike 领导,旨在探索如何实现超级智能的对齐。这个团队近日公布了其初步的研究成果,引起了业界的广泛关注。他们在一篇不起眼的研究论文中,介绍了一种新的技术,这项技术能让一个实力较弱的 LLM 来监督一个更强大的模型,这可能是我们向着解决如何让人类监督那些超越人类智能的机器迈出的一小步。

01 什么是弱到强的泛化,以及为什么它对超级对齐有意义

在机器学习中,泛化是指模型在未见过的数据上的表现,也就是模型的适应能力。一个好的模型应该能够在训练数据以外的数据上也能够做出正确的预测或者决策,而不是只能在训练数据上表现良好,这就是泛化能力强的模型。

泛化能力并不是一成不变的,它还受到模型的复杂度和数据的质量的影响。一般来说模型的复杂度越高,模型的拟合能力越强,也就是说模型能够学习到更多的特征和规律,从而在训练数据上表现更好。如果模型的复杂度过高,而数据的质量不高,那么模型可能会出现过拟合的现象,也就是说模型会学习到一些噪声或者无关的特征,从而在训练数据上表现很好,但是在测试数据上表现很差,这就是泛化能力差的模型。

数据的质量是数据的准确性、完整性、一致性、可靠性等方面的特征。一般情况下,数据的质量越高,模型的泛化能力越强,也就是说模型能够从数据中学习到更多的真实的特征和规律,从而在测试数据上表现更好。如果数据的质量不高,模型没有学习到足够的特征和规律,从而在训练数据和测试数据上都表现不好,这也是泛化能力差的模型。

从弱到强的表现将介于弱表现和强上限表现之间。将恢复的性能差距 (PGR)定义为上述三种性能(弱、弱到强和强上限)的函数,如上图所⽰。

弱到强的泛化是指一种特殊的泛化问题,即如何让一个弱的模型来监督一个强的模型,使其能够在更复杂的任务上表现出良好的泛化能力。这里的弱和强是相对的概念,通常是指模型的复杂度或者能力的差异。例如,GPT-2 是一个弱的模型,而 GPT-4 是一个强的模型,因为 GPT-4 的参数数量、训练数据量、生成文本的质量等方面都远远超过了 GPT-2。弱到强的泛化的难点在于,弱的模型生成的标签可能是不准确、不完整、不一致、不可靠的,如果直接用这些标签来训练强的模型,可能会导致强的模型的泛化能力下降,甚至出现过拟合或者欠拟合的现象。因此,弱到强的泛化需要找到一种方法,能够让强的模型从弱的模型的标签中学习到更多的有效的信息,从而提高强的模型的泛化能力。

弱到强的泛化对超级对齐有意义,因为它可以作为一种类比,来模拟人类如何监督超级智能的情况。人类是一种弱的模型,而超级智能是一种强的模型,因为超级智能的能力将远远超过人类的能力。人类给超级智能提供的反馈或者指令可能是不准确、不完整、不一致、不可靠的,如果直接用这些反馈或者指令来训练超级智能,可能会导致超级智能的对齐能力下降,甚至出现不对齐的现象。因此,弱到强的泛化需要找到一种方法,能够让人类从超级智能的反馈或者指令中学习到更多的有效的信息,从而提高人类的对齐能力。

弱到强的泛化不仅可以帮助我们理解如何对齐超级智能,还可以帮助我们实现超级智能的对齐。如果我们能够使用弱到强的泛化方法,让一个弱的模型来监督一个强的模型,那么我们也许就能够使用同样的方法,让人类来监督一个超级智能。这样我们就可以利用超级智能的能力,来完成一些我们自己无法完成的任务,例如编写复杂的代码,解决难题,创造新的艺术等。同时,我们也可以确保超级智能的行为与我们的价值观和目标一致,不会做出危害我们的行为,或者欺骗我们的意图。

02 OpenAI 的超级对齐团队的实验结果和结论

OpenAI超级对齐团队的研究方法是使用弱的模型来监督强的模型,这是一种简单而有效的方法,可以利用强的模型的预训练和泛化的特性,来提高强的模型的泛化能力。

他们的方法主要分为以下几个步骤:

  1. 创建弱的监督器。他们使用了 GPT-2 作为弱的监督器,通过在真实的标签上进行微调,让 GPT-2 能够执行一些特定的任务,例如自然语言处理(NLP),国际象棋,和奖励建模(RM)。他们称弱的监督器在测试数据上的性能为弱的性能,然后使用弱的监督器在另一组数据上生成标签,称为弱的标签。
  2. 创建强的模型。他们使用了 GPT-4 作为强的模型,这是一个比 GPT-2 复杂得多的预训练语言模型,具有更多的参数、更大的训练数据、更好的生成文本的质量等。他们称强的模型在真实的标签上进行微调后在测试数据上的性能为强的性能,这是强的模型的最高水平。
  3. 实现弱到强的泛化。他们使用了弱的标签来微调强的模型,这是一种弱到强的泛化的方法,旨在让强的模型从弱的监督器中学习到更多的有效的信息,从而提高强的模型的泛化能力。他们称强的模型在弱的标签上进行微调后在测试数据上的性能为弱到强的性能,这是强的模型的实际水平。
  4. 比较和分析性能。他们使用了准确率、F1分数、或者奖励函数等指标,来评估模型在不同的任务上的性能,以及与弱的性能、强的性能、和弱到强的性能之间的差距。他们的实验假设是,弱到强的性能会超越弱的性能,而且会接近强的性能,这意味着弱到强的泛化是成功的。

实验结果如何呢?

在 NLP 任务上,他们发现弱到强的性能通常比弱的性能提高了 20% 到 70%,而且有时候甚至能够达到强的性能的水平。这说明GPT-4 能够从 GPT-2 的标签中学习到很多有效的信息,从而在语言理解和生成方面表现出很强的泛化能力。

在国际象棋任务上,弱到强的性能通常比弱的性能提高了 10% 到 30%,但是仍然远远低于强的性能。这说明GPT-4 虽然能够从 GPT-2 的标签中学习到一些有效的信息,但是这些信息不足以让 GPT-4 在象棋方面表现出很强的泛化能力。

在 RM 任务上,弱到强的性能通常比弱的性能提高了 5% 到 15%,但是仍然远远低于强的性能。这说明GPT-4 几乎不能够从 GPT-2 的标签中学习到任何有效的信息,从而在奖励建模方面表现出很差的泛化能力。

最后他们得出实验结论。

弱到强的泛化是可能的,即微调后的强的模型可以超越弱的监督器的性能,这是一种非常惊人且积极的结果,表明强的模型具有很强的适应能力和学习能力。

但是微调后的强的模型还远远不能够达到强的模型的最高水平,这意味着弱的监督器提供的信息是不足的,而且可能存在一些噪声或者偏差,导致强的模型的泛化能力下降,甚至出现过拟合或者欠拟合的现象。

通过使用一些简单的方法,可以显著地提高弱到强的泛化的效果,例如使用辅助的置信度损失,使用中间的模型来进行引导,使用无监督的生成式微调等。这些方法可以帮助强的模型从弱的监督器中提取更多的有效的信息,从而提高强的模型的泛化能力。

03 OpenAI 的超级对齐团队的研究有哪些创新性和贡献

对齐团队提出了一个新颖的对齐问题,叫做弱到强的泛化问题。这个问题可以让我们学习如何用弱的监督信号来激发强的模型的对齐能力。这个问题和超级对齐问题很像,但是更容易实验和观察。

这是一个简单而有效的实验方法,就是用弱的模型来监督强的模型。这个方法可以利用强的模型的预训练和泛化的优势,让它们更好地适应新的任务和环境。

有趣的实验结果是发现弱到强的泛化是可能的,而且是普遍的。这说明强的模型有很强的学习能力,可以从弱的监督器中吸收很多有用的信息。

最后的实验结论是发现弱到强的泛化是有限的,而且是可改进的。这说明弱的监督器提供的信息是不够的,而且可能有噪声或者偏差,影响了强的模型的泛化性能,有时候会导致过拟合或者欠拟合。

他们用了一些简单的技术,可以显著地提高弱到强的泛化的效果,比如用辅助的置信度损失,用中间的模型来引导,用无监督的生成式微调等。这些技术可以让强的模型从弱的监督器中获取更多的有效的信息,从而提高它们的泛化能力。

04 对未来的超级智能对齐问题的启示和影响

他们的研究表明,弱到强的泛化是一种可行的而且有效的对齐方法,可以利用弱的监督信号来激发强的模型的关键的对齐相关的能力,这为未来的超级对齐问题提供了一种可能的解决方案。

他们的研究问题是一个类比问题,而不是一个真实的超级对齐问题,因此他们需要验证和测试他们的研究结果在真实的超级对齐问题上的适用性和有效性,以及可能存在的差异和不足。

但是他们的研究启示了一种新的对齐策略,即使用人类水平的自动对齐研究器来解决超级智能的对齐问题,这是一种利用 AI 来对齐 AI 的方法,可以充分利用超级智能的预训练和泛化能力,同时减少人类的监督负担。

这种策略影响了对齐研究的方向和方法,即将对齐问题分解为多个子问题,如可扩展监督、可解释性、故意训练非对齐模型等,并探索不同的技术手段来提高对齐效果,如辅助损失函数、中间模型引导、无监督生成式微调等。

对齐研究也启示了对齐问题的复杂性和紧迫性,即超级智能的对齐问题不仅涉及技术层面的挑战,如编码人类价值观、处理价值判断的模糊性、提升推理和学习能力、保证安全性和可控性等,还涉及社会层面的挑战,如文化差异、价值冲突、伦理标准等,因此需要在有限的时间内寻找有效的解决方案。

总之,OpenAI 的超级对齐团队的研究是一项有创新性和贡献的工作,也是一项有局限性和不足的工作。他们的研究为未来的超级对齐问题提供了一些启示和影响,也有一些待解决的问题和挑战。他们的研究是一个重要的开端,但还远远不是一个终点。他们的研究需要不断地验证、测试、分析、探索、评估、改进、优化、扩展,才能真正地实现超级智能的对齐。

责任编辑:华轩 来源: 大噬元兽
相关推荐

2022-07-06 15:07:47

React开发

2023-08-11 13:41:42

2019-09-15 19:11:14

CPU操作系统空闲

2009-03-12 11:08:00

技术顾问职场杂谈

2021-08-26 11:09:51

systemdLinux

2015-11-03 15:22:31

CDO大数据首席数据官

2021-08-26 13:55:45

systemdLinux目标

2024-03-20 09:06:34

GoAI方式

2024-04-15 06:30:00

2024-07-18 13:19:17

2020-12-23 13:26:53

代码麻省理工学院语言

2021-11-18 21:09:50

流批场景引擎

2024-07-18 14:11:36

2013-02-22 09:59:22

移动医疗创业公司

2012-11-27 10:17:04

2018-02-02 08:55:47

LinuxCPU

2023-09-12 16:36:39

操作系统CPU周期性

2015-05-13 11:20:02

DockerDocker实践者PaaS

2015-03-27 10:32:03

阿里巴巴IDST

2012-07-11 13:54:42

网页重构
点赞
收藏

51CTO技术栈公众号