惊天大瓜!
据外媒报道,OpenAI超级对齐团队的2名研究员,因泄露「机密」被正式开除!
而这也是今年3月Sam Altman重掌董事会席位后,OpenAI首次对外公开的人事变动。
被解雇的研究员之一Leopold Aschenbrenner,曾在新成立的超级对齐团队工作。
同时,他也是OpenAI首席科学家Ilya Sutskever的支持者,OpenAI内斗风波后,Ilya至今尚未在公开场合露面。
另一位被解雇的员工Pavel Izmailov,曾负责推理方面的研究,在安全团队亦有贡献。
Leopold Aschenbrenner(左), Pavel Izmailov(右)
值得一提的是,被解雇的这俩人,都是去年OpenAI超级对齐团队新论文的作者。
不过,目前尚不清楚,两位被解雇员工具体泄露了哪些信息。
团队关键人物开除为哪般
OpenAI的发展情况,仍然是稳中向好,势如破竹,最近一次员工股票出售中,它的估值甚至一度高达860亿美元。
而超级对齐团队(Superalignment),是OpenAI内部一个颇具话题性的部门。
AI发展到最后,如果成为超级智能,好处是或许能帮我们解决核聚变问题,甚至开拓其他星球,但反过来,这么厉害的它,开始危害人类了怎么办?
为此,在去年夏天,Ilya Sutskever成立了这个团队,来研发控制和指导超级智能的技术。
Aschenbrenner,恰恰就是超级智能对齐团队的关键人物之一。
一个争议就是:这个团队真的有存在的必要吗?
OpenAI内部,员工对此意见不一。
此前的内斗风波,跟这个理念的争议也脱不了干系。
作为OpenAI联合创始人、重大技术突破负责人,Ilya曾与其他董事会成员一起,决定解雇Sam Altman,原因是他缺乏坦诚。
而Altman宫斗归来、重返CEO之职后,Ilya离开了董事会,从此似乎销声匿迹,引来众多网友的猜疑。
又是「有效利他主义」
耐人寻味的是,事件中的众多人物,都有「有效利他主义」(Effective Altruism),有着千丝万缕的关联。
对齐团队关键人物Aschenbrenner,便是有效利他主义运动的一员。
该运动强调,我们应该优先解决AI潜在的风险,而非追求短期的利润或生产力增长。
说到这里,就不能不提大名鼎鼎的币圈大佬、如今沦为阶下囚的FTX创始人Sam Bankman-Fried了,他也是有效利他主义的忠实拥趸之一。
19岁时毕业于哥大的Aschenbrenner,曾在SBF创建的慈善基金Future Fund工作,该基金致力于资助能够「改善人类长远前景」的项目。
一年前,Aschenbrenner加入了OpenAI。
而把Altman踢出局的其他董事会成员,也都被发现和有效利他主义有干系。
比如,Tasha McCauley是Effective Ventures的董事会成员,后者即是有效利他中心的母组织。
而Helen Toner曾在专注于有效利他的Open Philanthropy项目工作。
去年11月Altman重任CEO时,二人也都来开了董事会。
这样看来,此次Aschenbrenner被开除究竟是因为泄密,还是因为其他原因,就值得探究了。
总之,Sam Altman看来是跟有效利他主义主义的这帮人杠上了——毕竟他们的理念,实在是Altman理想中AGI(甚至ASI)的最大绊脚石。
Leopold Aschenbrenner
Leopold Aschenbrenner还在大三时,便入选了Phi Beta Kappa学会,并被授予John Jay学者称号。
19岁时,更是以最优等成绩(Summa cum laude)从哥伦比亚大学顺利毕业。
期间,他不仅获得了对学术成就授以最高认可的Albert Asher Green奖,并且凭借着「Aversion to Change and the End of (Exponential) Growth」一文荣获了经济学最佳毕业论文Romine奖。
此外,他还曾担任政治学的Robert Y. Shapiro教授和经济学的Joseph E. Stiglitz教授的研究助理。
Leopold Aschenbrenner来自德国,现居风景优美的加利福尼亚旧金山,志向是为后代保障自由的福祉。
他的兴趣相当广泛,从第一修正案法律到德国历史,再到拓扑学,以及人工智能。目前的研究专注于实现从弱到强的AI泛化。
Pavel Izmailov
Pavel Izmailov在莫斯科国立大学获得数学与计算机科学学士学位,在康奈尔大学获得运筹学硕士学位,并在纽约大学获得计算机科学博士学位。
他的研究兴趣广泛,包括机器学习核心领域内的多个主题,不过主要还是致力于深入理解深度神经网络是如何运作的。
- 提升AI的推理和问题解决能力
- 深度学习模型的可解释性,涵盖大语言模型和计算机视觉模型
- 利用AI进行科学发现
- 大规模模型的分布外泛化和鲁棒性
- 技术AI对齐
- 概率深度学习、不确定性估计和贝叶斯方法
此外,他所在团队关于贝叶斯模型选择方面的工作,更是在2022年的ICML上获得了杰出论文奖。
加入OpenAI之前,他曾在亚马逊、谷歌等大厂实习
从2025年秋季开始,Izmailov将加入纽约大学,同时担任Tandon CSE系助理教授和Courant CS系客座教授,并加入NYU CILVR小组。
用GPT-2监督GPT-4
在这项研究中,OpenAI团队提出了一个创新性模型对齐方式——用小模型监督大模型。
Leopold Aschenbrenner对此解释道,直觉告诉我们,超人类人工智能系统应该能「感知」自己是否在安全地操作。
但是,人类能否仅通过「弱监督」就从强大的模型中提取出这些概念呢?
在未来,AI系统可以处理极其复杂的任务,比如生成一百万行代码。
但是人类需要为其行为设置一些限制,不如「不要撒谎」或「不要逃离服务器」。
而目前,大模型这个黑盒,人类根本无法理解它们的行为,那我们如何实现这些限制?
通常情况下,我们会用人类的标注来训练AI系统。
但是,相比于那些比我们聪明得多的AI系统,人类只能算是「弱监督」。
也就是说,在复杂的问题上,人类提供的只是不完整或有缺陷的标注。
好在,强大的模型已经能够明显地,表示出像「这个行动是否危险」这样的概念。
如此一来,人类就可以要求它说出自己知道的内容,包括那些我们无法直接监督的复杂情况。
为此,团队设计了一个巧妙的实验——当我们用一个小模型来监督大模型时,会发生什么?
强大的模型是否会模仿比它弱的监督者,甚至包括它的错误呢?还是说,它能够泛化到更深层次的任务或概念?
结果,他们惊喜地发现,果然可以利用深度学习的出色泛化能力来获得帮助。
像GPT-2这种数到十都不会的弱鸡模型,都可以来监督能参加高考的GPT-4,让它恢复到接近完美标注的80%性能。
不过,目前这种方法只在某些情况下有效,所以如果我们只是简单地应用当前对齐技术(比如RLHF)的话,在超人类模型的扩展上可能遇到困难。
但作者认为,超越弱监督者的泛化是一个普遍现象,而人类可以通过简单的方法大幅提高泛化能力。
针对这项研究,未来探索的方向可能包括:
- 寻找更好的方法;
- 加深科学理解:我们何时以及为什么能看到良好的泛化?
- 采用类似的设置:实验设置与未来超级对齐问题之间还存在重要的不同——我们能解决这些问题吗?
这项研究让作者最兴奋一点是,他们可以在对齐未来超人类模型的核心挑战上,取得迭代的实证进展。
很多以前的对齐工作要么陷入理论,要么虽然是实证的,但并未直接面对核心挑战。
比如,在对齐领域有一个长期的观点是「引导」。(不是直接对齐一个非常聪明的模型,而是首先对齐一个稍微聪明的模型,然后用它来对齐一个中等聪明的模型,依此类推)
现在,虽然还远远不够,但OpenAI研究人员已经可以直接进行测试了。