Yann LeCun最新访谈:能量模型是通向自主人工智能系统的起点

人工智能 新闻
据ZDNet报道,近年来随着对能量模型的思考不断深入,LeCun围绕该概念做了几次演讲,包括2019年在普林斯顿高等研究院的一次演讲。

本文转自雷锋网,如需转载请至雷锋网官网申请授权。

继自监督学习之后,Yann LeCun 在接受 ZDNet 的最新访谈中又着重探讨了他在几年前曾大篇幅推崇的概念:「能量模型」(energy-based models)。

什么是能量模型?

Yoshua Bengio、 Ian Goodfellow 和 Aaron Courville 等人在2019年出版的《深度学习》(又称「花书」)一书中将「概率函数」定义为「描述了一个或一组随机变量呈现其每种可能状态的可能性大小」,而能量模型则简化了两个变量之间的一致性。能量模型借用统计物理学的概念,假设两个变量之间的能量在它们不相容的情况下上升,在一致的情况下则下降。这可以消除将概率分布“标准化”过程中出现的复杂性。

在机器学习领域,能量模型是一个「老」概念,至少可以追溯到20世纪80年代。但近年来,越来越多成果使能量模型变得更可行。据ZDNet报道,近年来随着对能量模型的思考不断深入,LeCun围绕该概念做了几次演讲,包括2019年在普林斯顿高等研究院的一次演讲。

最近,LeCun在两篇论文中描述了能量模型的研究现状:一篇是 LeCun 与Facebook AI 实验室(FAIR)的同事于去年夏天共同发表的“Barlow Twins”;另一篇则是他与 FAIR、Inria 合作发表于今年1月的“VICReg”。

正如LeCun在采访中所说,他目前的研究与量子电动力学有一些有趣的相似之处,尽管这不是他的重点。他关注的重点是人工智能系统的预测可以进步到何种程度。

LeCun自己开发了一种叫做“联合嵌入模型(joint embedding model)”的现代能量模型,他相信这能为深度学习系统带来“巨大的优势”,这个优势就是“抽象表示空间中的预测”。

LeCun认为,这种模型为“预测世界的抽象表征”开辟了道路。抽象预测能力是深度学习系统广义上的发展前景,当系统处于推断模式时,这种抽象预测机器的“堆栈”可以分层生成规划场景。

这种模型可能是实现LeCun心目中的统一“世界模型”的重要工具,而这种统一的“世界模型”将推进实现他心目中的自主人工智能,自主人工智能能够通过对场景之间的相关性和图像、语音和其他形式输入数据的相关性建模来进行规划。以下是ZDNet与LeCun通过Zoom的对话记录,内容有所编辑:

自监督学习 vs. 无监督学习

ZDNet:首先,为了帮助我们学习,请谈谈您经常说的机器学习中的「自监督学习」和「无监督学习」。无监督学习和自监督学习的关系是什么?

Yann LeCun: 嗯,我认为自监督学习是一种特殊的无监督学习方式。无监督学习这个术语有点复杂,在机器学习的背景下不是很好定义。当提到无监督学习时,人们会想到聚类算法和PCA(主成分分析),以及各种可视化方法。而自监督学习基本上是去尝试使用对于非监督学习来说相当于监督学习的方法:也就是使用了监督学习方法,但训练的神经网络没有人为提供的标签。

比如说我们可以取一段视频,给机器看一段视频片段,然后让它预测接下来会发生什么。或者也可以给机器看两段视频,然后问它这个视频是另一个视频的后续吗?我们要做的不是让机器预测后续,而是让它告诉你这两个场景是否相容。或者向机器展示同一个物体的两个不同的视图,然后问它,这两个东西是同一个物体吗?在你给系统的所有数据基本上都是输入数据的情况下,自监督学习本质上没有真人的监督。

ZDNet:近年来您做了几次演讲,包括2019年在新泽西州普林斯顿高等研究院(IAS)的演讲,以及最近2月份百度主办的关于深度学习基于能量的方法的演讲。这些基于能量的模型属于非监督学习的自监督部分吗?

YL:是的。基于能量的模型中一切都能被假设。比如我给你X和Y;X是观察,模型应该捕获Y关于X的相关性。例如,X是一个视频的片段,Y是同一视频的另一个片段,向系统展示X和Y,系统就应该告诉我Y是不是X的后续。或者说给系统展示两张图片,系统就应该告诉我两张图是彼此相关还是两张完全不同的图片。能量衡量的是相容性或不相容性,对吧?如果X和Y是相容的,能量就是零,如果能量比较大,那X和Y就是不相容的。

我们有两种方法来训练基于能量的模型。第一种方式是向模型展示一对相容的X和Y,第二种是向模型展示一对不相容的X和Y,比如连不上的两个视频片段,两个根本不相同的物体的图片。对于这些不相容的XY对,我们需要设置高能量,而对于相容的XY对则降低能量值。

这是对比的方法。至少在某些情况下,我发明这种对比方法是为了一种叫做“孪生网络(siamese nets)”的自监督学习方法。我以前很喜欢这种方法,但现在我改变主意了。我认为这种方法注定要失败。我不认为对比方法无用,但肯定是有不足之处的,因为这种方法不能很好地适应这些东西的维度。正如那句名言:幸福的家庭都是相似的;不幸的家庭各有各的不幸。

两个图像相同或相容的情况比较少,可是两幅图像却可以有很多不同的地方,而且空间是高维的。所以,基本上我们需要指数级量的对比能量样本来推动这些对比方法的工作。对比方法仍然很受欢迎,但在我看来这种方式的能力真的很有限。所以我更喜欢非对比法或者所谓的正则法。

而这些方法都是基于这样一种想法,即构造能量函数时,你赋予其低能量值的空间体积是有限的。这可以用损失函数或能量函数中的一个术语来解释,这个术语指的是最小化空间的体积,空间体积就可以某种方式使能量降低。我们有很多这样的例子,其中一个例子就是积分稀疏编码,这个概念可以追溯到20世纪90年代。近来我真正感到有兴趣的是那些应用于自监督学习的非对比方法。

能量模型是未来的方向吗?

ZDNet:你在演讲里讨论过"正则化的基于潜变量能量的模型"(regularized latent variable energy-based model),也就是 RLVEB。你认为RLVEB就是未来的发展方向吗?RLVEB是否能引领2020年代或者2030年代的发展?

YL:让我这么说吧:自从卷积网络之后,我对机器学习的东西就没那么感兴趣了。(笑)我不确定RLVEB是不是新的卷积,但我对此真的很兴奋。

当我在IAS演讲时,我满脑子都是RLVEB。RLVEB是生成模型,如果你想把它应用到视频预测之类的任务上,你给它一段视频,可以让它预测下一段视频。

在过去的几年里,我也改变了我的想法。现在,我最喜欢的模型不是从X预测Y的生成模型,而是我所谓的联合嵌入模型。我们取X,通过一个编码器运行它(如果你想的话,也可以用一个神经网络来运行);取Y,并通过另一个编码器运行它;然后预测就会发生在这个抽象的表示空间中。这就是一个巨大的优势。

为什么我改变了主意?我改变主意是因为我们之前不知道该怎么做。现在我们有一些方法可以派上用场。这些方法是在过去的两年中出现的。我正在推动的实际上有两个方法:一个叫VIC-REG,另一个叫Barlow Twins。

ZDNet:那么在接下来的5到10年里,你认为我们会在这方面看到什么进展呢?

YL:我认为现在我们至少有了一种方法来让我们研究可以学习在抽象空间中进行预测的系统。在学习抽象预测的同时,系统也可以学习预测在抽象空间中随着时间或状态的变化会发生什么。

对于一个自主的智能系统来说,这是非常重要的部分,例如,系统有某种世界模型,可以让你提前预测世界将会发生什么,也可以预测行为的后果。因此,给定对世界状态的估计以及你正在采取的行动,系统会给到你一个在你采取行动后世界状态的预测。图注:基于能量的模型:“VICREG”是“自监督学习的方差-不变性-协方差重新正则化(Variance-Invariance-Covariance Re-Gularization For Self-Supervised Learning)”的缩写,是LeCun在基于能量的神经网络架构上的最新研究成果。一组图像在两个不同的管道中转换,每个扭曲后的图像会被发送到编码器,该编码器实质上是对图像进行压缩。然后,投影仪(也被称为“扩展器”)会将这些压缩的表示解压成最终的“嵌入”,即 Z 维。正因为这两种嵌入之间的相似性不受其扭曲的影响,程序才能够找到合适的低能量级别去识别出某些东西。(图源:FAIR)

这个预测还取决于一些你无法观察到的潜变量。比如,当你开车的时候,你的前面有一辆车。这辆车可能刹车,可能加速,左转或右转。你不可能提前知道车辆的情况,这就是潜变量。所以整体架构是这样的,取最初的视频集X和未来的视频Y,将X、Y嵌入到某个神经网络中,从而得到X和Y的两个抽象表示。然后在这个空间里做一个关于某个潜变量的基于能量的预测模型。

重点是,这个模型在预测世界抽象表示的时候,是不能预测世界上所有的细节的,因为这个世界上的很多细节可能是不相关的。在路上驾车的时候,可能会在路边的一棵树上看到一片叶子上非常复杂的部分。模型是绝对不可能预测这个的,或者说你也不想投入任何精力或资源来预测这点。所以这个编码器本质上可以在被问到之前就消除这些信息。

ZDNet:你认为在未来的5到10年会出现一些具体的里程碑吗?或者目标?


YL:我预见到的是,我们可以使用「JEPA」(Joint Embedding Predictive Architecture)架构来了解世界的预测模型,以一种自监督的方式学习感知表示而又不需要为特定的任务训练系统。因为系统学习了X和Y的抽象表示,我们可以把它们堆叠起来。所以,一旦我们学会了对周围世界的抽象表示,能够做出短期预测了,我们就可以叠加另一层,从而可以学习更抽象的表示并获得做出长期预测的能力。

所以让系统通过观察和观看视频来了解世界是如何运作是很重要的。因为婴儿基本上是通过观察这个世界来学习的,学习直观的物理,学习我们所知道的关于这个世界的一切。动物也会这样做。我们想让我们的机器通过观察来学会了解世界是如何运作的。但是到目前为止,我们还没有做到这一点。因此在我看来,使用JEPA并以分层的方式检查它们,是实现系统观察学习的途径。

JEPA能给予深度学习机器的另一个好处是推理能力。目前有一个争议:深度学习擅长的只有感知,因为输入和输出是明确的。但如果你想要一个系统具备推理能力与规划能力呢?世上存在具备一定的推理和规划能力的复杂模型,但这样的模型并不多。

那么,我们如何让机器去规划呢?如果我们有一个世界预测模型,如果我们有一个能让系统预测自己行为后果的模型,就可以让系统想象其行动路线并预测将会产生的结果。然后将这些信息提供给一些内部函数,这些函数会描述某个任务是否已完成。接着,通过优化,可能使用梯度下降法找出使目标最小化的一系列行动。我们现在不是在讨论学习;我们现在讨论的是推理与规划。事实上,我现在描述的是一种经典的计划和模型预测控制的最优控制方法。

最优控制的不同之处在于,我们用的是一个经过学习的世界模型,而不是一种固定的模型。我们的模型包含了所有可以处理这个世界的不确定性的变量,因此可以成为自主智能系统的基础,能够预测未来并计划一系列行动。

我想从这里飞到旧金山,那我就需要去机场,赶飞机等等。要去机场,我就需要离开我的大楼,沿着街道走一段,然后打一辆出租车。要离开我的大楼,我就需要离开我的椅子,走向门,打开门,走向电梯或楼梯。要做到走向电梯或者楼梯,我需要弄清楚如何把这些动作分解成一毫秒一毫秒的肌肉控制。这就叫做分层规划。我们希望系统能够做到这一点,但目前我们还不能真正做到如此。这些通用架构可以为我们提供这些东西。这是我的希望。

能量模型与其他方法之间的千丝万缕

ZDNet:你描述能量模型的方式听起来有点像量子电动力学的内容,比如 Dirac-Feynman 路径积分或者波函数。这只是一种比喻,还是说也许这两者实际上是一致的?

YL:这并不是比喻,而且两者其实是有些不同的,并非完全一致。比如你有一个潜变量,这个潜变量可以取很多不同的值,通常你要做的就是遍历这个潜变量所有可能的值。这可能有些不切实际。所以你可以从某个分布中对潜变量抽样,然后计算可能结果的集合。但是,实际上你最终要计算的是一个代价函数,这个代价函数给出了一个你对潜变量的可能值求平均的期望值。这看起来很像一个路径积分。路径积分实际上就是计算多条路径的能量之和,至少在传统意义上是如此。在量子方法中,你不是在把概率或分数相加,而是在把复数相加,而复数可以互相抵消。虽然我们一直在考虑这样的事情(至少我一直在思考同样的东西),但我们的研究中没有这样的内容。

这个在上下文中没有用到,但是潜变量的边际化和路径/轨迹的总和是非常相似的。

ZDNet:你曾做出两个相当惊人的断言。一是深度学习的概率方法已经过时。二是你说你正在讨论的基于能源的模型与20世纪80年代的方法有一些联系,例如 Hopfield 网络。请问能详细说明一下这两点吗?

YL:我们需要放弃概率模型的原因是,我们可以对两个变量X和Y之间的相关性建模,但如果Y是高维的,如何表示Y上的分布呢?我们真的不知道该怎么做。我们只能写出一个非常简单的分布,一个高斯分布或者高斯分布的混合分布之类的。如果你想用复数概率去度量,我们不知道怎么做,或者说我们知道的唯一方法就是通过能量函数去度量。所以我们只能写一个能量函数,其中低能对应着高概率,高能对应着低概率,这就是物理学家理解能量的方式,对吧?问题是我们一直不太理解如何标准化。

统计学、机器学习和计算物理学等领域里有很多论文都是有关如何解决这个棘手问题的。我所倡导的是忘掉概率模型,只考虑能量函数本身。它甚至不需要使能量变成可以标准化的形式。最终的结果是,你应该有一种损失函数,当你训练你的数据模型,使得相容的能量函数低而不相容的能量函数高的时候,你就把损失函数最小化。就是这么简单。

ZDNet:和Hopfield网络之间的关系呢?

YL:Hopfield 网络和 Boltzmann 机器当然与此相关。Hopfield 网络是以一种非对比的方式训练的能量模型,但效率很低,所以没什么人用Hopfield 网络。Boltzmann 机器基本上是Hopfield网络的一个对比版本, 你得到数据样本并降低其能量,你生成其他样本并提高其能量。这种方法在某种程度上更令人满意,但也不是很有效,因为这种对比的方法不能很好地扩展。因为这个原因,这个方法也没有被使用。

ZDNet:那么,正则化的、基于潜变量能量的模型(RLVEB)真的可以被认为是Hopfield 网络的2.0版本吗?

YL:我不那么认为。

“意识是人类大脑局限性的结果”

ZDNet:你提出了另一个相当惊人的论断,即“只有一个世界模型”并认为意识是人类大脑中“一个世界模型的刻意配置”。你说这可能是个疯狂的假设。这是你的猜想吗?这到底是一个疯狂的假设,还是有什么证据可以证明呢?在这个案例里有什么证据呢?

YL:这是个猜想,一个疯狂的设想。任何关于意识的东西,在某种程度上都是猜想。因为我们一开始并不知道意识是什么。我认为意识是一种错觉。我想表达的是,意识被认为是人类和一些动物拥有的一种能力,我们认为意识体现了这些生物的智慧,这有点可笑。我认为意识是我们大脑局限性的结果,因为我们的大脑中有一个单一的、类似于世界模型的引擎,我们需要一些东西来控制这个引擎,这个东西就是意识。于是我们产生了人类有意识的错觉。如果我们的大脑变得无限大,不再有限制,我们就不需要意识了。

至少有一些证据表明我们脑中或多或少存在一个单一的模拟引擎。比如,我们基本上在同一时间只能尝试一项意识任务,我们专注于任务,我们会想象我们计划的行为的后果。你一次只能做一件事,或者你可以同时做多件事,但这些多个任务是我们训练自己不用思考就能完成的潜意识行为。比如我们可以一边开车一边和身边的人说话,只要我们练习开车的时间足够长,开车就已经成为一种下意识的行为。所以在刚开始学开车的几个小时里,我们做不到一边开车一边说话,我们必须集中精力才能完成驾驶,因为我们必须使用我们的世界模型预测引擎来找出所有可能发生的可怕情况。

ZDNet:如果这只是一种猜想,那么它对你目前的工作并没有什么实际意义,不是吗?

YL:不,有一定意义。我提出的这个自主人工智能模型有一个可配置的世界模型模拟引擎,其目的是规划和想象未来,填补你无法完全观察到的空白。可配置的单一模型会带来计算优势,可以让系统在任务之间共享知识,这些知识是你通过观察或基本逻辑之类的东西学到的。使用你配置的大模型要比使用一个完全独立的模型来处理不同的任务要有效得多,因为不同的任务可能需要单独训练。但是我们已经看到了,对吧?

以前在Facebook(当Meta名字还叫Facebook)的时候,我们用视觉来分析图像,做排序和过滤,基本上对于不同的任务,我们都有专门的神经网络和专门的卷积网络来解决。而现在我们有一个大的网络,什么任务都能处理。我们以前有好几个ConvNets,现在我们只有一个。

我们看到了这种简化。我们现在甚至有可以做所有事情的架构:同一个架构就可以处理视觉、文字、口语。这种架构必须分别接受三个任务的训练,而这个架构 data2vec,是一种自监督的方法。

ZDNet:真有意思!感谢你的分享。

责任编辑:张燕妮 来源: 雷锋网
相关推荐

2023-06-16 12:24:13

2015-02-26 11:05:17

2024-10-08 16:22:24

2021-04-08 22:36:19

人工智能技术机器学习

2020-12-15 09:47:33

AI 数据人工智能

2021-04-09 14:41:12

人工智能

2023-09-04 06:57:41

人工智能系统网络

2020-08-31 15:15:20

人工智能算法AI

2023-05-05 14:02:59

人工智能聊天机器人

2021-07-17 22:49:52

人工智能科学技术

2020-12-18 13:22:33

人工智能算法

2023-01-19 00:26:44

2021-01-27 22:38:18

人工智能机器人5G

2024-02-05 11:09:57

2023-12-18 18:56:28

超级人工智能人工智能

2022-08-18 11:07:17

网络人工智能AI

2022-08-25 10:31:57

模型人工智能

2022-07-31 23:46:57

人工智能语言模型感知力

2023-12-05 14:46:58

人工智能

2022-07-26 11:27:40

人工智能AIOps
点赞
收藏

51CTO技术栈公众号