Nature:神经网络“举一反三”能力甚至超人类

人工智能
Nature的这篇文章中表示,研究人员用一种叫做MLC的方法,通过在动态变化的组合任务流中训练,神经网络可以获得人类般的组合推理能力。

神经网络具有类似人的“举一反三”能力,甚至超过人类水平???

最近刊于Nature的一篇论文表示找到了证据。

图片

“举一反三”的能力更专业点叫做系统性泛化能力。像小孩子一样,一旦学会了如何“跳”,他们就可以理解如何“向后跳”、“绕锥体跳过两次”。

要知道,早在1988年,认知科学家Fodor、Pylyshyn就提出了系统性挑战,认为人工神经网络缺乏这种能力。

Nature的这篇文章中表示,研究人员用一种叫做MLC的方法,通过在动态变化的组合任务流中训练,神经网络可以获得人类般的组合推理能力。

他们还将MLC和人类在相同的系统性泛化测试中进行了比较。结果机器学习的系统性泛化基准测试表明,MLC错误率不到1%,并且还可以模拟人类的认知偏见导致的错误。

相比之下,GPT-4 在相同的任务中平均失败率在42%到86%之间,具体取决于研究人员如何提出任务。

挑战已存在35年的观点

35年前,认知科学家Fodor、Pylyshyn提出了一个著名的观点:

人工神经网络由于缺乏组合性,不太可能成为合理的认知模型。

换句话说,人类语言和思维的精髓在于系统性组合,而神经网络只能表示特定的事物,缺乏这种系统性组合能力。

这个观点引发学界激烈讨论。其中反驳观点主要集中于两个方面。

一是尽管人类的组合技能很重要,但它们可能并不具有Fodor、Pylyshyn所说的那样的系统性和规则性。

二是虽然神经网络在基本形式上受到了限制,但使用复杂的架构可以增强系统性。

虽然最近几年,神经网络在自然语言处理等方面有了很大进展和突破,相关辩论也随之升级。

但时至今日,系统性的问题仍没有一个定论。

基于此,纽约大学心理与数据科学助理教授Brenden M. Lake、西班牙加泰罗尼亚研究所(ICREA)研究教授Marco Baroni提出了一种叫做MLC(meta-learning for compositionality)的元学习神经网络模型。

具体来说,用的是一种通过特殊指导和人类示例来指定模型行为的方法,然后要求神经网络通过元学习获得正确的学习技巧。

研究人员还表示,MLC使用的是标准的Seq2Seq架构,常见的神经网络并没有添加符号机制,也没有手动设计内部表示或归纳偏见。

举个例子来说明训练过程。如下图所示,给神经网络模型一个“连续跳跃两次”(skip twice)的指令。并用箭头和小人来展示学习示例,告诉机器jump(跳)、skip(跳过)、jump twice是怎样的。

然后将输出的skip twice和行为目标比较:

图片

类似情境,引入下一个词“向后踮脚尖绕过一个锥体”,要求神经网络组合向后走(walk backwards)、踮脚尖(tiptoe)、绕锥体行走(walk around a cone)的动作,推出如何“向后踮脚尖绕过一个锥体”。

图片

机器VS人类

为了展示MLC方法的性能,研究人员对人类和机器在相同的系统性泛化测试中进行了评估。

实验基于一个少样本学习伪语言任务进行,其中词汇与特定的符号或颜色有关。

比如给出基本词汇,“dax”是红色,“wif”是绿色,“lug”是蓝色。

图片

还有三个Function。Function 1中,“lug fep” 代表三个蓝色的连续圈圈,“dax fep” 代表三个红色的连续圈圈。

Function 2代表的是交替,像“lug blicket wif” 代表蓝绿蓝三个颜色的圈圈。

Function 3代表把输出顺序倒过来,像“dax kiki lug” 代表蓝红(根据基本词汇应该是红蓝)。

还可以组合不同的Function,比如“wif blicket dax kiki lug”是蓝绿红绿。

图片

△MLC架构

然后研究人员对25名人类的反应和机器的反应进行了比较:

图片

研究人员还测试了在不给出任何示例的情况下,人类和机器归纳这种方法后的输出,为的是测验人类的归纳偏见:

图片

测试后的结果表明,人类能够系统性地泛化,正确率约为80%,但也存在一些偏见。

而使用MLC方法机器可以达到或超过人类的系统性泛化水平。

MLC还可以预测哪些指令对人们来说更容易或更难。

下图展示了模型预测人类行为的log-likelihood值(用来判断模型预测数据的好坏),数值越大表示模型的预测越准确:

图片

研究人员还在两个常见的机器学习的系统性泛化基准测试SCAN、 COGS中,着重关注MLC处理新单词和单词组合方面的表现,结果显示错误率不到1%。

图片

△在机器学习基准测试中进行系统性词汇泛化的错误率

他们还表示,在纯粹的代数推理和模拟人类复杂组合行为的情况中,MLC还可以模拟人类的认知偏见导致的错误模式,这说明神经网络是一种很好的建模工具。

引发热议

美国圣达菲研究所的计算机与认知科学家Melanie Mitchell表示:

这项研究是一个有趣的原理证明,但这种训练方法是否可以扩展到更大的数据集甚至图像,还有待观察。

德国奥斯纳布吕克大学自然语言处理专家Elia Bruni表示:

这项研究可以使神经网络更高效地学习,将减少像ChatGPT等所需的训练数据量,并减少“幻觉”。

将系统性注入神经网络是一件大事,它可以同时解决这两个问题。

但也有网友指出:

人类的沟通是多样且多层次的,可以从太多角度总结 ,所以有必要持合理的怀疑态度,同时还需要证据和测试结果。

图片

还有网友表示用这种方法能够击败GPT-4是因为提示的问题:

我觉得一名高级的提示工程师使用GPT-4可以达到正确率85%的效果。“根据研究人员如何呈现任务,准确率在42%到86%之间”这话确实会让人产生疑虑。

考虑到主观因素,希望他们能展示是如何提出这个任务的,至少比只给一句话要详细。

图片

论文链接:https://www.nature.com/articles/s41586-023-06668-3。

参考链接:
[1]https://www.nature.com/articles/d41586-023-03272-3。
[2]https://news.ycombinator.com/item?id=38017146。

责任编辑:姜华 来源: 量子位
相关推荐

2023-10-27 09:13:00

训练模型

2023-12-06 13:39:00

模型训练

2010-09-13 13:13:06

无线网络稳定性

2010-03-25 11:16:47

2020-10-06 19:05:09

神经网络人类思维人工智能

2018-07-03 16:10:04

神经网络生物神经网络人工神经网络

2021-07-07 10:57:08

神经网络AI算法

2024-01-26 08:49:47

ChatGPT搜索方式

2019-11-19 08:00:00

神经网络AI人工智能

2021-11-01 12:32:08

量子芯片神经网络

2017-08-11 17:44:31

人工智能神经网络神经元

2019-10-22 15:19:27

AI 数据人工智能

2024-01-15 06:25:00

神经网络AI

2024-08-14 14:43:00

2022-06-06 13:05:32

神经网络宇宙

2018-07-29 06:46:07

神经网络RNN循环神经网络

2017-08-09 16:32:40

人工智能深度学习机器人

2017-07-07 15:46:38

循环神经网络视觉注意力模拟

2017-06-25 16:04:56

神经网络人类视觉信号

2018-04-08 11:20:43

深度学习
点赞
收藏

51CTO技术栈公众号