人类已经教会了深度神经网络做许多惊人的事情,从识别和推理图像中的物体,到在Atari游戏和围棋中发挥出超越人类的水平,不一而足。随着神经网络的结构和所做的任务变得越来越复杂,神经网络学到的解题方法也越来越难以被人类理解。
人们把这个问题称作“黑箱”。随着神经网络越来越多地参与解决现实世界中的问题,解决这个黑箱问题也变得越发重要。
为了能够了解和解释这些神经网络系统,DeepMind的研究人员们一直在探索新的工具和方法。最近ICML就收录了一篇来自DeepMind的论文,文中他们提出了一种新的、来自认知心理学的方法,来理解深度神经网络。认知心理学通过对行为的测量来推测认知过程的机理,有许多的认知心理学论文详细解释了这些机理,同时介绍了许多验证机理的实验方法。随着***的神经网络在特定任务上达到人类水平,认知心理学的方法就能对解决黑箱问题起到不小帮助。
黑箱
DeepMind在论文中研究了一个具体案例来展现观点,他们设计了一个阐明人类的认知过程的实验,用来对比帮助理解深度神经网络如何解决图像分类任务。
结果是,认知科学家在人类身上观察到的行为,在这些深度神经网络中也能观察到。更进一步地,人们可以从这些结果中深入理解神经网络是如何解决图像分类任务的,这些理解不仅很有用,而且还令人惊讶。总的来说,这项案例研究的成功展现出了用认知心理学方法理解深度学习系统的潜力。
测量一次性词汇学习模型中的形状偏好
在DeepMind的案例研究中,他们思考了这样一个问题:人类小孩是如何识别并分类物体的,这个问题也在发展认知心理学中得到了丰富研究。小孩有从单个例子猜测单词意思的能力,人们称作“一次性词汇学习”,这种能力非常容易获得,人们也往往以为这个过程非常简单。然而,哲学家Willard Van Orman Quine提出过一个经典思想实验,展示出了这个过程到底有多复杂:
一位实地语言学家前去体验另一种文化,这种文化中使用的语言和他以前使用的完全不一样。这位语言学家就需要找肯帮忙的当地人教他一些单词。当有一只兔子跑过的时候,当地人说“gavagai”,语言学家就要猜当地人的这个词是什么意思。对语言学家来说,这个词可以指代的内容有很多种,可能是兔子、动物、白色的东西、特指这只兔子,甚至是兔子身上单独某个部位。实际上这个词可以代指的意象是无穷多的,人类是如何在其中选中正确的那个的呢?
“gavagai”
50年以后,面对着能够做一次性词汇学习的深度神经网络,同样的问题又出现在了人们的眼前。拿DeepMind开发的“匹配网络”举例,这个模型中用到了注意力模型和记忆模型方面的近期发展,达到了仅凭单张分类示例就可以对ImageNet图像进行分类的***水平。但是我们并不知道网络在给图像分类的时候采取了怎样的假设。
为了深入探究这个问题,DeepMind的研究人员参考了一些发展心理学方面的研究。这些心理学家们发现了小孩有归纳偏好的证据。这种偏好可以消除很多不正确的指代,从而让他们找到正确的指代。这种偏好包括:
-
整个物体偏好,小孩会假定一个单词指代的是整个物体而不是它的组成部分(消除了Quine对指代兔子身上单独某个部位的担心)
-
分类偏好,小孩会假定一个单词指代的是一个物体所属的基础分类(消除了Quine对指代“全体动物”而不是“兔子”这个基础含义的担心)
-
形状偏好,小孩会假定一个名词的含义是根据物体的形状而不是颜色或者纹理来确定的(消除了Quine对指代所有白色的东西而不是“兔子”这个具体对象的担心)
DeepMind的研究人员测量了他们的神经网络的形状偏好,这是因为人类形状偏好的相关研究尤其多。
来自认知心理学的刺激示例,DeepMind用它们测量深度神经网络的形状偏好。这些图像是由印第安纳大学认知发展实验室的Linda Smith慷慨提供的
DeepMind的研究人员所用的经典形状偏好实验是这样进行的:给深度神经网络展示三个物体的照片,一个试验物体、一个形状匹配物体(跟试验物体的形状相同)、还有一个颜色匹配物体(跟试验物体的颜色相同、形状不同)。然后把形状偏好定义为试验物体和形状匹配物体被网络划分为同一类的情况出现的比例,从而进行测量。
实验中用到的图像就是印第安纳大学认知发展实验室的人类实验中所用的图像。
这个认知心理学实验的概要,运用了匹配网络。匹配网络会把试验图片(左侧)和图像A或者B(上方中间或者上方右侧)进行匹配。输出(右下方)就取决于这个匹配网络的形状偏好。
DeepMind团队用他们的深度神经网络(匹配网络和一个基准Inception模型)进行了实验,发现他们的网络对物体形状的偏好比颜色或者材质的偏好强得多,就像人类一样。换句话说,它们确实有“形状偏好”。
这种结果就表明,匹配网络和Inception分类器中都用到对形状的归纳偏好来消除错误的假设,让研究者对这些网络解决一次性词汇学习的方法有了一个明确的了解。
除了形状偏向,DeepMind团队还发现了一些有意思的事情:
-
他们发现形状偏好在网络的早期训练中逐渐出现。这让人联想到人类形状偏好的出现:心理学家发现更小的小孩比大一些的小孩的形状偏好要弱,成年人的形状偏好***烈。
-
他们发现选用不同的随机种子做初始化和训练会导致网络的偏好程度也有所不同。这说明当研究深度学习系统并做出结论时,研究的样本数量需要很大才行,就像心理学家已经知道不能只研究单个对象就得出结论。
-
他们发现即便几个网络的形状偏好有很大区别,它们的一次性词汇学习表现却都差不多,说明不同的网络可以找到很多种同样有效的方法解决复杂问题。
这种偏好在标准的神经网络架构中就存在,但以前没有人认识到过。此次发现了这种偏好,表明了用人类创立的认知心理学阐释神经网络解题方案的潜力。其它心理学领域的研究也有可能起到帮助,情景记忆文献中的观点可能可以帮助理解情景记忆架构,语义认知文献中的方法可能可以帮助理解近期的概念形成模型,以上在内的许多心理学领域都有丰富的文献,很有可能会给人类带来强有力的新工具,帮助解决“黑箱”的问题,也让人类更好地理解神经网络的各种行为。
论文地址:https://arxiv.org/abs/1706.08606
via DeepMind Blog ,雷锋网 AI 科技评论编译