金庸武侠小说《射雕英雄传》里,有这样一段经典场景:“老顽童”周伯通在被困桃花岛期间,创造了“左右互搏术”,即用自己的左手跟自己的右手打架,在两手互搏中提高功力。
如今,这样的桥段在人工智能领域真实上演。它,就是深度学习。
“左右互搏术”与深度学习中的一种对抗训练原理相仿,即有两个角色——生成器和判别器。生成器类似于左手,扮演攻方;判别器类似于右手,扮演守方。
判别器的目的是正确区分真实数据和生成数据,从而最大化判别准确率;生成器则是尽可能逼近真实数据的潜在分布。二者需要不断提高各自的判别能力和生成能力来取胜,从而实现目标优化。
今天,让我们打开这个“神秘魔盒”。
深度学习的概念,最早是由杰弗里·辛顿在2006年提出的。这是一门用于学习和利用“深度”人工神经网络的机器学习技术。作为人工智能领域中最热的研究方向,深度学习迅速受到学术界和工业界的关注。
目前,深度学习已得到广泛应用。如在博弈领域,AlphaGo通过深度学习,以4∶1的比分战胜韩国棋手李世石,成为第一个击败人类职业围棋选手的电脑程序;在医学影像识别中,以深度学习为核心技术的X光、核磁、CT、超声等医疗影像多模态大数据的分析技术,可提取二维或三维医疗影像中隐含的疾病特征;在图像处理中,最成功的领域是计算机视觉,如图像风格迁移、图像修复、图像上色、人脸图像编辑以及视频生成等。
一种特殊的机器学习方法
今天的人工智能,其实是把现实生活中的问题量化成了可计算的问题,然后用计算机算出来。数学模型则架起了中间的桥梁。
现实生活中,很多问题都可以通过建模解决。比如计算远程火炮弹道问题,计算日食、月食出现的时间和地点等。我们只要把相应公式用计算机语言写一遍,再代入参数,就能计算出来。
然而,更多问题的解决方法是不确定的。即使我们找到了相应的数学模型,也不知道应该代入什么参数。比如语音识别、人脸识别和机器翻译等。因此,我们需要让计算机通过自主学习,从大量数据中得到相应参数。这个过程,就是机器学习。
机器学习旨在发现数据存在和利用的模式,并用它们进行学习及做出预测。机器学习的过程,就是用计算机算法不断地优化模型,让它越来越接近真实情况的过程。它与人类学习的道理如出一辙。
考察人的学习通常方式是考试,如果分数不及格,就需要进一步学习。机器学习也要这样来衡量,它的目标用专业术语来说,就是“期望值最大化”。
机器学习的效果取决于两个方面:一方面是学习的深度。机器学习并不能“一口吃成个胖子”,它的训练算法需要迭代执行。这如同人在学习时要通过复习来“温故而知新”一样。机器学习迭代的次数越多,即学习得越深入,得到的数学模型效果越好。另一方面是数据的质与量。正如我们做大量优质习题,成绩就会提高。机器学习也是如此,训练数据量越大,学习效果就会越好。
根据数学模型的特点,机器学习有两种方法:一种是利用已知模型进行训练;另一种是在模型未知的情况下,设计一些简单通用的模型结构,然后使用大量的数据进行训练,训练成什么样就是什么样。这便是我们常听到的人工智能“黑箱”问题,即使训练有效,也不清楚里面是什么。
深度学习就是后一种机器学习的方法。人工智能涵盖的领域十分广泛,深度学习只是其中的一个分支,属于机器学习的范畴。人工智能需要有“独立思考”能力与机器学习技术的支持,深度学习便是帮助机器实现“独立思考”的一种方式。
深度学习迎来革命性突破
人工神经网络,简称神经网络,是一种模仿动物中枢神经系统结构和功能的数学模型,是用大量简单处理单元经广泛连接而组成的人工网络。它其实是一个特殊的分类器,用于对函数进行估计等。
神经网络为许多问题的研究提供了新思路,特别是迅速发展的深度学习,能发现高维数据中的复杂结构,取得比传统机器学习更好的效果。
20世纪50年代,人类第一次设计出计算机能运行的神经网络算法。此时的神经网络,虽然给了人们很多遐想空间,却解决不了实际问题,因此被打入“冷宫”。
到了20世纪80年代末期,人们提出反向传播算法,可让一个神经网络模型从大量样本中学习统计规律,从而对未知事件做出预测。随后,支持向量机等各种各样的机器学习方法被相继提出。不过,这些模型的结构均为浅层学习方法,处理复杂问题的能力受到一定制约。因此,神经网络再进“冷宫”。
2006年,加拿大教授辛顿和他的学生提出深度学习神经网络的“快速学习”算法,使深度学习迎来了革命性突破。深度学习通过学习一种深层非线性网络结构,展现出了从少数样本中集中学习数据及本质特征的强大能力。
从此,神经网络学会了反复分类以及识别物体的方法,并展现出乎意料的精准度。
计算能力成为推动深度学习的利器
人工神经网络在被提出的50年间,都没能很好地解决智能问题。究其原因,除了算法本身不完善外,还在于计算机绝对速度不够快,而且单位计算能力的能耗太高,无法通过大量服务器搭建并行计算系统,来达成深度人工神经网络。
那么,靠什么加以突破?答案就是摩尔定律。
摩尔定律是英特尔联合创始人戈登·摩尔在1965年提出的一项观察结论,即计算机的总体处理能力大约每2年就会翻一番。经历近50年的历史检验,摩尔定律展现出惊人的准确性。摩尔定律带来的结果是,在过去的半个多世纪里,计算机处理器性能增长了上亿倍,耗电量却降到了百分之一。
从能量角度看,摩尔定律反映出了人类在单位能耗下,所能完成信息处理能力的大幅提升。而这正是实现人工智能的基础所在。
从某种意义上说,不仅是深度学习技术,今天的人工智能都是靠算力成就的。
人工智能的崛起,有3个技术要素:一是它解决了可计算问题,即在算法上的突破;二是它积累了大量数据,形成了可学习的原材料;三是摩尔定律所推测的,处理能力得到持续提高。
算力是推动深度学习的利器。计算能力越强,同样时间内积累的经验就越多、迭代速度也越快,深度学习的性能也就越高。
不断进化的深度学习之道
1997年,“深蓝”在国际象棋比赛中战胜加里·卡斯帕罗夫;2016年,AlphaGo在围棋比赛中战胜李世石。
虽然这两种人工智能系统都学会了下棋,但教授它们的方式以及它们如何比赛,则大相径庭。
“深蓝”的核心评估函数对给定盘面进行数字“排序”,而且函数是手工设计的。这种比赛风格,实际上是一种“蛮力”。“深蓝”将其评估函数应用到许多备选的未来状态,对每个棋手预先搜索七八步,以2亿次/秒的速度进行局面评估。
AlphaGo的学习方法则迥然不同。它通过一种双管齐下的深度学习方法“学习”,用“价值网络”评估局面,用“策略网络”选择走棋。
深度学习神经网络的训练,一部分通过使用人类高手对弈数据集的监督学习进行(总出棋数约为3000万步),另一部分通过对自我对弈非监督强化学习进行(模拟成千上万场随机比赛)。它不使用预测搜索,走棋是单个“围棋局面”整体评估的结果。
2017年5月,在中国乌镇围棋峰会上,AlphaGo的升级版AlphaGo Zero,与世界排名第一的围棋冠军柯洁对战,结果以3∶0的总比分完胜。
令人震惊的是,AlphaGo Zero一开始并没接触过人类棋谱。它使用了新的强化学习方法,从单一神经网络开始,通过神经网络强大的搜索算法,进行自我对弈训练。随着自我对弈次数的增加,神经网络逐渐调整,提升预测下一步的能力,最终成为具备超强棋力的“选手”。更为厉害的是,随着训练的深入,AlphaGo Zero还独立发现了游戏规则,走出了新策略,为围棋这项古老游戏带来了新见解。
目前,深度学习在许多领域取得了技术性突破,并展示了极佳效果。然而,它仍存在一些局限:理论研究缺乏、无监督学习能力弱、缺少逻辑推理和记忆能力等。
深度学习对未来社会发展具有重要意义,需要不断深入研究,从多方向多角度更全面地开发深度学习的潜在价值。面对复杂的战场,以深度学习为代表的人工智能技术也已逐步渗透到军事领域,深刻影响着人类战争。
可以推断,未来作为“左右互搏术”的深度学习,必将继续升级演化,开启更高深的境界。