【51CTO.com快译】尽管深度学习确实为我们带来诸多令人印象深刻的成功案例,但其只是机器学习技术的一小部分,而机器学习又是人工智能的一小部分。在我们看来,未来的人工智能应当探索超越深度学习的其它实现方法。
深度学习技术——人工智能领域的闪耀明星
时至今日,每个人都在学习,或者自称在学习深度学习(简称DL)技术——人工智能(简称AI)领域的闪耀明星。
目前,面向各阶段学习者的付费及免费深度学习课程已经超过十万种。众多初创企业及产品打着“深度XX”的旗号,但明眼人一望而知这只是其标榜自我的噱头。事实上,很多人都忽略了深度学习仅占机器学习(简称ML)整体的1%比例,而机器学习又仅占人工智能的1%。余下还有99%的比例拥有更为广阔的实践空间。更具体地讲,“纯深度学习专家”并不属于“全面的人工智能专家”。
深度学习并不是人工智能的同义词!
谷歌、Facebook等技术巨头在广告宣传当中提及最多的人工智能工具仍然主要体现为深度学习,因此公众们也误以为所有的人工智能技术成果目前乃至未来都将需要依托于深度学习来完成。但实际情况并非如此。
像XGBoost这样的决策树并没有成为头条新闻的追踪焦点,不过其却在众多Kaggle表数据竞赛当中悄然击败了深度学习方法。媒体将ALphaGo称为纯深度学习产物,但其实际上是蒙特卡洛树加深度学习的结晶,而且有证据证明纯深度学习并不足以支持其击败世界一流棋手。神经进化的NEAT解决了众多强化学习型任务,但其并没有使用任何反向传播机制。很明显,目前关于人工智能的认知当中存在“深层误区”。
当然,我并不是说深度学习无法解决实际任务:深度学习确实非常出色。当下,树与其它算法往往无法带来能够与深度学习相匹敌的实际表现,且无法替代深度学习解决某些特定任务。然而,我期望着未来能够出现更多能够击败深度学习技术的非深度学习系统。值得强调的是,深度学习决策还代表着一场法律层面的灾难——即使结果正确,我们也无法通过解释其决策流程来消除法律层面的质疑。
此外,我还期待着能够在媒体当中看到深度学习当中的“灾难性遗忘”问题,即其在学习新信息时突然忘记以往已经学习到的其它信息的状况,以及其持续存在的过度拟合倾向。在“智能”方面,深度学习只会简单相信其获取到的训练数据,而无法判断这些数据究竟是真是假、是公平还是存在偏见。人类虽然在一定程度上也会被虚假新闻所误导,但仍保持着强大的自主判断力——具体来讲,孩子们都知道电影内容是虚构的,而不会将其信以为真。
深度学习比HTML更古老
20年前,每个人都在学习HTML。HTML是用于手写网页的标记语言,在当时人们广泛认为掌握了这门手艺即拥有了成为百万巨富的潜力。
与其他人一样,我也学习了一切看似有用的技术:HTML、移动应用、深度学习以及其它陆续出现的新生事物。但事实上,我们的生活不可能单纯围绕着一种技术展开!如果您学习了深度学习,仍然无法窥见人工智能漫长发展周期中的全月的。
早在1995年,HTML就开始过时,并在不久之后被CSS、JavaScript以及服务器语言所逐渐替代。同样的,深度学习也会过时。时至今日,大多数主流移动应用根本不包含任何HTML元素,因此也许未来的人工智能应用也将彻底告别深度学习——谁知道呢。
事实上,深度学习是上世纪八十年代诞生的技术,比HTML更古老:上世纪七十年代的“神经网络加隐藏层”机制证明利用更多数据训练将可提供更理想的结果,而其随后被更名为深度学习并广受关注。
1992年,我简要检查了一些神经网络源代码,以及分形及元胞自动机等技术产物。与其他人一样,我也把深度学习视为一种没有实际用途的纯学术性数学难题。相反,我更关注其它更具实效性的技术:3D视频游戏,而后是互联网等等。但事实证明,我们都犯下了严重的错误——深度学习完全可以配合大数据完成令人印象深刻的目标!
我在2015年深陷Deep Dream以及GAN而不能自拔。然而,深度学习绝不可能、也不应该是我们所发明的最后一项人工智能技术成果。古老的深度学习已经得到广泛研究,并通过数十年的更新获得准确解决更多任务的能力,但还没有哪个深度学习版本(包括卷积、RNN、RNN+LSTM、GAN等)能够解释其决策过程。
尽管深度学习肯定能够解决更多任务,并在未来替代更多相关工作人员,但只要其无法就自身决策的公正性给出合法且有效的解释,其仍不太可能解决所有问题或者继续保持这种令人惊讶的发展态势。
探索其他途径,而不仅局限于深度学习
未来的人工智能应该能够探索其它或新或旧,但遭到忽视的途径——而不仅局限于深度学习。
深度学习的一大局限,在于其会简单将真实情况视为数据当中频繁出现的事实,而不会考虑在统计学层面更为罕见的状况。深度学习的公平性并非来自这项技术本身,而是来自人类为深度学习所选定及准备的数据。深度学习可以阅读文本并实现文本内容间的翻译,但无法以“人文方式”完成理解性翻译。如果一套深度学习模型在训练当中接触100本论著,其中40本认为仇恨、战争、死亡与破坏不值得提倡,而60本宣扬希特勒的纳粹思想值得鼓励,那么其最终得到的将是100%的纳粹倾向!
深度学习自身永远无法意识到屠杀犹太人、同性恋者以及残障人士属于错误的作法,而只会简单遵循训练数据当中提供的纳粹主义观点。也正因为如此,深度学习无法解释自己的决策——其会天真地认为“我经常读到纳粹主义是正确的论点,所以其应该是正确的。”
深度学习会学习并模仿那些明显存在缺陷的逻辑,而无法发现包括恐怖主义在内的各类错误思维的内在缺陷。然而,与深度学习不同,即使是小孩子也能够自行发现电影当中表现的反派角色。反向传播中的梯度下降以及自定义深度学习硬件等成果确实值得肯定,但其主要作用于统计与几何层面,因此我认为2037年的人工智能方案当中将不再以此作为主要判断依据。
对于众多任务,人工智能的深度学习将会变得不非法且有违合规性要求。根据即将于2018年5月25日正式实施的通用数据保护条例(简称GDPR)的要求,对28个欧盟国家公民数据进行收集的各相关方必须遵循其中的监管规定。届时,深度学习在欧盟区域之内的实际应用将受到严厉限制,意味着各人工智能初创企业必须尽快找到能够替代深度学习的其它实现途径,否则将面临遭遇巨额罚款的威胁。条例规定罚款数额将为跨国企业全球营收的4%——包括来自美国市场的收入。
而在自动化决策方面,GDPR需要相关实现技术给出锹,并防止其中包含与种族、观点以及健康等相关的歧视性因素。而与GDPR类似的其它法律条款在全球范围内的出台也只是时间问题。美国公平信用报告法案要求有关各方披露一切可能对消费者信用评分产生不利影响的因素,且此类因素最多只能同时存在4项。相比之下,深度学习中所囊括的因素数量往往成千上万,那么我们该如何将其简化为4项?展望未来,人工智能将如同比特币一样,在发展初期缺乏监管,但相关法律与惩罚制度终将出现。
深度学习的复杂性很难像非技术人解释清楚
深度学习系统需要作出远超必要数量的决策,才能完成判断某一图像内容是否为猫,或者如何在自拍图像中添加兔耳朵这类任务——很明显,未来将有更简单的非深度学习机制能够代替其处理这些工作。
与深度学习不同,人工智能方案必须以负责任的方式通过更为简单且合法有效的语言向无技术背景的法官及用户作出决策解释。对于法官及用户而言,深度学习的复杂性使其更像是一种“魔法”,这无疑是一类法律风险、而不仅是一项很酷的功能。深度学习能够向人类发出建议或警告——例如从医学影像当中检测疾病,并由医生加以验证,但这种自动化机制仍然缺乏充足的细节。我们可以设想,相关方要如何向被人工智能拒绝的用户(例如拒绝其贷款或者工作申请)作出解释?
法律当中包含“解释权”,即负责解释申请人的工作或贷款申请为何会被拒绝。然而,深度学习给出的结果不具备自然(法律)语言的解释内容。虽然能够提供深度学习变量页,但法官或用户仍然无法接受,因此即使是最杰出的数学家或其它算法也无法弄清其内容并将其简化为深度学习模型。另外,即使对于那些由人类作出决策的场景,人工智能工具也应该能够给出详细的可判断原因(例如据此否决人工智能的决策),或者通过简单地复制、粘贴以及确认由人工智能提供的解释内容以完成快速认证。
目前还没人知道要如何修改深度学习算法以给出与人类相近的简单解释内容,因此深度学习显然无法通过合规性审计!这个问题也同样影响到其它多种人工智能与机器学习算法,但这种影响程度远不及深度学习。在增强或组合的情况下,决策树也同样无法进行解释。但在未来,我相信会出现新型或者经过重新发明的认证机制,且其足以捍卫自己的决策并彻底替代传统深度学习以及人类的判断方法。
在GDPR的约束下,只有人力部门能够处理申请拒绝工作:人工智能仅可接受申请,而对贷款或工作申请的拒绝则必须被交由人力资源部门处理,只有这样才能为遭到拒绝的对象提供有说服力的解释信息。
但即使是在这样的情况下,如果人工智能选择拒绝,人力资源部门仍然无法获得任何帮助或者解释信息,也无从知晓深度学习所遵循的逻辑是对还是错。他们将被迫从头开始重新检查数据,从而决定是否仍然加以拒绝,并为此作出合理的解释。这样做的风险在于,为了节约时间与金钱,人力资源部门会倾向于为人工智能提供并不属实的拒绝解释,或者盲目接受人工智能的批准意见。
然而,法官会要求验证人工智能决策的公平性,包括询问为何情况类似的其他人会被接受等等。出于安全考虑,大家需要主动获取坚定的批准理由——无论GDPR等法律是否作出明确要求。未来的非深度学习型人工智能系统应能够提供人类可读的决策解释以供用户、法官以及支持人员进行参考,只有这样其才能被最终全面引入自动化决策流程。
可解释性在相关法律甚至是深度学习出现之前就已经存在。在反垄断案件当中,谷歌等企业被问及为何某些产品——而非其它产品——被显示在搜索结果的顶部。这意味着早在深度学习技术出现之前,其它众多算法同样在以令人无法理解的方式混合数据以获取结果,即没人能够轻松重构相关决策的产生原因。
工程师们向法官解释称他们也不确切了解整个决策过程,并提交线性代数页作为证据。但这并不能很好地解决争议,多起案件结果显示这些企业遭遇到数十亿美元的罚款,甚至在特定法律出台之前,其被警告需要对现有机制作出彻底改变。用户所提出的与就业、贷款以及退税等相关的拒绝判断成为集体诉讼中的“常客”,并导致相关零售、银行以及保险等自动化决策单位因无法作出合理解释而面临着罚款甚至是公关危机的挑战。
深度学习缺乏解释能力,可以解决任务十分有限
我们拥有的只是无法进行自我解释的“深度学习型人工智能”,而且由于缺乏解释能力,其可以解决的任务也十分有限。深度学习不会节约成本,也不能因为自动化决策内容的敏感性而中止处理。
对于大多数人来讲,人工智能的典型代表是科幻电影中那些能够进行智能解释的产物。更具体地讲,人类可以根据这些解释快速决定是否支持其论断,这意味着合法性验证的难度并不高。
正因为如此,包括法官以及GDPR立法者在内的大多数人都认为采用人工智能技术的企业应当能够像电影中一样将其引入法庭,且其有能力以简单明确的方式捍卫自己的决定。但实际情况恰恰相反,我们拥有的只是无法进行自我解释的“深度学习型人工智能”,而且由于缺乏解释能力,其可以解决的任务也十分有限。深度学习不会节约成本,也不能因为自动化决策内容的敏感性而中止处理。即使对于需要由人类作出最终决策的业务流程,我们也更期待能够出现可以解释自身建议的人工智能成果——而非如今这种无法给出任何原因或理由的“黑匣子”。
未来可能出现的可解释型人工智能方案将帮助各类机构更安全、更具合规性、更快速且以更低成本代替深度学习与人为处理流程。考虑到深度学习的诞生时间为上世纪六十到八十年代之间,因此也许能够实现这一要求的技术业已存在,只是等待着被重新发现或者是迎来一波脱胎换骨的升级。
在自动化决策制定方面,GDPR亦要求防止基于种族、观点乃至健康状况等因素的歧视性影响。然而,用户生成型数据(包括社交媒体与新闻)不同于医学或财务记录等实际情况数据,其中总是隐含着某些邪恶的偏见。
如前所述,深度学习能够读取大量文本与数据并模仿其内容倾向,但却无法以批判性方式加以理解。深度学习只会相信经常发现的结论,强调数据当中出现的模式与趋势,这无疑将进一步扩大人类社会中存在的偏见问题。
数据显示,黑人相较于白人拥有更高的入狱比例,因此如果出现相关案件,深度学习自然会首先怀疑黑人。数据显示,企业董事会中的男性成员要远多于女性成员,因此深度学习在考虑职位申请时将优先选择男性候选人。
深度学习的决策在歧视性、种族主义等问题
深度学习的决策在歧视性、种族主义以及性别歧的程度上将高于训练数据中的平均样本。这个问题存在于所有机器学习算法当中,但深度学习模型无疑是其中最难测试、检测、控制及调整的区间之一。这个问题很难得到解决,且会广泛引发诸如聊天机器人纳粹化与出现仇恨倾向、乃至美颜应用直接过滤图像中的黑人面孔等情况。
在训练完成后,我们无法通过平衡调校或安装补丁的方式解决深度学习模型中的歧视、种族主义或者性别歧视倾向。深度学习是一套神经网络,其与其它一些人工智能方法不同,意味着我们无法利用局部调整的方式编辑具体答案,而只能选择利用不同的、100%平衡且公正的数据对其进行重新训练。很明显,这类数据集非常罕见。
另外,深度学习模型会模仿其在数据集中发现的结论,但却并不能真正理解其含义:深度学习不会对任何数据加以否定,不会意识到其中代表着哪些不公正倾向,而仅仅简单进行“数据学习”。有鉴于此,我们可能需要雇用专门的人员为其创造理想条件下的伪公平数据,即白人的拘捕率与黑人一致,且其中50%为女性等等。
然而,为了训练深度学习而创造大量经过人为编辑的无偏见数据将耗费大量资源,其成本将导致人工智能变得缺乏实际意义!此外,即使我们训练出这样一套真正公平的深度学习模型,由于其无法作出任何解释,因此它仍然无法向法官或者用户自证判断结论的公平性。
在非商业应用或者不构成法律风险的游戏当中,深度学习有可能成为辅助性要素。当可解释人工智能方案出现之后,深度学习技术也不会像磁带机或者显像管电视那样被彻底淘汰。毕竟人们不会因为输给游戏机器人而向法院提起诉讼,宣传其无法解释自己如何获胜。
另外,即使人们对FaceApp在照片当中对年长、年轻或异性人物的面部进行修饰有所不满,也不会因人工智能无法解释其外貌判断过程而将其告上法庭。再有,只要用户在服用药物之前向医生进行确认,那么利用深度学习技术检测医疗影像中的疾病就非常安全。
深度学习更多代表着一种法律风险
合法深度学习市场在规模上存在严重局限: 法官可以对可能导致财务或健康差异,或者存在歧视性倾向的条件下提出罚款判决,而深度学习算法将无法理解该判决是否公正以及为何公正。
事实上,除了进行艺术创作、游戏设计或者笑话编辑之外,深度学习更多代表着一种法律风险。现有的非深度学习实现方法将在必要时取代深度学习,并凭借着相关新方法的发展而继续推动人工智能的历史进程。只有每个人都重视深度学习之外的一切人工智能与机器学习技术,我们才真正有可能成为“全面的人工智能专家”。
除了“非法”问题之外,深度学习在其它几类任务的解决方面同样非常无力:在抽象推理方面,人们需要弄清其所看到的数据是否公平,同时解释自己作出决策的逻辑。即使对于图像识别这类似乎最适合深度学习算法且不太需要解释的任务,深度学习的安全性仍然远不及人类。
事实上,我们完全可以用“敌对性样本”欺骗深度学习算法:在猫的照片当中添加无形干扰因素,即可误导深度学习算法将其内容视为狗。在这种情况下,尽管人类仍然会将其判断为猫,但深度学习却会将其判断为狗,或者其它由黑客悄悄植入的内容。如此一来,攻击者将能够通过篡改路牌干扰目前的自动驾驶车辆。未来的新型人工智能系统必须有能力解决这类黑客活动,从而全面替代深度学习类方法。
高人气深度学习库Keras作者在他撰写的《深度学习的局限性》一文中提到:“深度学习惟一的真正成功之处,在于其能够利用大量人类注释数据通过连续的几何变换将空间X映射至空间Y。”这些空间当中包含诸多维度——而不仅仅是三维,因此深度学习能够模仿毕加索的艺术风格、学习如何在德州扑克比赛中虚张声势,并完成其它一些能够体现人类创造性的任务。
但从外行的角度来讲,我认为这同时意味着深度学习会在不理解什么是猫的前提下通过训练学会如何识别照片中的猫,也能够在不清楚种族主义为何物的前提下抱有种族主义倾向。虽然这并不影响深度学习成功识别出猫、抱有种族主义倾向或者刻比赛,但其在根本上与人类的判断方式仍然相去甚远。
在《深度学习的未来》一文中,Keras库的作者描述了他对于深度学习系统只能在“几何模块”中才能同目前尚不存在的潜在未来“算法模块”与“元学习方法”进行交互的设想。虽然这种方法能够增加可解决任务的数量与类型,但仍然无法解释深度学习模块所作出的具体决策。
正如我们无法用言语来解释我们大脑当中计算得出的某种感觉或者图像一样,人类虽然能够给出一定的说明,但其往往只是一种自认为准确的简单化借口。在这样的前提下,要求机器作出非常准确的解释反而不太公平。
在另一方面,也有不少专家在努力构建起非深度学习型人工智能系统,但他们面临着缺乏资金的窘境——毕竟目前大家的投入重点仍然集中在深度学习身上,而这种狂热的态势仍将持续一段时间。没人知道人工智能的下一波浪潮何时才会到来,但我认为其不太可能体现为深度学习2.0。
眼于整个人工智能与机器学习领域
深度学习之所以得到广泛的关注与炒作,主要是因为那些销售深度学习软件与硬件的厂商的推波助澜。作为另一个角度的证明,大家可能会发现,并没有心理学家或者哲学家这类“自然智能”专家群体对深度学习提出支持。
如果大家并不急于在人工智能领域一试身手,或者没有太多时间投身其中,那么不妨跳过尝试学习1.0并等待人工智能系统的下一波变革——毕竟只有成熟的技术才值得我们进行学习。但如果您需要尽快掌握人工智能技术,那么请务必着眼于整个人工智能与机器学习领域,而非单纯关注深度学习。
【51CTO译稿,合作站点转载请注明原文译者和出处为51CTO.com】