关于人工智能的四大误区

人工智能
在人工智能的发展历史上,通常是最初充满乐观和希望,随后带来的是幻灭与失望,而这样的过程循环反复。当今的人工智能系统可以在广泛的领域中执行复杂的任务,例如数学、游戏以及逼真图像的生成。但是当接近人工智能的一些早期目标时(例如管家机器人和自动驾驶汽车),这些目标却逐渐迷失。

圣菲研究所教授、《人工智能:思考人类的指南》的作者Melanie Mitchell表示,这些目标迷失的一部分原因是对人工智能和自然智能的错误假设。

[[398806]]

在最近一篇题为“为什么人工智能比我们想象的更难”的文章中,Mitchell提出了四个关于人工智能的常见误区。

1.狭义人工智能和通用人工智能只是规模不同

如今采用的人工智能可以很好地解决狭义问题。人工智能系统可以在下围棋和国际象棋方面超越人类,以超乎寻常的准确性在X射线图像中发现癌变模式,并将音频数据转换为文本。但是,可以解决特定问题的人工智能系统设计并不一定会使人们更容易解决更复杂的问题。Mitchell将第一个误区描述为“通用人工智能是是狭义人工智能的一种延伸。”

Mitchell在文章中写道:“人们看到狭义人工智能系统做了一些令人惊奇的事情,因此通常会认为该领域在朝着通用人工智能迈进的道路上走得更远。”

例如,当今的自然语言处理系统已经朝着解决翻译、文本生成、特定问题答疑等诸多不同问题的方向发展了很长时间。与此同时,现在还有能够实时将语音数据转换为文本的深度学习系统。每一项成就的背后都是数千小时的研发工作,以及在计算和数据上花费大量资金。但是人工智能社区仍然没有解决创建能够进行开放式对话而又不会长时间失去连贯性的问题。这样的人工智能系统还需要解决更复杂的问题。它需要具备常识,这是人工智能尚未解决的关键挑战之一。

2.简单的事情很难实现自动化

视觉对于人工智能来说仍然是一个难以克服的挑战。

人们通常希望更聪明的人来解决更复杂的事情,其实这需要多年的学习和实践。例如包括具备微积分和物理方面的专业知识,而与象棋大师下棋或背诵很多诗歌则是更艰难的任务。

但是数十年来的人工智能研究证明,一些更艰巨的任务更容易实现自动化。人们认为理所当然的简单任务却很难实现自动化。Mitchell将第二个误区描述为“容易的事情很容易解决,而困难的事情则更难以解决。”

Mitchell在文章中写道,“人类可以不加思索做很多的事情,了解所看到的东西,进行对话,在拥挤的人行道上行走而不会撞到任何人,这对机器来说是更艰巨的挑战。与其相反,让机器去做对人类来说非常困难的事情通常会更容易;例如,解决复杂的数学问题,精通国际象棋和围棋之类的游戏,以及采用数百种语言翻译文章,这对于机器来说都变得相对容易。”

例如机器人的视觉。数十亿年来,生物体已经开发出用于处理光信号的复杂设备。动物利用眼睛观察周围的物体,在周围的环境中导航,寻找食物,发现威胁,并完成许多对其生存至关重要的任务。人类也从祖先那里继承了这些能力,并且在无意识的情况下使用它们。但是,其基本机制确实比使高中和大学学到的数学公式更为复杂。

如今,研究人员致力于开发像人类视觉一样多功能的计算机视觉系统。并且成功地创建了人工神经网络,可以大致模拟动物和人类视觉系统的某些部分,例如检测物体和分割图像。但是它们很脆弱,对各种各样的干扰都很敏感,而且它们不能模拟生物视觉所能完成的全部任务。这就是需要采用其他技术的原因。例如,用于自动驾驶汽车的计算机视觉系统需要采用先进的其他技术,例如激光雷达和地图数据。

另一个被证明是非常困难的领域是感觉运动技能,人类无需经过特别训练即可掌握这些技能。例如行走、奔跑和跳跃。这些是人们无需特意思考就可以完成的任务。实际上,人们在走路时可以做其他事情,例如听音乐或打电话。但是,对于当前的人工智能系统而言,这些技能仍然是一项巨大而复杂的挑战。

Mitchell写道:“人工智能比我们想象的要难,因为我们很大程度上不了解自己的思维过程的复杂性。”

3.采用拟人化术语描述人工智能

将当代的人工智能系统与人类智能进行类比,会对人工智能的发展现状产生错误的印象。

人工智能领域通常充斥着一些术语,使其与人类智能处于同等水平。我们使用诸如“学习”、“理解”、“阅读”和“思考”之类的术语来描述人工智能算法的工作方式。尽管这种拟人化的术语通常是帮助传达复杂软件机制的称呼或简写,但可能会误导人们认为当前的人工智能系统的工作方式与人类的思维方式类似。

Mitchell将这一误区称为“如愿记忆法(wishful mnemonics)”,他指出:“这种称呼或简写可能会误导试图理解这些结果的公众(以及报道这些结果的媒体),并且还会无意识地影响甚至人工智能专家的思考方式,以及他们开发的人工智能系统与人类智能的相似程度。”

“如愿记忆法”也导致人工智能社区以令人误解的方式命名算法评估基准。例如,考虑由人工智能中一些权威组织和学术机构开发的通用语言理解评估(GLUE)基准。通用语言理解评估(GLUE)提供了一组任务,这些任务可以帮助评估语言模型如何将其功能推广到更广的范围。但是,与媒体所描述的相反,如果人工智能代理获得的通用语言理解评估(GLUE)得分高于人类,则并不意味着它的语言理解能力要高于人类。

Mitchell写道:“虽然在这些特定基准上机器的性能优于人类,但人工智能系统仍然远远不能与我们与基准名称联系在一起的人类能力相匹配。”

“如愿记忆法”的一个典型例子是Facebook人工智能研究公司在2017年开展的一个项目,其中科学家训练了两个人工智能代理以基于人类对话的任务进行谈判。研究人员在他们的博客文章中指出,“更新两个人工智能代理的参数会导致与人类语言的差异,因为代理开发了自己的语言来进行交互。”

这导致行业媒体撰写了一系列文章提出警告,指出人工智能系统可能变得比人类更智能,并且正在以自己的语言进行交流。而在四年后的今天,这些先进的语言模型仍然难以理解大多数人在幼年时就能理解的基本概念。

4.与身体分离的人工智能

智力能与身体相互分离存在吗?这是科学家和哲学家几个世纪以来一直困惑的问题。

一种思想流派认为,智力全在大脑中,并且可以与身体分离,这也被称为“缸中之脑”理论。Mitchell表示,“智力全在脑中”是人们的一个误区。有了正确的算法和数据,人们就可以创建可以运行在服务器中并与人类智能相匹配的人工智能。对于这种思维方式的支持者,尤其是那些支持基于纯深度学习的方法的人来说,达到通用人工智能的水平取决于收集适量的数据并创建越来越完善的神经网络。

与此同时,越来越多的证据表明这种方法注定会失败。Mitchell写道:“越来越多的研究人员正在质疑‘智力全在脑中‘信息处理模式理解智能并创建人工智能的基础。”

人类和动物的大脑也与自己的身体器官一起进化,其最终目标是提高生存机会。人类的智力与身体的极限和能力紧密相关。嵌入式人工智能的领域不断扩大,其目的是通过与不同环境的交互来创建能够开发智能的主体。

Mitchell指出,“神经科学研究表明,控制认知的神经结构与控制感觉和运动系统的神经结构紧密相连,抽象思维利用了基于人体的神经‘地图’。” 越来越多的证据和研究证明,来自大脑不同感觉区域的反馈会影响人们的有意识和无意识思维。

Mitchell支持这一种观点,也就是情绪、感情、潜意识偏见、身体体验与智力密不可分。她写道:“在我们的心理学或神经科学知识中,没有任何东西支持‘纯粹理性’与影响我们认知和目标的情感和文化偏见是分离的。与其相反,人类的智力似乎是一个高度集成的系统,具有紧密相连的属性,包括情感、欲望、强烈的自我意识和自主意识,以及对世界的常识性理解。现在还不清楚这些属性是否可以分开。”

人工智能的常识

开发通用人工智能需要调整人们对智能本身的理解。人们仍在努力定义什么是智能以及如何在人工和自然生物中衡量人工智能。

Mitchell写道,“很明显,为了更有效地实现和评估人工智能的进步和发展,我们将需要开发出更好的术语来谈论机器可以做什么。从更广泛的意义上来说,我们将需要对智能有着更好的科学理解,因为它体现在自然界的不同系统中。”

Mitchel在论文中提到的另一个挑战是常识,她将其描述为“一种为当今最先进的人工智能系统所缺少的能力提供的保护伞”。

这些常识包括人们获得的有关世界的知识,并且每天无需付出太多努力就可以应用。当人们还是孩子的时候,在没有得到明确指导的情况下通过探索世界而学到很多东西,其中包括诸如空间、时间、重力、物体的物理属性之类的概念。例如,人们在幼儿期间就知道,当一个物体被另一个物体挡住时,它并没有消失并继续存在;或者当球滚过桌子之后将会掉下来。人们使用这些常识来构建世界的心理模型,进行因果推断,并以相当准确的方式预测未来的状态。

当今的人工智能系统缺少这种知识,这使它们变得不可预测且需要大量数据。实际上,人工智能助理和自动驾驶汽车是大多数人通过常识和实践学习的东西。

这些常识还包括有关人性和生活的基本事实,人们在对话和写作中忽略对一些事物的描述,因为知道读者和听众都知道这些。例如,人们知道如果两个人在“打电话”,则意味着他们不在同一个房间。人们还知道,如果“有人伸手去拿糖”,则意味着在他附近某处有一个装糖的容器。这种知识对于自然语言处理等领域至关重要。

Mitchell写道,“还没有人知道如何在机器中获取这些知识或能力。这是目前人工智能研究的前沿领域,一个令人鼓舞的前进方向是利用这些能力开发的已知知识。”

 

尽管人们仍然不知道许多问题的答案,但找到解决方案的第一步是要意识到自己的错误思想。Mitchell写道:“了解这些误区及其微妙的影响,可以为创造更健壮、更可信、更智能的人工智能系统指明发展方向。”

 

责任编辑:华轩 来源: 企业网D1Net
相关推荐

2023-05-04 14:56:03

2021-01-07 15:09:24

人工智能人工智能误区

2018-08-16 21:13:09

人工智能AI机器人

2018-08-15 10:18:55

2023-06-26 11:11:43

人工智能软件测试

2019-03-01 14:40:00

人工智能AI

2020-10-29 14:19:16

人工智能

2021-10-26 16:22:35

人工智能新基建技术

2021-04-08 11:20:24

零信任网络安全网络攻击

2018-01-22 11:15:48

人工智能数据科学家Java

2020-07-10 17:40:01

人工智能网络技术

2017-02-13 14:56:44

ISSCC人工智能趋势

2010-08-30 15:48:09

2010-11-22 15:25:08

2023-08-03 14:45:00

数字孪生

2018-04-14 08:15:32

2018-12-04 14:15:29

容器误区开发

2020-11-02 08:35:29

人工智能

2017-03-08 10:00:03

人工智能医疗虚拟助理

2018-08-17 15:17:56

人工智能层次极端
点赞
收藏

51CTO技术栈公众号