机器人会取代人类吗?

人工智能 机器人
人工智能现在得到越来越广泛的应用,它们可以诊断疾病、驾驶汽车、理解语言,甚至在国际象棋比赛中击败人类顶尖高手。那么现在问题来了,人工智能经过不断改进,最终会达到甚至超过人类智能水平吗?达到甚至超过人类智能的机器人会取代人类吗?

人工智能现在得到越来越广泛的应用,它们可以诊断疾病、驾驶汽车、理解语言,甚至在国际象棋比赛中击败人类顶尖高手。那么现在问题来了,人工智能经过不断改进,最终会达到甚至超过人类智能水平吗?达到甚至超过人类智能的机器人会取代人类吗?

[[442120]]

实际上,这个问题一直让一代又一代的人们挥之不去而且深感不安。就像在斯坦利·库布里克(Stanley Kubrick)1968年的电影《2001太空漫游》(2001:A Space Odyssey)当中描述的,一台令人恐惧的智能计算机“哈尔”,通过自己平静的嗓音展现出了一些人类特有的能力:说话、推理、识别人脸、审美、表达情绪。在哈尔得知人类宇航员决定将其关闭时,哈尔将他们逐一杀害。这样可怕的情景会在未来出现吗? 

英国Mimecast公司首席数据科学家赫伯特·罗埃布莱特(Herbert L. Roitblat)在其《算法还不够:创建通用人工智能》一书中提出看法说:机器智能的改进不会导致机器主导的革命。它们可能会改变人们从事的工作类型,但不意味着人类生存的终结。机器人不会取代人类。

他为什么得出这样的结论?让我们先把目光投回到2000多年前的西西里岛的锡拉库扎。在那里,阿基米德正光着屁股泡在澡堂子里,苦苦思索国王交给他的一道难题。

据说,锡拉库扎国王希罗二世(公元前 270 至 前215 年)怀疑,他委托放置在一座寺庙雕像头上的奉献王冠不是由纯金制成的。阿基米德的任务是确定希罗二世是否被骗了。

最开始阿基米德找不到办法,因为不能将王冠敲碎了检查。然后有一天他泡澡,当他坐进澡盆里时,看到水往外溢,突然想到可以用测定固体在水中排水量的办法,来确定金冠的体积,通过相同质量的纯金的体积来确定王冠的真假。

然后,他就兴奋地跳出澡盆,连衣服都顾不得穿上就跑了出去,大声喊着“尤里卡!尤里卡!(我找到了!我找到了!)” 

罗埃布莱特将阿基米德的这个故事归类为洞察力问题,跟人工智能解决问题的方法完全不同。罗埃布莱特说,我们人类是有创造力的,而且具有非理性的和不一致的特点,这些特质(无论是好是坏)都是机器智能所不具备的。

一般来说,智力测试和计算机智能的重点一直放在结构良好和形式化的问题上。也就是说,问题具有明确的目标和一定数量的可能解决方案。洞察力问题通常无法通过像算法这样的分步程序来解决。相反,洞察力问题的特征是求解者解决问题的方法的一种重构。在问题基本上得到解决之前,通常很难确定是否取得了任何进展,然后可能就突然找到了解决方案。

关于人类如何解决洞察力问题,我们知之甚少。在实验室中深入研究这些问题通常具有挑战性,因为很难要求人们描述他们解决问题所经历的步骤。我们都知道,人们并不总是按照逻辑思维所建议的系统方式行事。这些偏差不是人类思维中的小故障或错误,而是实现人类智能的基本特征。

除了洞察力问题,人类智能还有非理性的特征,这种说不上是优点的特点,也让机器智能无法超越,是不是有点可笑?

人类似乎通常不会过多关注问题的形式部分,尤其是在做出有风险的选择时。心理学家阿莫斯·特沃斯基 (Amos Tversky) 和丹尼尔·卡尼曼 (Daniel Kahneman) 发现,人们在面对本质上相同而描述上有差异的选择时会做出不同的选择。

他们进行了一项实验,参与者被要求想象一种新的疾病威胁着这个国家,可能有 600 人死于这种疾病。他们进一步被告知,已经提出了两个计划来治疗这些人。参与者被分为两个组,被要求在两种治疗方法之间进行选择。在第一组中,他们被告知:

72% 的参与者选择了治疗 A。人们认为,确定能挽救 200 人比有可能失去全部 600 人更可取。

第二组参与者被给予相同选择的不同版本:

在第二组中,22% 的参与者选择了治疗 A。

实际上,从死亡和存活人数来看,治疗 A 对两组来说都是相同的。但换了一种说法之后,人们的选择就大相径庭。

上述实验说明人们的偏好差异是巨大的。第一个版本强调了替代方案的积极方面,第二个版本强调了消极方面。戏剧性地,人们更喜欢积极的版本。

值得注意的是,备选方案 B 在两种情况下也是相同的。在备选方案 B 下生存的预期人数也是 200,但该备选方案包含不确定性。

实验表明,当某个结果以积极的语气构筑时,人们更喜欢确定的结果而不是不确定的结果,而当以否定的语气构筑某个特定的结果时,人们更喜欢不确定的选择。备选方案的框架或基调控制着参与者接受风险的意愿。

上述实验可以说这是人类愚蠢而不是人类智慧的一个例子。但另一方面,这个错误可能会告诉我们一些关于我们如何做出决定的重要信息。正确和错误的决定都是由相同的大脑/思想/认知过程产生的。

这些心理现象表明,我们的思维和智力过程具有复杂性,这并不总是对我们有利。我们妄下结论,我们更容易被我们更喜欢的或者以某种方式表述的论点说服。我们有时确实表现得像电脑,但更多时候,我们是马虎和不一致的,与电脑完全不同。

丹尼尔·卡尼曼将人类思维描述为由两个系统组成,一个是快速、相对不准确和自动的;另一个是缓慢的、深思熟虑的,当它最终得出结论时,也更准确一些。

计算机智能专注的工作需要缜密思考的系统,但快速思考的系统可能同样重要或者更重要,而且对于在计算机中进行仿真可能更具挑战性。这种快速学习有时可能会导致不恰当的草率概括,但它也可能是一个重要的工具,让人们可以在没有大多数机器学习系统所需的大量示例的情况下学习很多东西。

罗埃布莱特总结说,如果机器学习系统所需的只是发挥其分析能力,那么机器很可能会超过人类解决类似问题的能力。另一方面,如果问题需要发散思维、常识知识或创造力,那么计算机将在一段时间内继续落后于人类。

被计算机“深蓝”击败的国际象棋大师卡斯帕罗夫说,“深蓝”的智能程度跟一台可编程闹钟是一样的。

当然,他也补充说:“但并不是说输给一台价值1000万美元的闹钟会让我感到好过一些。”

 

责任编辑:华轩 来源: 今日头条
相关推荐

2023-05-24 13:04:46

机器人人工智能

2020-05-13 14:26:14

机器人体育运动人工智能

2023-05-02 22:34:21

聊天机器人人工智能

2017-03-11 11:19:43

机器人取代人类

2021-04-19 20:30:06

机器人AI人工智能

2020-12-08 11:06:52

人工智能机器学习

2022-12-08 09:17:30

ChatGPT漏洞AI

2017-03-21 08:31:33

人工智能

2020-10-22 10:23:22

机器人工智能技术

2017-03-28 09:23:04

科技新闻早报

2021-03-07 12:35:24

人工智能AI

2021-09-21 10:33:56

人工智能科学技术

2017-03-30 11:21:31

百胜机器人人工智能

2021-02-15 15:28:38

机器人人工智能春晚

2020-10-22 13:09:26

人工智能

2020-09-27 10:28:22

人工智能机器学习技术

2020-06-01 09:29:10

人工智能技术机器人

2021-10-27 10:41:06

机器人人工智能AI

2018-07-11 10:19:44

机器人工智能白领

2020-07-10 08:34:45

人工智能机器人技术
点赞
收藏

51CTO技术栈公众号