人工智能对人类文明造成威胁?我们来看看AI安全

移动开发
著名物理学家史蒂芬·霍金【注1】最近发出了警告,如果人工智能超过了人类智能,就对人类文明的存在造成了威胁。数字货币、私人太空飞行和电子汽车的先驱Elon Musk,也表示了类似的担忧。

[[125155]]

Kurzweil写了五本人工智能(Artificial Intelligence,简称AI)方面的书,有一本是纽约时报的畅销书《How to Create a Mind》。

两位伟大的思想家看到了AI的危险。下面谈谈怎样让AI安全。

著名物理学家史蒂芬·霍金【注1】最近发出了警告,如果人工智能超过了人类智能,就对人类文明的存在造成了威胁。数字货币、私人太空飞行和电子汽车的先驱Elon Musk,也表示了类似的担忧。

如果AI成为了存在的威胁,那么它不会是***个。在我孩提时代的、1950年人防演习期间,我坐在桌子底下。从那以后,我们就遇到了可比较的恐惧,比如生物恐怖主义者创造了一种人类无法抵抗的新病毒。火能够温暖我们、也能烧掉我们的村庄,技术总是一把双刃剑。

典型的反乌托邦未来主义的电影,总是有一到两个主人公或团体在为了控制人工智能而战。AI正被集成到当今世界。AI不是一只手或两只手;它是10亿或20亿只手。持有智能手机的非洲孩子,比起20年前的美国总统,已经能够更加智能地访问知识了。随着AI更加聪明,它的用途仍然在增长。实际上,每个人的智力在近10年内已经被AI放大了不少。

我们在人群中仍然有冲突,每个群体都被AI放大了,这已有先例。但是,暴力呈现着深远的、指数级的减少,我们可以从中感到安慰,正如Steven Pinker的2011年的书《The Better Angels of Our Nature》中提到的:为什么暴力减少了。根据Steven Pinker的观点,虽然地点不同导致统计数据不同,但是战争的死亡率与六个世纪以前相比,已经下降了数百倍。从那以后,谋杀降低了十倍。人们对此感到吃惊。暴力在上升的印象,起源于另一种趋势:关于世界上负面的信息,有着指数级的详实程度——它是被AI支持的另一种发展。

我们能够部署一些策略来保持新兴的、像AI安全之类的技术。考虑到生物技术,或许已经领先AI数十年了。在1975年召开的关于重组DNA的阿希洛马会议评估了其潜在危险,并规划了战略以确保该领域的安全。从那以后,***的方针已经被行业做了改进,运转非常好:在过去的39年,已经没有重大问题了,偶然的或故意的。我们现在看到了达到临床实践的药物治疗取得的巨大进步,远远没有出现预期的问题。

对于AI的道德规范的考虑,可以退回到艾萨克·阿西莫夫(Isaac Asimov)1942年的短篇小说《环舞》(Runaround)【注2】的机器人三大定律【注3】,8年后,艾伦·图灵在1950年发表的论文“计算机器与智能”中的AI领域。今天AI从业者的普通看法就是,我们要完成人类级别的AI仍然需要数十年。我更加乐观地把时间压在了2029年,但是不管怎么说,我们还有时间来规划道德标准。

已经有大学和企业在努力推动AI安全策略和方针了,有的已经步入正轨。与阿希洛马会议的方针类似,一个想法就是,清晰地定义每个AI程序的使命,建立加密的安全保护以阻止未授权用户。

末了,我们能够确保AI安全的最重要方法就是致力于人类管理和社会制定。我们已经到了 人-机文明 的时代。未来避免消极冲突的***方式,就是继续发展我们社会理想,它极大地减少了暴力。

如今,AI正在推进疾病诊断、寻找治疗方法、开发可再生清洁能源、帮助清洁环境、向全世界的人们提供高质量的教育、帮助残疾人(包括史蒂芬·霍金的声音)以及在无数种其它方式上贡献着力量。未来数十年,我们有机会在处理人类的巨大挑战上迈开一大步。在控制这种危险时,我们在道义上有责任去实现这个诺言。这将不会是我们***次在这方面取得成功。

  • 注1:史蒂芬·霍金;,OCH,CBE,FRS,FRSA(英语:Stephen Hawking,1942年1月8日-),英国著名物理学家,是剑桥大学理论宇宙学中心研究主任。霍金做出很多重要贡献:他与罗杰·彭罗斯共同合作提出在广义相对论框架里的彭罗斯–霍金定理,他理论预测黑洞会发射辐射,现称为霍金辐射。http://zh.wikipedia.org/wiki/%E5%8F%B2%E8%92%82%E8%8A%AC%C2%B7%E9%9C%8D%E9%87%91
  • 注2:《环舞》(Runaround)是美国作家艾萨克·阿西莫夫创作的一篇短篇科幻小说,里面有在其之后的多部小说中多次出现的人物鲍威尔(Powell)和杜鲁门(Donovan)。这篇小说写于1941年10月,初次出版在1942年三月的《超级科学故事》(Super Science Stories)杂志上。http://zh.wikipedia.org/wiki/%E7%8E%AF%E8%88%9E_(%E7%9F%AD%E7%AF%87%E5%B0%8F%E8%AF%B4)
  • 注3:机器人三定律(Three Laws of Robotics)是科幻小说家艾萨克·阿西莫夫(Isaac Asimov)在他的机器人相关作品和其他机器人相关小说中为机器人设定的行为准则,是阿西莫夫除“心理史学”(Psychohistory)外另一个著名的虚构学说。http://zh.wikipedia.org/wiki/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A%E5%BE%8B

英文原文:http://time.com/3641921/dont-fear-artificial-intelligence/

译文出自:http://www.labazhou.net/2014/12/dont-fear-artificial-intelligence/

责任编辑:林师授 来源: 腊八粥
相关推荐

2017-04-27 20:45:51

人工智能霍金人类文明

2021-03-17 10:32:51

人工智能

2017-12-13 16:30:53

霍金人工智能

2017-12-04 09:23:00

人工智能信息化智能

2018-05-15 09:25:09

2023-07-03 09:47:28

2021-08-20 20:00:41

人工智能AI

2023-05-26 15:36:56

2017-11-06 13:34:17

人工智能造福威胁人类

2023-02-17 14:56:42

2021-03-19 10:22:03

人工智能

2021-01-03 18:01:15

人工智能AI网络安全

2022-09-26 10:56:46

人工智能智能物联网

2023-06-16 08:07:28

2018-04-23 08:41:57

人工智MongoDB数据驱动

2021-01-04 15:54:07

人工智能人工智能技术

2018-09-27 15:52:20

人工智能人类AI

2022-07-29 14:59:22

人工智能军事防御安全

2023-11-06 16:04:40

人工智能网络安全

2021-03-09 10:37:59

人工智能超人工智能
点赞
收藏

51CTO技术栈公众号