人工智能(AI)的最糟糕应用场景在好莱坞电影大片中屡见不鲜:机器学会了类似人类的智能,具备了感知能力,免不了变成邪恶的霸主,并企图摧毁人类。这种叙事技巧利用了我们对技术的先天恐惧,反映出时常伴随新技术产生的深刻变化。
不过,就像机器学习工程师,同时也是小说《量子价格》(The Quantum Price,2019年)作者的马尔科姆•默多克(Malcolm Murdock)所说的那样:“人工智能要想杀死我们,不一定要有感情。在有感情的人工智能成为问题之前,就有很多可能消灭我们的场景。”
通过对人工智能专家的采访,本刊揭示了真实世界中的6个最糟糕的人工智能场景,这些场景远比电影中描绘的平淡,但它们依然是反乌托邦的。大多数这些场景都不需要恶毒的独裁者来实现。相反,如果不采取措施进行阻止,这些可能会轻易成为默许场景并自然地呈现出来。为了防止这些最糟糕的场景发生,我们必须摒弃对人工智能的流行文化看法,谨慎对待其意外后果。
1.当虚构来定义我们的现实
如果让虚构来定义我们的现实,那么就可能发生不必要的悲剧。然而,在数字世界中我们无法分辨真假,如何进行选择呢?
在可怕的场景中,不断增多的深度伪造(高级机器学习工具产生的伪造图像、视频、音频和文本等)有一天可能会导致国家安全决策者根据错误信息在真实世界中采取行动,从而造成重大危机,甚至更严重地引发战争。
乔治敦大学安全和新兴技术中心(CSET)的高级研究员安德鲁•洛恩(Andrew Lohn)说:“现在,采用人工智能的系统能够(大规模)生成虚假信息。”通过产生大量、多变的虚假信息,这些系统能够混淆其本质,进行优化并获取成功,随着时间的推移,提高其预期影响。
在紧要关头,如果无法及时地确认信息的真实性,深度伪造的概念就足以导致领导者行动时犹豫不决。
德国汉堡研究和安全政策研究所的研究员玛丽娜•法瓦罗(Marina Favaro)指出:“深度伪造损害了我们对信息流的信任。”深度伪造导致的作为和不作为都可能会给世界带来灾难性的后果。
2.逼近底线的危险竞争
涉及人工智能和国家安全时,速度是重点也是难点。采用人工智能的系统能够给用户带来更大的速度效益,发展军事应用领先的国家将具备战略优势。不过,在这个过程中,可能会牺牲哪些设计原则呢?
系统的微小缺陷和被黑客利用会造成形势崩溃。乔治敦大学安全和新兴技术中心的战略总监海伦•托纳(Helen Toner)表示,危机可能会“从一次无恶意的单点故障开始,故障导致所有通信中断,引发人们的恐慌并造成经济活动停滞。信息持续缺失,伴随其他误判,可能会造成事态急剧失控。”
瑞典斯德哥尔摩国际和平研究所(SIPRI)的高级研究员文森特•博拉宁(Vincent Boulanin)警告说,重大灾难可能会导致“大国为了抢占先机而抢先走上捷径。如果一个国家将速度优先于安全、检测或人类监督,那就会形成逼近底线的危险竞争。”
例如,为了获得速度优势,国家安全负责人可能会被诱惑下放指挥和控制权,去除对我们并未充分了解的机器学习模型的人工监督。在这种场景中,无需人类授权便可启动的导弹防御系统,可能会导致事件意外升级并引发核战争。
3.隐私和自由意志的终结
每一次数字行为都会产生新的数据,如电子邮件、文本、下载、采购、信息发布、自拍和GPS定位等。在允许企业和政府不受限制地访问这些数据的过程中,我们拱手交出了监督和控制的工具。
再加上面部识别、生物特征提取、基因组数据,以及采用人工智能的预测分析,乔治敦大学安全和新兴技术中心的洛恩很担心:“随着通过数据进行监管和跟踪的增多,我们进入了一个未知的危险领域,我们对潜在影响几乎一无所知。”
经过收集和分析的数据力量远远不止检查和监督等预测性控制功能。如今,采用人工智能的系统能够预测我们购买什么商品、观看什么娱乐节目,以及会点击哪些链接。如果这些平台比我们更了解我们自己,我们可能无法注意到自己的自由意志逐渐被剥夺,并受到外部力量的控制。
4.人类行为实验
孩子延迟即时满足的能力,等待第二块棉花糖,曾被认为是预测人生成功的重要指标。很快,即便是获得第二块棉花糖的孩子也会屈服于撩人的参与算法。
社交媒体用户已经成为了实验室里的小白鼠,生活在人类的斯金纳箱中,紧盯着智能手机屏幕,被迫牺牲珍贵的时间和精力,贡献给从中赢利的平台。
乔治敦大学安全和新兴技术中心的海伦•托纳说:“算法被优化,尽可能让用户长时间停留在平台。”马尔科姆•默多克解释道,通过点赞、评论和关注等形式提供奖励,“算法让我们大脑的工作短路,让我们无法抗拒地继续参与。”
为了最大限度地追求广告利润,企业在我们的工作、家庭和朋友、责任,甚至业余爱好中,偷走我们的精力。更可怕的是,平台的内容让我们感觉比以前更痛苦、更糟糕。托纳警告道:“在这些平台上花的时间越多,我们在追求积极、丰富、有意义的生活上花的时间就越少。”
5.人工智能设计的专制
每天,我们把更多的日常生活交给采用人工智能的机器。这很成问题,正如霍洛维茨所说:“我们还没有充分认识到人工智能的偏见问题。即便是出于善意,采用人工智能的系统设计(包括训练数据和数学模型)也反映了设计者有偏见的狭隘经验和利益。我们每个人都有偏见。”
因此,美国佛罗里达州克利尔沃特IT安全公司KnowBe4的新兴技术分析高级副总裁莉迪亚•科斯托普洛斯(Lydia Kostopoulos)表示:“许多采用人工智能的系统未能考虑不同人的不同经验和特征。”由于人工智能解决问题的根据是有偏见的观点和数据,而不是每一个个体的独特需求,因此这种系统产生的某种程度的一致性,在人类社会是不存在的。
甚至在人工智能兴起之前,我们日常生活中常见物品的设计也往往是迎合特定类型的人群而设计的。例如,研究表明,汽车、手机等手持型工具,甚至是办公环境中的温度设定都是针对中等身材的男性而设计的,这给身材和体型不同的人群(包括女性)带来了诸多不便,有时甚至会给他们的生活带来很大风险。
当处于偏见常态之外的个体被忽略、被边缘化、被排斥时,人工智能就成为了卡夫卡式的“看门人”,导致这些人无法享受客户服务、获得工作、享受医疗卫生服务,等等。人工智能设计的决策会限制人们,而不是将其从日常问题中解放出来。此外,这些选择会将有些不好的人类偏见转化成为种族和性别的歧视和风险实践,以及有严重缺陷和偏见的判决结果。
6.对人工智能的恐惧使人类不再受益
随着计算能力和运行硬件复杂性的提高,人工智能的功能一定会增强,社会对人工智能的恐惧似乎只会随着时间而增强。“人工神经网络可以做出非常疯狂的事。”默多克说,“我们需要谨慎对待相关风险。”不过,如果人们过于害怕人工智能,以至于政府对人工智能进行严格管控,使得人类不再受益,那又会怎样呢?例如,DeepMind的AlphaFold程序实现重大突破,能够预测氨基酸是如何折叠形成蛋白质的,科学家因此有可能确定人类98.5%的蛋白质结构。这一里程碑将为生命科学的快速发展建立富有成效的基础。再比如,人工智能通过各种人类语言组合的流畅翻译,使推进跨文化交流和理解成为可能;采用人工智能的系统可以识别新的疾病治疗和护理方法等。为了防止发生人工智能的最坏结果,政府的本能性监管行为也可能带来事与愿违的效果,产生意外的负面影响,导致我们害怕这种强大技术的威力,抵制利用它真正为世界造福。