人工智能技术具有正、反两方面的作用,在造福于人类的同时,也存在各种风险。理论上可能存在以下四种风险。
技术失控。技术失控指的是技术的发展超越了人类的控制能力,甚至人类被技术控制,这是很多人最为担忧的风险。现有人工智能技术仅在满足强封闭性准则的条件下,才可发挥其强大功能;在非封闭的场景中,现有人工智能技术的能力远远不如人类,而现实世界的大部分场景是非封闭的。所以,目前不存在技术失控风险。
技术误用。与信息技术相关的技术误用包括数据隐私问题、安全性问题和公平性问题等,人工智能技术的应用可以放大这些问题的严重程度,也可能产生新的技术误用类型。在现有条件下,人工智能技术本身是中性的,是否出现误用完全取决于技术的使用。因此,对人工智能技术误用的重视和风险防范应提上议事日程。
应用风险。应用风险指的是技术应用导致负面社会后果的可能性。目前人们最担心的是人工智能在某些行业中的普遍应用导致工作岗位的大量减少。应用风险是由技术的应用引起的,因此关键在于对应用的掌控。根据强封闭性准则,人工智能技术在实体经济中的应用往往需要借助于场景改造,而场景改造完全处于人类的控制之下,做多做少取决于相关的产业决策。
管理失误。人工智能是一项新技术,它的应用是一项新事物,社会缺乏管理经验,容易陷入“一管就死,一放就乱”的局面。为此,更需要深入理解人工智能现有成果的技术本质和技术条件,确保监管措施的针对性、有效性。
目前对人工智能存在三种认识误区:
一是人工智能已经无所不能,因此现有人工智能技术可以无条件地应用。根据强封闭性准则,现有人工智能技术远未达到无所不能的程度,应用是有条件的。因此,在产业应用中亟须加强对强封闭性准则的认识,加强场景裁剪和场景改造,避免违反强封闭性准则的盲目应用,而这种盲目目前在国内外都十分普遍,不仅浪费资源,更严重的是干扰了有希望成功的应用。
二是现有人工智能技术不能大规模实际应用,因为现有人工智能技术依赖于人工标注,并不智能。现有人工智能技术并不局限于深度学习,而暴力法和训练法的结合可以避免人工标注,而且符合强封闭性准则的应用场景可以有效地实施数据采集和人工标注。目前一些应用不成功的原因在于违反了强封闭性准则,而不是因为现有人工智能技术不能应用。这个误区往往发生在对人工智能技术有一定了解而认识不到位的情况下。与第一种误区一样,这种误解会严重影响我国人工智能产业应用的进度。
三是在未来20年—30年内,人工智能技术发展将超越某个临界点,之后人工智能将不受人类控制自由发展。根据强封闭性准则和全球人工智能研究现状,这种“奇点说”在技术范围内没有任何科学依据。封闭性准则包含的一些条件,如模型的语义完全性、代表性数据集的有限确定性,通常需要借助于强封闭性准则要求的人工措施的辅助才可以满足。假想未来有可能突破这些限制,与人工智能目前已具备突破这些限制的能力,完全是两回事。即使将来突破了某种限制,还会有新的限制加以约束。这一类说法无形中假定,可以存在脱离具体条件的人工智能技术。这种技术是否可能存在,目前并没有任何科学证据的支持,有待于未来的观察和研判。
以上三种误区是我国人工智能发展的主要思想障碍。封闭性和强封闭性准则立足于现有人工智能技术本质,为消除这些误区提供了依据,也为观察、思考和研究人工智能发展的其他问题,避免重复以往人为放大“周期性起伏”的干扰,提供了一种新的视角。