终有一天,也许是在几十年之内,我们可能会使用人工神经网络制造机器、以具备现实意义的方式模拟人类大脑。但到那个时候,具有如此威能的造物要如何保证安全?如何确保AI不会像人类这样极易被外力所诱导与操控?
机器人,也会被催眠吗?
AI领域的至高圣杯,无疑是实现与人类相信的智能水平。很多不熟悉这一专业领域的朋友往往被炒作性质的报道所误导,以为现代AI已经具备极高的智能。
但事实上,世界上还没有任何一台机器人能够直接走进厨房,在无需外力帮助的前提下泡出一杯香浓的咖啡。
为什么这么简单的工作也能难倒AI?因为它还不具备真正的思考能力。AI并没有“思维的舞台”,也创造不出基于记忆及激励因素的新颖思想。相反,它只是根据被告知的方式,将输入内容转换为输出结果。
但也有一些AI研究人员认为,在深度学习之外,还有其他能够实现更趋“自然”的AI形式的途径。
通往人工通用智能(AGI,普遍认为AGI就是具备人类智能水平的AI)的常规道路之一,就是使用人工神经网络模拟人脑的运作方式。但既然是要模拟人脑,那么机器智能是否也会被催眠师所俘获?
有杀手机器人,就有杀手催眠机器人
有些人害怕“终结者”这样毫无人性的机器会突然闯进家门。但更恐怖的,也许反而是机器身上较为“人性”的一面。
作为极富争议的领域之一,催眠术似乎拥有着神奇的力量。虽然不少学者都在发表论文质疑催眠术的实际效果,但根据最近的研究结论,我们确实可以通过某个特定的字眼转变人类的意识状态。当然,这种事并不是百试百灵,其中多少有些“技巧”的成分在。
但如果把催眠术的这种特定效用推广开来,我们可能真的需要担心,未来人类打造的先进机器人是不是也会受到类似的影响。
一般的玩笑式催眠当然无伤大雅,但如果恐怖分子对交通信号灯的指控系统进行催眠,甚至借此入侵数百万辆自动驾驶汽车,引发的后果将不堪设想。
这么说,是不是有点危言耸听?
并不全是。就目前来看,机器学习中的偏差/偏见已经成为一大核心难题。在向机器提供大量人工造成或标记的数据时,其中不可避免要存在某些偏差/偏见因素。正因为如此,GPT-3对穆斯林建立起刻板印象,麻省理工也在使用Reddit数据进行训练后得到了一个“精神病患者”性质的AI模型。
事实上,AI系统采取的学习与思考方式越是趋近于人类,就越是可能像人类的头脑那样受到外部诱导的影响。
这种威胁真实存在。也许有一天,黑客们会使用对传统计算机毫无影响的批量信号冲击AI系统,借此操纵其思维方式。
能够理解自然语音的AI系统甚至可能受到音频操控,具备计算机视觉功能的AI系统则可能被精心设计的画面所蒙蔽。从理论出发,具备人类智能的AI应该也会像我们一样在催眠之下迷失自我。