《俄罗斯报》1月19日发表了题为《藏不住了?》的文章称,美国斯坦福大学学者迈克尔·科辛斯基教授研发出了一种可根据人脸表情判断其信仰倾向的人工智能技术。
报道称,科辛斯基首先使用人脸照片库来训练神经网络,库中包括大量信仰明确的人物。然后,他将这一神经网络投入使用,让其根据数百万人的照片来将他们区分为自由派和保守分子。人工智能的识别正确率达到了72%。这一结果似乎并不太出色,但人的判断力更糟糕,正确率只有55%,几乎和抛硬币差不多。
有趣的是,科辛斯基还试图搞清楚神经网络的工作原理。他检查了照片中的多项特征和因素,如面部汗毛的颜色、目光是否直视镜头以及各种表情,但发现这些因素都不起作用。这也就是说,神经网络找到了目前尚不为人知的其他某些特征。
值得指出的是,科辛斯基的神经网络几年前已能通过人脸照片来确定人的性取向。在仅有一张照片可供识别的情况下,它对男性性取向的判断正确率达到81%,对女性的判断正确率为74%。如果有5张照片可供识别,它对男女性取向的判断正确率将分别提高到91%和83%。如果由人根据单张照片来进行判断的话,他对男女性取向的判断正确率分别只有61%和54%,这与过去的研究结果是一致的。
当时,科辛斯基的研究受到了同行们的严厉批评,他们认为这项技术可能危及他人的安全和隐私。但这项技术的研发者反驳说,自己没有创造侵犯个人隐私的工具,而是展示了“基本和广泛使用的方法可能以何种方式威胁私人生活”。也就是说,他们对人工智能中包含的危险发出了警告。
科辛斯基已向我们展示了其中一个危险。神经网络把人变得透明化了:它能在人身上发现对方自己可能都不知道的东西。
许多学者表示,必须制定有关人工智能使用的法律规范。但要把已被放出来的精灵重新装回瓶子里是难以想象的。