很多东西都存在国界和地域限制,但是人类对于表情的识别能力却是脱离了限制的。这也是许多人认为机器人无法取代人的根本原因,因为他们不具备情绪,更不具备识别情绪的能力,而事实真是如此吗?
目前人工智能还处于初级阶段,最成熟的应用之一就是图像和语音识别,并广泛应用到拍照识物、画面增强、人机交互等各种领域。很大程度上还是处于识别和归类的层面,想要透过表层的识别去进行深层的情绪认识和理解,进而优化人机交互的体验,尚需时日。
人工智能通过多种方式确定情绪
我们确定一个人的情绪通常会透过表情、语言和肢体动作来进行判断,不同的情绪有着不同的差异,比如开心时嘴角会上扬,不开心时会下垂,惊讶的时候眼睛会睁大,这些面部表情由面部肌肉进行调动,很多时候,很多情绪之间会有着相似的弧度,因此,很多研究者就抓住各种情绪对应的表情或动作,来对机器进行训练和学习。
由德国斯图加特大学、澳大利亚弗林德斯大学和南澳大利亚大学的研究人员组成的团队开发出了一种机器学习算法,通过调查了42位实验者在日常生活中的眼球转动情况,进行性格评估。这次实验取得了显著成绩,不仅可以显示关于个人的交际能力、好奇心、责任心等性格特征,还能识别出五大人格中的的四种。
情绪识别走进现实还需三五年
目前的情绪识别仍然处于起步阶段,很多公司研发出的成品应用,一直饱受诟病,产品显得“笨笨的”。甚至被称为“人工智障”。但是,所有的成功都要经历漫长的实验和反复的失败与嘲讽,人工智能同样会在这样的道路上继续攀岩。
利用机器识别人的表情从而进行情绪判断是非常有想象力的,而且远景诱人。因为即便是人,有时候也很难察觉一闪而过的表情,导致无法判断对方此时的心理情绪。
情绪识别能力提升带来的便利
随着人机交互更加自然顺畅,也将直接扭转人类日常对“人工智能”的“人工智障”评价。这对于空巢老人、儿童的陪护将起到积极的作用。通过对人类的情绪捕捉,它可以为老人儿童提供心理安慰。而在这个基础上,利用人工智能进行情绪识别也能更好地帮助人们解决心理疾病问题,分担心理医生的就诊压力。尤其是在语音交互领域,成熟的人工智能会在对话的过程中照顾到患者的情绪,从而慢慢地缓解病情。