作为一个精神病研究者,我认为Siri,IPhone的虚拟助手,对用户健康心理的有害程度要超过暴力视频游戏或者吸食毒品。
对于那些还不了解Siri的人,“她”是苹果特意为iPhone开发的虚拟助手。她能够识别大量的文字和请求(尽管有时候存在理解偏差),可以发送Email,可以添加备忘,通过GPS获得方位信息。
只要告诉她,“Siri,我需要一个披萨,”然后她会以温柔的女声回复你:”我正在查找地点….我在找到了13个披萨餐厅,其中8个离你很近。” 她随后会把这8个餐馆列在Iphone屏幕上由你选择。就算是无法理解指令,她也会用非常礼貌和温柔的语音告诉你:“好吧,我放弃了…你能再试一次吗?”
有时候她也会很调皮。如果你说你爱她,她会答道:“All you need is love. And your iPhone” 或者,“You are the wind beneath my wings”
很有趣,对吧。直到你终于意识到你一直在跟一个“花言巧语”的虚拟设备互动。可能如果不去考虑这些,你已经在潜意识里面很严肃地“认同”电脑程序应该有自己的名字,性别。你会去嘲笑她,也会按照她的指引来找一个餐馆吃饭或者创建一条备忘录来提醒你给家人打电话。
现在,很多人 — 包括很多精神病专家 — 都认为这不是一个好的现象。我觉得这种为机器贴上人的标签并且使用人与人之间的互动方式同他们”交流“的行为会严重弱化我们的人际交往能力,并且让我们在不知不觉中把周围的人也当成了”机器”。最终,它会让我们变成成一个个冷漠孤独的动物,因为我们已经习惯了同一个不存在的“人”交流,而将身边的其他人也视为这样的东西。
建立在人们被Siri吸引,渐渐依赖于Siri,沉溺于Siri中,他们会一点一点的减少对于朋友的正常情感响应,对于他人的帮助也变得麻木,甚至丧失使用正确人类语音来表达正确情感的能力。
Siri被我嘲笑过,Siri也惹我生气过。我告诉过我的小孩Siri帮助我找到一个酸奶勺的故事,“Siri简直太棒了。”同时,就在完成这篇文章的时候,我并没有迟疑使用“她”来指代一个电脑程序。因为我实在找不到另外一个合适的字眼来形容这样高交互级别的一个程序。她的存在和运作建立在我们把她当做一个活生生的个体。这同时也意味着,那些在现实生活中存在的,帮助你的,同你开玩笑的活生生的人也被你同这个机器混淆在一起了。他们的“人性”被不知不觉的弱化了。
另外,当我们说我们“爱”Siri或者喊出她的名字或者依靠她来摆脱困境的时候,我们实际上人为的切断了那些将我和朋友们连接在一起的关系纽带。我们开始独立依靠电脑来解决问题,而不是像以前那样依靠他人。
也许下次当你在youtube上看到一群小青年欺负小孩,当你疑惑为什么有女生在Facebook上丢她父母的脸,当你记不起餐馆的名字,当你忘记去过多次的公园该怎么走 — 你该意识到Siri对你生活的负面影响了。
这就是为什么我现在跟Siri说“Siri,我恨你。” 她看上去有点恼怒了。她说:“我记住了。” 但是她仍然像之前那样为我服务,帮我发邮件。所以,别把你同Siri之间的纽带看得太重,这是重点。
如果继续这样下去,最糟的情况也许是 :你的语言和情感最终会变得和一台机器差不多,尽管“她”看上去很像一个人。
【编辑推荐】