大数据文摘出品
编译:栾红叶、Aileen
现在是时候讨论AI的道德问题了。虽然机器学习不是一项新的技术发展,但现在是人工智能发展的关键时刻。要面对的道德问题有很多,包括以下提到的十一种。
出于不道德的目的使用人工智能
1. 经济不平等与劳动力问题
技术进步时,我们首先要关注的是是工作保障。与最初的工业革命一样,劳动力的大批量自动化让工人感到恐惧。
在第一次工业革命期间,美国政府首次推动了大学教育的发展。对当时的美国人来说,问题不是大学的成本,而是为了获得学位而暂停劳动的机会成本。你可以说,强制工人去学习是野蛮的,然而人工智能(第四次工业革命)催化的下一阶段自动化也是在促使工人去修大学学位。
如果政府不提供全民收入(给每个人发放基本工资)来照顾被自动化淘汰的工人。那么学生贷款危机也可以让被淘汰的劳动者打消进一步接受教育的念头,这会导致周期性的贫困和收入不平等。
2. 对人类行为的影响
不管我们有没有意识到,人们越来越多地与机器进行交互,以完成日常任务——这牵涉到了一个透明度的问题,同时也带来了行为上的影响。例如,Google Duplex的一个听起来像真人的A.I.系统,它可以通过电话预订餐厅。该系统可以快速响应,与真人不相上下。
人类的注意力和耐心是有限的,但机器的情感能量却并非如此,当然,机器的局限性是技术性的。尽管这可能对某些特定领域比较有利,如客户服务,但这种无限的能力可能会造成人类对机器人的情感上瘾。电影《Her》反映的问题就是这样,这部电影讲的是一个爱上机器的男人的故事。
除了这些模仿真人的机器人外,许多app的目的就是使用算法来让用户上瘾。例如,Tinder的设计就是为了将用户更久地栓在这个由A.I.驱动的app上,它不会推荐相类似的用户配对,从而使得用户在APP里的停留时间变长。
3. 在雇佣和犯罪方面的偏见歧视
A.I.伦理问题中最紧迫、讨论最广泛的问题之一是预测性分析系统中的偏见问题,如在雇佣或犯罪领域。曾经亚马逊使用了A.I.驱动算法,利用历史数据筛选优秀的职位候选人时,成为了著名的一个雇佣偏见事件。因为之前的候选人选拔就存在性别偏见,所以算法也倾向于选择男性。
今年3月,纽约警察局披露,他们开发了一种算法机器学习软件Patternizr,该软件通过筛选警察数据来发现犯罪模式并将类似的犯罪联系起来。这款软件已于2016年起开始使用,该软件未用于强奸或凶杀案件,并且在搜索模式时排除了性别和种族等因素。
虽然这对于以前的算法是向前迈出了一步,之前的算法是在种族歧视的基础上来预测犯罪和违规行为,但从历史数据集中主动消除各种歧视并不是标准做法。这意味着这种受过训练的歧视偏见,往好的一方面说就是是一种冒犯和不便;往坏的一方面说就是一种对人身自由的侵犯和系统压迫的催化剂。
4. 误传和假新闻
另一个A.I.道德问题是伪造,通过使用A.I.将图像、视频和音频对原始媒体和音频加工,改变他人原意,通常是带有恶意意图。深度伪造包含了面部调换、声音模仿、面部重演、嘴唇同步等等,与旧照片和视频编辑技术不同的是,深度伪造技术的发展目标就是让没有什么技术能力的人也会轻松掌握其使用。
据北约前秘书长尼娜·希克(Nina Shick)等专家称,通过deep fakes来篡改图像和视频可能会对全球秩序造成灾难性影响,例如,唐纳德·特朗普(Donald Trump)宣布核战争的唇形同步视频,因此,Deepfake技术成果会被像Reddit这样的网站进行非常严格的审查和屏蔽。
上一次美国总统选举期间,俄罗斯利用假新闻实施了黑客攻击,其实就是使用了类似的技术。这种信息战正在变得司空见惯,它的存在不仅是为了改变事实,也是为了强有力地改变某些观点和态度。这种做法也曾在英国脱欧运动中使用过,加剧了日益加剧的政治紧张局势和混乱的全球形势。
利用人工智能侵犯消费者隐私
5. 消费者隐私和安全
尽管政府制定了很多法规来保护消费者隐私(如欧盟数据隐私法GDPR),但潜在威胁还是巨大的:
数据收集:大多数消费者设备,从手机到支持蓝牙的灯泡,都会使用人工智能来收集我们的个人数据,以便提供更好、更个性化的服务。如果用户同意,并且数据收集也是透明的,那么这种个性化是一个很好的功能。如果没有达成一致或者达到透明,这种功能就会给用户带来不好的体验。
识别和跟踪:当我们把iPhone落在出租车上,或者将钥匙落在沙发垫中间时,手机的追踪应用会显得很有用。但有些时候,比如想要隐藏行踪的家庭虐待幸存者,跟踪个人信息就显得不安全。
语音和面部识别:与之前的功能一样,在我的日常消费设备中,语音和面部识别功能是一个很方便的功能。比如,在iPhone上,用户可以通过面部识别解锁手机,而不是输入密码。
6. 全球安全与情报
与国际错误信息(如假新闻报道)的风险相似,A.I.在这方面的道德风险是巨大的。虽然用人工智能机器人来取代人类士兵,或制造自动化武器,可能会在一定程度上降低政府防御性力量可能造成的伤害风险,但人工智能所造成的伦理困境与核弹相当。
尽管国际领导人很少提及人工智能在核武器试验中的作用,但像微软这样的公司已经悄悄地宣布他们愿意向五角大楼出售先进的自动识别系统。
利用人工智能减少消费者代理
7. 奇点,或者机器人霸主
就像《杰森一家》中噩梦般的情节一样,机器人霸王的概念在消费者心目中隐约出现,成为最显而易见的A.I.道德困境。牛津大学(University of Oxford)的主管专家尼克·博斯特罗姆(Nick Bostrom)表示,如果未来的人工智能系统拥有与人类价值观不一致的价值观,那么恶意机器人霸主的想象可能会成为现实。作为没有自主权的人类,我们是谁?当机器人被赋予自主权时,他们是谁?最后,当二者被给予同样的自由和智慧时,我们又如何定义这两者?
谷歌的未来学家兼首席工程师雷·库兹韦尔(RayKurzweil)表示,奇点比我们想象的还要近。Kurzweil预测,到2045年,我们将把人类智能和人工智能结合起来,他认为这将使我们更加智能化——这是一个值得期待而不是恐惧的未来。
8. 人工智能的人性化处理
A.I.系统(或机器人)是否有权利?如果Kurzweil是正确的,那么A.I.的人道待遇可能仅仅意味着对人类的人道待遇。目前,一些人工智能系统甚至拥有公民身份,比如索菲亚Sophia(由汉森机器人公司制造的人形机器人)。
人工智能和不可预测的次要事件
9. A.I.犯的错误
如果有人工智能,那么也会有人工愚蠢(artificial stupidity)。目前,A.I.系统在某些领域中接受了模式方面的培训,并且由于无法涵盖所有可能性,当出现新的场景时,系统就很容易困惑。这是因为A.I.系统还没有能力像人类那样识别相似性,就像在模式识别中,当A.I.系统遇到与训练集中的数据不同的场景时,它并不会根据上下文来判断。
如果A.I.系统很容易被愚弄,这也就意味着它们很容易受到邪恶势力的影响,比如机器学习中的敌对攻击。例如,一种算法可以从一个有影响力的账户中读取假新闻,并根据优化的内容因素来推广它,而不是像新闻工作者在发布前那样检查新闻来源或想法。
10. A.I.条例
总的来说,科技产业因缺乏监管而备受争议,一部分原因是该产业的变化太快,以至于很难确定执法应从哪里开始,另一部分原因是科技文化与西方世界的梦想是一样的,也就是说,不惜任何代价进行创新。
也有人试图自我监管,比如谷歌,它在内部设立了一个道德委员会,但不久之后就因为其内部有争议的成员,即那些否认气候变化和持有反移民情绪的人,所以这个委员会就解散了。同样,微软也在口头上鼓励政府调整A.I.系统,尤其是面部识别软件;然而戏剧性的是,微软的竞争对手指出,微软与立法者的关系过于紧密。
与此同时,A.I.系统的开发和部署几乎是完全没有监管。
11. 如果有道德的A.I.是不可能存在的…
尽管我们尽了最大的努力,但A.I.可能永远都不会变得有道德感。训练A.I.系统使其变得有道德,过程包括:
- 假设A.I.有动机采取道德行动
- 期待普遍道德规则的出现
- 相信训练A.I.变得有道德的人本身是有道德的。
史蒂芬·霍金、比尔·盖茨和埃隆·马斯克都表示,超级智能应该被谨慎处理。A.I.能够变得有道德性吗?大家对此意见不一,但事实上大家都很清楚,A.I.道德规范的时代就要来临了,如果我们不行动起来,那将是一个最大的错误…
相关报道:https://blog.remesh.ai/top-11-a.i.-ethics-dilemmas-affecting-tech-right-now
【本文是51CTO专栏机构大数据文摘的原创文章,微信公众号“大数据文摘( id: BigDataDigest)”】