距离全球被乔治·弗洛伊德(George Floyd)被跪害惨案震惊仅仅过了三个月。在美国的集体记忆中,白人警官跪在黑人公民身上8分钟46秒的画面仍然历历在目。
这并不是美国首例种族歧视的警察暴行。不幸的是,它也不是最后一个。
种族主义在这个国家有很深的渊源。这是一种溃烂的伤口,要么被忽略,要么用感染性药物治疗。美国的制度种族主义没有尽头,而且更糟的是,这种疾病正在寻找新的传播途径。
甚至被认为是现代历史上最大的技术突破之一的人工智能,也继承了一些在社会上普遍存在的偏见。
AI可以被偏见吗?
如果是在早些年,说计算机程序存在偏见似乎听起来荒谬的。毕竟,为什么任何软件都会关心某人的种族、性别和肤色?但是那是在机器学习和大数据授权计算机做出自己的决定之前。
现在,算法正在增强客户支持,重塑当代时尚,并为从法律和秩序到城市管理的所有流程都可以自动化的未来铺平道路。
Namobot网站的迈克尔·雷诺兹(Michael Reynolds)解释说:“我们面临着一个非常现实的机会,即AI反乌托邦。”该网站通过大数据和算法来生成博客名称。 “包含人类解释和认知评估的错误数据集会使机器学习模型将人类偏见转化为算法。”
这不是遥不可及的事,但已经在发生。
算法偏差的不幸示例
风险评估工具通常用于刑事司法系统中,以预测重罪犯再次犯罪的可能性。从理论上讲,这种少数派报告类型的技术用于威慑未来的犯罪。但是,批评家认为这些程序会伤害少数群体。
ProPublica在2016年对其进行了测试,当时它检查了7000多人的风险评分。该非营利组织分析了在佛罗里达州布劳沃德县被捕了两年以上的囚犯的数据,以了解在接下来的几年中谁被指控犯有新罪行。
结果表明许多人已经过于担心了。根据该算法,黑人被告犯罪的可能性是白人的两倍。但事实证明,只有20%的人预计会从事犯罪活动。
同样,警察使用的面部识别软件最终会严重影响非裔美国人。根据美国联邦调查局(FBI)合着的一项研究,在西雅图等城市使用的面部识别对黑人的准确性可能较低,从而导致身份识别错误和误捕。
算法偏差不仅限于司法系统。黑人通常被剥夺了为改善患有复杂疾病的患者提供医疗服务的程序。同样,在相同疾病下,与白人患者相比,这些程序不太可能将黑人患者转介给黑人患者。
简而言之,科技公司正在将自己的偏见注入系统。旨在做出基于数据的公平决策的确切系统。
那么,如何解决这种情况呢?
透明度是关键
算法偏差是一个复杂的问题,主要是因为很难观察到。程序员常常困惑于发现他们基于性别和肤色对人的歧视算法。去年,史蒂夫·沃兹尼亚克(Steve Wozniak)透露,苹果给他的信用额度是他妻子的10倍,尽管她的信用评分更高。
消费者很少会发现这种差异。审查人工智能部分歧视的研究也需要大量时间和资源。因此,倡导者要求在整个系统的运行方式上提高透明度。
该问题值得在全行业范围内解决,但在此过程中仍存在障碍。即使发现算法存在偏差,企业也不允许其他人分析数据,并且调查不够彻底。苹果公司表示将调查沃兹尼亚克问题,但到目前为止没有任何进展。
提高透明度将要求企业向观察员透露他们的训练数据或接受第三方审核。程序员还可以选择主动进行测试,以确定将其系统应用到属于不同背景的个人时的方式。
为了确保一定程度的透明度,用于训练AI的数据和用于评估AI的数据应公开。在政府事务上,做到这一点应该更容易。但是,企业界会拒绝这种想法。
数据多元化
根据纽约大学研究中心发表的一篇论文,人工智能缺乏多样性已经到了“思考的时刻”。研究表明,由于这个原因,AI领域绝大多数是白人和男性,因此有重新确立权力失衡和历史偏见的风险。
该报告的作者凯特·克劳福德解释说:“AI行业必须承认局势的严重性,并承认其现有方法未能解决这些问题。”
由于Facebook和Microsoft都拥有4%的黑人劳动力-很明显,在AI领域中少数民族没有得到公平的代表。研究人员和程序员是一群具有一定特权的同质人群。
如果资源池多样化,那么数据将更能代表我们所居住的世界。算法将获得当前被忽略的观点,并且AI程序的偏见将大大减少。
总结
是否有可能创建一种完全没有偏见的算法?可能不会。
人工智能是由人类设计的,人们永远不会真正偏见。但是,由优势群体的个人创建的程序只会帮助使针对少数群体的不公正现象长期存在。
为确保算法不会成为针对黑人和西班牙裔社区的压迫工具,应推动公共和私人机构保持一定的透明度。
大型技术必须具有多样性,并能提升属于少数族裔的程序员,这也是当务之急。这样的举动可以拯救我们的社会,使其免于成为AI反乌托邦。