AI的偏见:机器就是绝对理性的么?

人工智能 机器学习
人工智能已经遍布我们的日常生活。从YouTube的首页推荐到生产药物,它无所不在,它对我们生活的影响超出我们的想象。但人工智能一定公平吗?不,绝对不是。

 本文转载自公众号“读芯术”(ID:AI_Discovery)

人工智能已经遍布我们的日常生活。从YouTube的首页推荐到生产药物,它无所不在,它对我们生活的影响超出我们的想象。但人工智能一定公平吗?不,绝对不是。

[[354470]]

人们很难定义什么是公平的人工智能。以下是我能想出的最好的定义:对于社会歧视影响下的特定任务,如果给定的人工智能模型能够输出独立于敏感性参数(例如性别、种族、性取向、宗教信仰、残疾等)的结果,那么这个人工智能模型就是公平的。

本文将讨论人工智能偏见,与之对应的真实例子,及其解决方法。

 

问题

人工智能偏见是由于训练模型的数据所固有的偏见造成的,这导致了社会歧视,进而导致平等机会的缺乏。

假设我的任务是创建一个以位置为参数计算个人信用评分的模型,某些种族群体会集中在某些地方,这将使创建的模型对那些种族群体产生偏见,会影响他们申请信用卡和银行贷款,存在偏见的人工智能模型加剧了当前的社会歧视。

 

人工智能偏见的真实例子

  • COMPAS(另类制裁法惩罚罪犯管理分析)是美国法院用来判定被告成为累犯(重犯先前所犯罪行的罪犯)可能性的软件。由于存在严重的数据偏差,该模型预测黑人罪犯累犯的假阳性率是白人罪犯的两倍。
  • 2014年,亚马逊开发了一套人工智能招聘系统以简化招聘流程。研究发现该系统歧视女性,因为用于培训模型的数据来自过去10年。过去10年,由于科技行业中男性占主导地位,大多数被选中的申请人都是男性。亚马逊在2018年废除了这个系统。
  • 美国医疗保健系统采用人工智能模型,认为黑人患同一疾病的风险比白人低。这是因为该模型对成本进行了优化,而且由于黑人被认为支付能力较低,因此该模型将他们的健康风险排在白人之后,导致黑人的医疗标准降低。
  • 2019年,Facebook允许广告商根据种族、性别和宗教瞄准人群。这导致护士和秘书等工作以女性为目标,而像门警和出租车司机这样的工作则瞄准男性,特别是有色人种的男性。该模型还了解到,房地产广告向白人展示时,点击率较好,所以面向少数人群的房地产广告投放较少。
  • 2020年9月,Twitter用户发现图像裁剪算法偏爱白人脸而非黑人脸。当在Twitter上发布一幅与预览窗口的宽高比不同的图像时,该算法会自动裁剪掉图像的一部分,只显示图像的某一部分作为预览。在黑白面孔同框时,该人工智能模型通常在预览窗口中显示白人。

这些例子只是沧海一粟。无论开发者是否知情,许多不公平的人工智能操作都真实存在着。

 

如何解决这个问题呢?

迈向公平人工智能的第一步是承认问题。人工智能是不完美的,数据是不完美的,我们的算法是不完善的,我们的技术也不够完善。如果我们对问题视而不见,那么是不可能找到解决办法的。

其次,问问自己这个解决方案是否需要人工智能。有一些问题不依赖于数据,比如寻找被告人再犯可能性这样的任务更多地依赖于情感而不是数据。

第三,遵循负责任的人工智能实践。在谷歌负责任的人工智能实践指南的基础上,我补充了几个要点。负责任的人工智能实践:

  • 使用以人为中心的设计方法:设计模型时内置适当的信息披露,并在部署前纳入测试人员的反馈。
  • 确定多个指标评估培训和监控:使用适合任务的不同指标,以了解不同错误和经验之间的权衡。这些指标可以来自消费者的反馈、假阳性率和假阴性率等。
  • 如果可能的话,请检查原始数据:人工智能模型反映了用来训练模型的数据。如果数据有问题,模型也会有问题。因此,尽量保持数据平衡。
  • 理解模型的局限性:一个被训练来检测相关性的模型对建立因果关系不一定有用。例如,一个模型可能会了解到,购买篮球鞋的人一般都比较高,但这并不意味着购买篮球鞋的用户会因此变得更高。
  • 测试:进行严格的单元测试以确定模型中的故障。
  • 部署后继续监控和更新模型:在部署模型后,关注用户反馈,并定期更新模型。
  • 设计一个公平与包容兼具的模型:与伦理和社会研究领域的专家接洽,了解和解释各种观点,试着让模型尽可能公平。
  • 使用具有代表性的数据集来训练和测试模型:尝试评估数据的公平性。也就是说,寻找特征与标签之间的偏见或歧视性关联。
  • 检查不公平的偏差:从不同背景的测试人员那里获取单元测试输入,这有助于确定哪些人群可能会受到该模型的影响。
  • 分析性能:考虑不同指标,一个指标的改进可能会损害另一个指标的性能。

 

开发公平人工智能的工具

  • AIFairness 360:这是IBM提供的一个开源工具包,可帮助用户检查、报告和减轻机器学习模型中的歧视和偏见。
  • ML Fairness Gym:这是谷歌提供的一个工具,用于探索机器学习系统对人工智能偏见的长期影响。
  • FATE:AI中的公平、责任、透明度和伦理(FATE),微软提供了评估可视化仪表盘和偏差缓解算法的工具。它主要用于公平与系统性能之间的权衡。

近来,公司和政府开始逐渐正视人工智能中的偏见。许多公司已经开发了评估人工智能公平性的工具,并且正在尽最大努力解决人工智能偏见。

虽然人工智能有着巨大的潜力,但我们现在比以往任何时候都更需牢记人工智能系统潜在的歧视性危险,我们也应帮助开发出公平的人工智能模型。

 

责任编辑:华轩 来源: 读芯术
相关推荐

2018-04-16 08:56:40

2022-06-17 11:37:43

人工智能监督金融机构

2020-03-13 09:48:04

大数据人工智能安全

2024-12-17 14:16:39

2015-09-19 13:45:27

2021-04-12 17:47:25

Facebook开源AI

2018-11-28 09:00:54

AI人工智能

2022-10-26 09:20:03

AI招聘

2020-07-24 08:03:39

人工智能

2019-01-30 10:40:46

Google Brai人工智能机器学习

2018-01-05 19:07:14

APICloud移动技术应用融合

2021-09-17 12:54:05

AI 数据人工智能

2016-01-31 10:02:14

数据中心

2018-05-23 09:20:12

人工智能机器学习技术

2012-08-29 10:43:17

2016-10-17 14:14:47

大数据应用大数据

2020-12-11 18:58:21

Nginx浏览器缓存

2021-11-11 16:01:19

人工智能AI

2017-07-25 09:27:39

2013-12-16 11:45:17

董明珠雷军
点赞
收藏

51CTO技术栈公众号