- 人工智能算法对人类生活和更广泛的社会有着巨大的影响。
- 围绕人工智能的伦理困境包括数字差异及其武器化。
- 自治应该与人类监督相平衡,同时应该提高对人工智能的负责任使用,以便可以利用它来解决歧视问题。
在计算机进步、数据科学和庞大数据集的可用性的推动下,人工智能 (AI) 已成为强大的日常现实和商业工具。大型科技公司如谷歌、亚马逊和Meta现在正在开发基于人工智能的系统。该技术可以模仿人类语言、检测疾病、预测犯罪活动、起草法律合同、解决可访问性问题,并比人类更好地完成任务。对于企业而言,人工智能有望预测业务成果、改进流程并以大幅节省成本的方式提高效率。
但人们对人工智能的担忧仍在增加。
人工智能算法已经变得如此强大,一些专家将人工智能标记为有感知能力以至于任何腐败、篡改、偏见或歧视都可能对组织、人类生活和社会产生巨大影响。
数字鉴别
人工智能决策越来越大规模地影响和改变人们的生活。不负责任地使用它们会加剧现有的人类偏见和歧视性措施,例如种族定性、行为预测或性取向识别。之所以会出现这种固有的偏见,是因为 AI 的好坏取决于我们可以提供的训练数据量,而这很容易受到人类偏见的影响。
当机器学习算法在未充分代表某些族群(例如女性、有色人种或特定年龄人口统计数据的人)的数据上进行训练和测试时,也会出现偏差。例如,研究表明,有色人种特别容易受到面部识别技术算法偏差的影响。
使用中也会出现偏差。例如,为特定应用设计的算法可能会用于非预期目的,这会导致对输出的误解。
验证 AI 性能
人工智能主导的歧视可能是抽象的、不直观的、微妙的、无形的和难以察觉的。源代码可能会受到限制,或者审计人员可能不知道算法是如何部署的。进入算法以查看其编写方式和响应方式的复杂性不容小觑。
当前的隐私法依赖于通知和选择;因此,很少有人阅读由此产生的要求消费者同意冗长的隐私政策的通知。如果将此类通知应用于人工智能,将对消费者和社会的安全和隐私产生严重后果。
人工智能作为武器
虽然真正的人工智能恶意软件可能还不存在,但假设人工智能恶意软件会增强攻击者的能力并不牵强。可能性是无穷无尽的——从环境中学习以识别和利用新漏洞的恶意软件、针对基于人工智能的安全性进行测试的工具或可以用错误信息毒害人工智能的恶意软件。
由人工智能操纵的数字内容已经被用于实时创建超逼真的个人合成副本(也称为深度伪造)。因此,攻击者将利用深度伪造来制造针对性很强的社会工程攻击、造成经济损失、操纵舆论或获得竞争优势。
“人工智能主导的歧视可能是抽象的、不直观的、微妙的、无形的和难以察觉的。源代码可能会受到限制,或者审计人员可能不知道算法是如何部署的。”— Steve Durbin,信息安全论坛首席执行官
减轻与人工智能相关的风险
由于人工智能决策越来越大规模地影响和影响人们的生活,企业有道德、社会和信托责任以合乎道德的方式管理人工智能的采用。他们可以通过多种方式做到这一点。
1、将道德转化为指标
道德 AI 遵守明确定义的道德准则和基本价值观,例如个人权利、隐私、非歧视,重要的是,非操纵。组织必须建立明确的原则来识别、衡量、评估和减轻人工智能主导的风险。接下来,他们必须将它们转化为实用的、可衡量的指标,并将其嵌入日常流程中。
2、了解偏见的来源
拥有正确的工具来调查偏见的来源并了解决策中公平的影响对于开发道德人工智能绝对至关重要。识别使用机器学习的系统,确定它们对业务的重要性,并针对 AI 引起的偏差实施流程、控制和对策。
3、平衡自主权与人工监督
组织应建立一个跨领域伦理委员会,监督组织和供应链中人工智能系统引入的风险的持续管理和监控。委员会必须由来自不同背景的人组成,以确保对所有道德问题的敏感性。
算法的设计必须考虑到专家的意见、情境知识和对历史偏见的认识。必须在关键领域(例如在金融交易中)强制执行人工授权流程,以防止它们被恶意行为者破坏。
4、赋予员工权力并提升负责任的人工智能
培育一种文化,使个人能够在不扼杀创新的情况下提出对人工智能系统的担忧。通过透明地处理角色、期望和责任来建立对 AI 的内部信任和信心。认识到对新角色的需求并积极提升技能、重新技能或雇用。
如果需要,可以通过提供更好的控制权和对追索权的访问来授权用户。强大的领导力对于赋予员工权力和将负责任的人工智能提升为业务必要性也至关重要。
5、利用人工智能解决歧视问题
程序化检查是评估人类公平性的传统方法,可以通过在人类决策过程中运行算法、比较结果并解释机器主导决策背后的原因来从人工智能中受益。另一个例子是麻省理工学院关于打击系统性种族主义的研究计划,该计划致力于开发和使用计算工具在社会的许多不同部门创造种族平等。