在采访中,Holistic AI的联合首席执行官Emre Kazim讨论了公司从一开始就需要将负责任的AI实践融入其业务战略的必要性。他探讨了如何解决偏见、隐私和透明度等问题,这需要一种积极主动且全面的方法,而不仅仅是遵守法规。
公司如何解决AI模型中的偏见、隐私问题和缺乏透明度的情况?
为了应对这些挑战及其他更多问题,公司需要制定一个清晰且积极主动的AI治理计划。对于将AI视为重要商业举措的公司而言,AI治理需要从一开始就融入其IT战略中,它不是一个可选项。一个全面的AI治理计划需要解决政府法规和/或标准、安全要求以及业务层面的KPI,并包括以下方面:
- 有效性——AI工作负载是否完成了其既定目标?它是否高效?相对于其用例和目标,它的表现如何?
- 稳健性——随着情况的发展或面临恶意破坏系统的企图时,系统如何保持性能?系统抵御对抗性威胁的能力如何?
- 隐私性——系统是否存在数据泄露的风险,从而可能暴露敏感或个人信息?
- 偏见——深入查看模型与其预期用例的关系,以确定系统中是否存在偏见。在不同场景中,偏见的处理方式不同,因此在上下文中衡量这一点至关重要。例如,在医疗诊断应用中,你可能想要针对某些人群(如特定血统的老年男性易患心脏病),但在招聘应用中则不希望如此。
- 可解释性——AI系统对用户和开发人员来说是否易于理解?我们能否理解系统是如何得出其预测或问题答案的?这对于透明度和信任至关重要。
AI治理不仅仅是为了规避风险——它还能通过帮助团队协同工作并提高效率,来加速公司的AI采用。通过清晰且协作地管理AI,公司可以更快地采用AI并获得更好的结果。使用能够全面了解风险和业务绩效指标(如偏见、合规性、有效性、稳健性和可解释性)的工具,公司发现更容易构建公平、安全且与公司目标一致的AI系统。
诸如欧盟的《人工智能法案》等新兴法规如何影响负责任AI的采用?
事实上,目前全球有近500项关于AI的法律正在制定中,其中200项在美国处于联邦层面,另外还有83起仅与通用AI相关的诉讼。全球许多政府正在考虑制定法规,以在使用AI时保护其公民。这种非常活跃的监管环境无疑正在推动企业从一开始就考虑其AI应用中的责任和公平性。
但还有更强大的市场力量在发挥作用。公司明白,AI的采用对其生存至关重要,未来的胜者将由其有效利用AI的能力决定。此外,他们明白品牌声誉是其最宝贵的资产之一。在AI方面的失误——尤其是在关键任务环境中(如交易算法失控、用户隐私泄露或未达到安全标准)——会侵蚀公众信任并损害公司的底线。这可能带来严重的后果。由于公司的竞争力和潜在的生存能力都岌岌可危,AI治理已成为他们不容忽视的商业要务。
随着AI创新的加速,你认为当前对负责任AI的努力是否足够,还是我们需要更强大的框架?
AI的采用尚处于早期阶段,我认为推动负责任AI的动力将来自多个方向。当然,我们看到政府和联邦层面都有很多活动,但这正在形成一种分散的方法。我们还看到,一些领先的公司明白采用AI对其未来至关重要,并希望快速行动。他们没有等待监管环境稳定下来,而是在采用负责任AI原则方面发挥领导作用,以保护其品牌声誉。因此,我相信公司会出于自身利益而明智地行动,以加速其AI计划并提高业务回报。但这些动机与更广泛的社会利益完美契合:部署安全、可靠和值得信赖的AI。
企业声誉和市场力量正在确保AI治理不仅仅是一个事后考虑——它是一项商业要务,这与监管努力同时发生,这对每个人来说都是好消息。
鉴于AI决策的不可预测性,你建议采取哪些风险管理策略来监测和减轻与AI相关的风险?
正如公司建立数据治理来管理组织数据、建立云治理来监督其向云计算的过渡一样,他们现在必须采用全面的AI治理策略来指导其AI的采用。
有效的AI治理涵盖整个AI生命周期,确保与组织战略、道德原则和监管要求保持一致。
一个强大的治理框架涉及AI使用的每个阶段,从采用和开发到风险管理。监测在这个过程中发挥着关键作用,确保持续的监督和合规性。实施AI治理的关键步骤包括:
- 盘点和发现:识别和编录AI系统和资产。
- 入职和工作流程:定义将AI集成到运营中的流程。
- 政策、文档和合规准备:制定明确的指导方针,并确保遵守法规和框架——如欧盟的《人工智能法案》或NIST,或公司自行设计的框架。
- 测试、验证和风险优化:评估AI性能并减轻潜在风险。
- 报告、警报和分析:通过全面监测提供见解和早期预警。此外,系统如何实现业务KPI和性能?
- 投资回报率跟踪:衡量AI投资产生的价值。
- 持续监测:保持持续警惕,以应对新出现的挑战。
通过遵循这些步骤,企业可以确保其AI计划具有战略性、道德性和可持续性。
对于AI系统出现故障或产生偏见输出的情况,企业应该制定哪些具体的应急响应协议?
拥有有效AI治理策略的公司能够更好地主动应对潜在风险并防止最坏情况的发生。事实上,分析师报告称,到2028年,实施全面AI治理平台的企业相比没有此类系统的企业,AI相关的道德事件将减少40%。
其中一个关键因素是持续监测——根据应用的关键程度和风险水平,可以是定期或连续的——以便快速发现和响应问题。这种监测可以根据预定义的界限自动通知相应的团队,并在出现问题时建议补救步骤。
同样重要的是确保团队接受培训并为紧急情况做好准备。就像强大的安全事件响应计划一样,跨职能团队的定期培训至关重要。这些培训应模拟AI事件场景,包括执行补救策略和完善沟通响应计划。
在与客户沟通时,要优先考虑透明度、诚实和真实性。及时分享你所知道的信息,有新信息时提供更新,并向客户保证你正在迅速采取行动解决问题。如果处理得当,有效的应急响应甚至可以通过展示其对负责任AI的承诺和高度的责任感,来帮助品牌建立与客户的信任。