你的AI很智能,但它安全吗?探索保护你的企业和客户的必备治理策略。
要点:
• 治理至关重要:如果没有适当的AI治理,公司可能会面临合规失败和失去客户信任的风险。
• 策略优先:一个明确的AI策略和治理框架可以在创新与混乱之间划清界限。
• 合规推动信任:强有力的AI治理不仅能满足监管要求,还能增强客户信任和竞争优势。
大多数技术的一个反复出现的趋势是,它们通常在广泛应用之前,相关法律还未完全确立。对于技术的治理——尤其是那些被广泛使用的技术——对于保护人们、公司及其数据免受滥用至关重要。
AI似乎也不例外,但它是“新瓶装旧酒”,还是“旧瓶装新酒”呢?
尽管AI已经存在了大约60年,但由于其多次的反复发展,直到最近才逐渐受到关注。自从ChatGPT于2022年底出现以来,许多公司开始开发用于各种应用的AI模型。
这种技术的使用可能带来许多风险,包括暴露敏感数据、违反知识产权法、产生明显错误的结果以及违反现有或正在制定的法规。因此,AI的应用必须谨慎。
为何AI治理至关重要
直到最近,AI几乎是数据科学家和其他数据专家的专属领域。因为数据通常只在内部用于改进产品和服务,或分析一般客户行为,因此对数据治理框架的需求并不紧迫。随着GenAI在工作场所的广泛应用,这一情况已经发生了变化。
如今,大多数公司都意识到,为了跟上同行的步伐,他们需要在产品或服务中引入某种形式的GenAI或大型语言模型(LLMs)——而这也伴随着必要的治理。
一个问题是:AI治理程序尚未形成,更不用说定型了。AI的底层技术仍在发展,这使得立法机构难以确定一个固定的合规方案。
但公司不能等待多年才看到最终的治理框架。相反,他们必须立即开始建立一个可行的、可辩护的、可扩展的,最终是灵活的框架,以监督和管理他们企业中的AI使用。在部署AI模型之前,公司需要充分理解这些模型在其业务背景下的生命周期以及它们的工作原理。当然,所有AI项目都应通过合规、法律和信息安全团队的常规治理审核流程。
建立AI治理框架
适当的数据治理涉及数据质量、数据安全、伦理使用和隐私保护等多个方面。根据你的业务和所使用数据的性质,AI治理可能比数据治理更为重要(也更为耗费资源)。
以数据分析为例,通常在人们做出决策和行动之前,总会有一个人来验证结果,但由于AI能够在更大规模上运作,它可以在毫秒内做出几十个预测,而无需解释。AI甚至可以在自动决策场景中被训练为自主采取行动。
在考虑你的AI治理模型时,可以考虑以下几个基本要点:
1. 考虑使用AI的策略
你的计划是什么?你的目标是什么?问问自己,公司是否真的有一个AI的业务案例,也就是说,嵌入在你的产品或服务中的AI是否会对你的客户产生有意义的影响?如果答案是否定的,那么可能就不值得花费精力和成本去开发。
2. 制定AI使用监控政策
如果答案是肯定的,那么第二个考虑因素应该是制定一项政策或声明,规定AI在公司内部如何使用以及由谁使用,这个基础文件可以采用正式政策的形式,明确说明为什么使用AI、由谁使用以及用于什么目的。政策往往更具规范性和具体性,规定了技术必须——而不是应该——如何使用。你的政策还可以提及行业标准,以作为基准。
3. 考虑制定AI使用指南
或者,你可以制定指南,传统上指南会列出推荐的使用方法和最佳实践。两种方法各有优缺点。根据你的行业、你所受的监管程度以及公司使用的数据类型(如B2C或B2B),你可以选择使用指南,以免过度限制创新或试验。
4. 创建AI文档组合
无论你选择何种文件,目标都是创建一系列文档,尽可能为员工如何使用新技术提供指导,这将帮助他们在使用数据时,以道德和负责任的方式创建功能丰富的产品和服务。
5. 建立法律合规框架
接下来,确保你的数据处理的法律基础是坚实的。如果你处理的是欧盟公民的数据,特别是要根据GDPR第6条的规定,为你的情况找到最合适的法律依据。
6. 确定AI决策者
另一个重要的工作是创建AI审批流程,包括指定决策者。
理想的AI治理框架应该定位在概念化与运营化阶段之间,这将确保任何为评估想法和用例而设立的团队、委员会或论坛能够采用整体性和跨职能的视角。通过这种方法,他们可以全面评估AI对你的商业模式带来的独特风险,并决定哪些举措应推进到生产阶段。
为广泛的AI监督做好准备
全球各地的立法者很快将要求大多数公司建立强有力的AI治理监督模型。通过采用将人权与商业洞察相结合的更广泛视角,企业可以通过增强客户信任来获得竞争优势。
这种以隐私为先、以业务为中心的方法使公司能够自信地开发以价值为驱动的模型,同时确保数据隐私和符合监管要求,提供超越单纯合规的战略优势。