解决AI安全问题:NIST人工智能风险管理框架

人工智能 应用安全
尽管人工智能框架面临着与其他NIST框架类似的风险,但前者的某些风险“差距”或对其的担忧,是人工智能所独有的。而这些差距正是AI RMF想要弥补解决的。

与任何信息技术一样,人工智能也会面临各种安全问题以及其他新出现的问题,如隐私、歧视、不公平等。美国国家标准与技术研究所(NIST)正在开发一个志愿性质的框架,以更好地管理人工智能相关的风险,称为人工智能风险管理框架(AI RMF)。该框架的目标是提高将可信度纳入AI的能力,包括AI的产品、服务、系统的设计、开发、使用和评估。

该框架的初稿建立在2021年12月NIST发布的一份概念性文件上。NIST希望AI RMF能够描述基于人工智能的系统,其风险与其他领域的风险有何不同,并鼓励利益相关群体有针对性地解决这些风险。NIST表示,它可以用于超出框架之外的合规映射,如现有法律法规或其他强制性指南等。

尽管人工智能框架面临着与其他NIST框架类似的风险,但前者的某些风险“差距”或对其的担忧,是人工智能所独有的。而这些差距正是AI RMF想要弥补解决的。

AI利益相关群体和技术特征

NIST将四个利益相关群体确定为该框架的预期受众:人工智能系统利益相关者、运营商和评估者、外部利益相关者和公众。采用三级特征分类法,在识别和管理人工智能系统相关风险的综合方法中应考虑这些特征:技术特征、社会技术特征和指导原则。

技术特征是指人工智能系统设计者和开发者直接控制的因素,可以使用标准评估标准来衡量,如准确性、可靠性和弹性。社会技术特征指人工智能系统在个人、群体和社会环境中的使用和感知方式,如“可解释性”、隐私、安全和管理歧视。在AI RMF分类法中,指导原则指的是更广泛的社会规范和价值观,表明了公平、问责和透明度等社会优先事项。

与其他NIST框架一样,AI RMF核心包含AI风险管理活动的三个要素:功能、类别和子类别。功能是为了映射、测量、管理和治理人工智能风险。尽管AI RMF预期通过概要文件为特定用例提供上下文,但该任务以及计划的实践指南已被推迟到以后的草案中。

在3月中旬发布框架草案后,NIST举行了为期三天的研讨会,讨论人工智能RMF的各个方面,包括深入探讨如何减轻人工智能技术中的有害偏见(歧视)。以下是研讨会中的一些观点:

绘制人工智能风险:上下文环境很重要

卡内基梅隆大学的研究人员Rayid Ghani在NIST的研讨会上声称,在绘制人工智能风险图时,“我们仍然需要弄清楚上下文、用例和部署场景。较为理想化的是,所有这些事情都应该在构建系统时发生。”

美国医疗保险计划副总裁Marilyn Zigmund Luke告诉与会者,“考虑到不同环境和结构的多样性,个人和组织的风险当然会不同。我认为应该从评估风险的角度来理解所有这些风险,你必须从零开始,去建立一些不同的参数。”

测量人工智能活动:需要新技术

由于人工智能系统中固有的社会政治伦理和习俗的复杂性,人工智能相关活动的测量仍处于初级阶段。圣地亚哥加利福尼亚大学的David Danks认为:“测量功能中的很大一部分实质上是交给人去了解的。在这种特定的背景下,歧视味着什么?相关的价值观是什么?因为,风险从根本上来说是对组织或人类价值观的威胁,价值观很难确定。”

人工智能安全与研究公司Anthropic的联合创始人杰克·克拉克表示,人工智能的出现产生了对新指标和测量方法的需求,理想的情况是将其融入人工智能技术本身的创造中。“现代人工智能技术的挑战之一是,需要设计新的测量技术,并与技术本身共同开发。”

管理人工智能风险:培训数据需要升级

AI RMF的管理内容解决绘制和测量的风险,以最大限度地提高效益和减少不利影响。但ParityAI的首席技术官陈家豪表示,数据质量问题可能会阻碍人工智能的风险管理。“当下的模型培训数据,可用性不一定适用于现实世界,因为它可能已经过时了几年。我们必须考虑培训数据是否真的反映了当今世界的状态。”

Adobe伦理创新总监Grace Yee说,“对于我们来说,提供世界上最好的技术来创造数字体验已经不够了。我们希望确保我们的技术是为包容性而设计的,并尊重我们的客户、社区和Adobe价值观。具体来说,我们正在开发新的系统和流程,以评估我们的人工智能是否在制造有害的偏见。”

纽约大学法学院的文森特·索瑟兰提出,使用拥有预测能力的警务工具可能会出现很大的问题。“这些人工智能系统部署在整个刑事系统中,从确定犯罪者到何时释放罪犯。但直到最近,人们还没有从根本上认识到,这些工具所依赖的数据以及这些工具的运作方式实际上有助于加剧种族不平等,并有助于放大刑事系统本身的弊端。”

人工智能治理:很少有组织这么做

在人工智能治理政策方面,bnh.ai的科研人员帕特里克·霍尔表示,在大型消费金融组织和其他几个高监管的领域之外,人工智能的使用没有正式的治理指导,因此公司只能自己解决这些棘手的治理问题。

微软首席人工智能负责人Natasha Crampton:“当你的治理方法过于分散时,失败的迹象就会显现出来。在这种情况下,各团队希望将人工智能模型部署到生产中,但他们只是采用自己的流程和结构,相互之间几乎没有协调。”

富国银行执行副总裁兼企业模型风险主管Agus Sudjianto也强调了高层对人工智能风险治理的重要性。“如果人工智能负责人或管理人员没有地位、信息来源和高层的支持,谈不上治理。”

埃森哲云首席技术师Teresa Tung强调,所有企业都需要关注人工智能。“全球排名前2000内的公司中大约一半的公司在其财报上都提及了人工智能。这是每个企业都需要认识到的。”

与NIST开发的其他风险管理框架(如网络安全框架)一样,最终的AI RMF可能会对私营和公共部门产生广泛的影响。NIST正在向社会征求针对草案的意见,截止日期为2022年4月29日。

责任编辑:赵宁宁 来源: 数世咨询
相关推荐

2022-06-09 16:35:31

人工智能安全数据暴露

2023-06-25 16:22:24

人工智能AI

2023-06-26 16:37:30

AI人工智能

2018-07-09 00:07:18

人工智能安全AI

2024-05-10 13:15:27

2023-09-28 00:09:04

NIST网络安全

2022-07-01 15:13:12

黑客人工智能安全

2017-10-16 05:51:45

2021-01-04 13:34:12

云安全安全框架数据安全

2023-08-08 15:58:03

2024-03-29 06:00:00

人工智能新兴风险安全威胁

2024-03-01 10:00:09

2023-03-14 10:19:14

AIML数据管理

2021-07-17 06:56:01

人工智能AI

2020-05-18 22:15:46

人工智能人工智能安全AI

2018-08-13 20:40:02

AI金融企业风险

2022-06-16 11:35:05

人工智能数据ML

2024-01-09 15:11:56

2023-03-27 11:33:37

人工智能物联网

2017-09-19 14:54:14

人工智能克隆授权
点赞
收藏

51CTO技术栈公众号