收好这6大tips,妥妥解决AI治理问题

人工智能 CIOAge
随着人工智能从试验阶段进入实际使用,企业必须建立跨部门的监督策略,重点放在数据质量、合规性、伦理道德等方面。

人工智能治理涉及企业内的许多功能领域——数据隐私、算法偏差、合规性、道德规范等等。因此,要做好人工智能技术使用的治理工作需要在多个层面上采取行动。

塔塔咨询服务公司数据和分析业务主管Kamlesh Mhashilkar认为:“这不仅仅涉及IT层面或者项目层面。”他说,人工智能治理也发生在政府、董事会和首席安全官等层面。

[[410104]]

例如,在医疗健康领域,人工智能模型必须通过严格的审核和检查。许多其他行业也有适用的法规。Mhashilkar说:“在董事会层面,这关乎到经济行为。引入人工智能时,会面临哪些风险?”

至于高管,人工智能议程是有目的的。例如,首席财务官要考虑股东价值和盈利能力。首席信息官和首席数据官也是关键的相关方,营销与合规主管当然也是。更不用说客户和供应商了。

构建人工智能治理战略时,并非所有企业都需要在各个方面采取行动。尽管如此,所有企业都在或者很快将要使用人工智能和相关技术,即使这些技术只是嵌入到他们使用的第三方工具和服务中。

在没有适当监督的情况下使用人工智能时,它有可能犯错,导致损害企业运营、侵犯隐私权、违反行业法规,或者会对企业造成不良声誉。

以下介绍有远见的企业将人工智能项目从试点扩展到实际使用时,怎样开始解决人工智能治理问题,重点关注数据质量、算法性能、合规性和伦理道德等。

人工智能的伦理道德问题

如今,很少有哪个领域比面部识别更充斥着伦理道德问题。滥用面部识别的可能性很大,提供面部识别技术的企业受到了公众的抵制,有时还受到自己员工的抵制。

Patriot One科技公司的子公司Xtract AI就是这种情况,该公司使用图像识别来发现携带武器的人。

Xtract的运营副总裁Justin Granek说,这项技术还可以用于其他场合,比如识别那些不戴口罩,不遵守社交距离准则的人。

他说:“伦理道德是一个主要话题。对我们来说,很多事情都是自下而上的。我们的员工在说,‘我们在做什么?’,并强烈要求领导层制定我们的治理政策。”

他说:“客户有自己的一套要求,我们得找到平衡点。我们的一家客户是加拿大国防部,还有些客户来自医疗健康行业。他们会从不同的角度看待这个问题。”

他说,最大的问题是为哪些客户工作,以及这项技术应该做什么样的工作。这涉及到关乎企业使命的重大决策。还要解决一些技术问题,这些问题都是从数据开始的。

正确获取数据

算法偏差的最大来源是数据集。例如,对于面部识别,数据集一直没能很好地代表一般人群。Xtract AI运营副总裁Justin Granek说:“它们偏向于白人男性。我们正在纠正,但还有很多工作要做。”

专家可以帮助解决数据偏差问题,商业数据提供商正在努力填补他们提供的数据中的空白。Granek说,也有创建合成数据集的方法,但解决办法往往归结为去获得更好的数据。

对于Xtract的检测算法来说,这意味着建立实验室,放上各种各样的退役枪支,让很多人带着枪以不同的方式,在不同的地方走来走去。

他说:“一种天真的做法是,就在好莱坞大片里寻找人们持枪行走的画面,但这并不能代表全部。”

相反,Xtract尽力收集大量的个人信息作为训练数据。Granek说:“没有规定谁可以携带武器。有一些学生,还有更年长的个体,我们有很多不同的个体。”

对于一些人工智能应用程序,准确、有代表性的数据集决定了生存与否,具有重大的道德和伦理意义。但即使不良数据集的影响不会导致问题,它们仍可能给企业带来运营或者财务损害,或者导致监管与合规问题。

世界上最大的建筑材料分销商、总部位于墨西哥的Cemex公司便非常关注后一个问题。这家公司已有100多年的历史,正通过在供应链管理和运营中使用人工智能来重塑自我。

大约三年前,Cemex公司开始研究人工智能及其相关技术,以扩大市场份额,改善客户服务,提高利润。

该公司首席人工智能官Nir Kaldero介绍说:“去年和今年,我们实际上看到了人工智能在全球范围内的价值——而不仅仅是某个地方的小规模试点。”

他说,随着人工智能已经牢固地融入企业基因中,Cemex意识到有必要围绕人工智能建立治理结构。

一切都从数据开始。Kaldero说:“没有好的信息架构,就没有好的、可靠的人工智能。没有好的信息,就不可能有好的、可靠的模型。”

在Cemex公司,数据治理涉及安全、监控、隐私、合规和伦理道德规范。公司需要知道数据的位置,在哪里以及怎样使用,是否符合监管要求以及有没有偏见。

Kaldero说,Cemex依靠Snowflake数据平台来管理数据,利用Satori来管理访问,还有一位高管专门负责数据,领导治理团队的另一位高管则负责治理工作。

建立正确的模型

除了数据治理之外,Cemex公司还开始围绕人工智能模型和结果进行治理。Kaldero说:“这是新生事物。不仅仅是为了Cemex,也是为了全世界。”

这项任务由Kaldero的人工智能和数据科学小组以及首席信息官小组共同承担。

Cemex公司目前使用人工智能来预测零件需求,这样就可以通过与供应商达成更好的交易来节省资金。公司还使用了人工智能来安排卡车的路线和调度,以及销售和定价。如果这些计算中有任何一项不正确,该公司将蒙受巨额损失。

因此,为了防止模型漂移和算法偏差,Cemex公司使用了西雅图Algorithmia公司的技术。

KenSci是另一家关注人工智能模型下游后果的公司。这家总部位于西雅图的公司利用人工智能来分析医疗健康数据,在这一领域,准确的人工智能模型真的是人命关天。

该公司的首席数据科学家Muhammad Aurangzeb Ahmad说:“我们总是首先与具有代表性和多样化的相关方一起评估人工智能模型的目标。”为了确保这些模型是透明和负责任的,其核心组成部分包括了可解释性。

他说:“我们甚至发布了开源的Python包fairMLHealth,任何人都可以用它来衡量机器学习模型的公平性。”

Ahmad还建议检查人工智能模型在不同群体中的表现,以确保公平地对待其他弱势群体。

他说:“人工智能模型的透明性和可解释性使得它们更容易被最终用户使用和信任。而且更容易接受检查,并在需要时予以纠正。”

人工智能与伦理道德

在制定治理策略时要考虑的另一个关键领域是人工智能使用的伦理道德。Ahmad说:“立法没有跟上技术的发展。机器学习系统的创造者有责任结合伦理道德目标来衡量系统的价值。当需要权衡时,我们应该慎之又慎。”

数字服务咨询公司Nerdery的首席技术官Joe Tobolski认为,企业越来越意识到人工智能可能带来伦理道德风险。他说:“他们是否完全清楚自己运行的是什么系统,隐藏在背后的训练数据是什么?可能不会。”

很少有企业在他们的人工智能项目、数据源和技术使用上采用明确的人工智能伦理道德规范。他说:“这就是我希望看到我们去做的事情——有一个强大的、规范性的框架来规避这些问题。”

Cemex是一家有意限制人工智能使用的企业,目的是尽量减少可能出现的伦理道德问题。例如,Kaldero说,公司会优先考虑改善服务和帮助客户的项目,而不是那些简单地减少员工数量的项目。

他说:“企业的核心是员工,而不是技术。我们可以实现所有客户呼叫中心的自动化,但这不符合我们的利益。Cemex非常自豪能成为一家为人们提供就业机会的用人单位。在我们企业的使命中,有这些是很美妙的。”

选择人工智能项目是为了对员工队伍产生积极影响。以安全为例。Kaldero说:“这对人工智能来说是一个巨大的创举。Cemex已经大大减少了事故,几乎为零。而要想完全归零的方法就是通过图像识别。”

人工智能治理策略

对于总部位于马萨诸塞州斯普林菲尔德的人寿保险公司MassMutual来说,人工智能治理是建立在一套不断发展的数据伦理原则基础上的,这些原则指导着行动和决策。

该公司的数据、战略和架构主管Sears Merritt表示:“我们专门制定了一套原则,用人工智能来发展业务,使企业价值观和保单持有人的利益相一致。我们还成立了一个部门,通过建立政策框架来监督人工智能的使用。”

大约一年前,MassMutual开始研究人工智能伦理道德和治理,当时该公司意识到需要证明并确保使用人工智能是为了保单持有人的利益。

Merritt现在监管一个由6人组成的部门,其中包括人工智能伦理道德和治理顾问,他们跟踪算法是否遵循治理原则以及它们随时间怎样变化,为公司已经遵循的方法建立一种正式的结构。

Merrit说:“我们认为,我们的工作会对所有相关方产生巨大影响”,他建议从符合企业价值观和客户利益的核心原则入手,与法律、合规、道德和商业领域的合作伙伴合作,坚持实施下去。

他介绍说,MassMutual接下来计划是将其框架推广为业内最佳实践。

护栏的重要性

博思艾伦咨询公司(Booz Allen Hamilton)高级副总裁John Larson说,我们应该熟悉人工智能治理的很多最佳实践。

他说:“我干这行已经25年了。开发软件和算法的原理,以前都有。而没有的是数据的速度、处理能力和学习算法。”

人工智能系统对训练数据的需求非常大,使用的数据集通常比以往任何时候都大,而且,由于当今企业的数字化,数据正以前所未有的速度源源不断的从网站、网络传感器、物联网设备和其他来源传入。

处理这些数据的能力也比以往任何时候都要高得多,这在很大程度上要归功于几乎可以无限扩展的云资源。

最后,一些人工智能系统的反馈特性意味着,它们实际上是靠自己边干边学,而这类学习可以把它们带到意想不到的方向,速度之快让人类无法作出反应。

Larson说:“25年前的治理模式——原则是一样的,但它们不能完全适应我们所面临的挑战”,他补充说,解决方案是在人工智能系统中构建自动防护措施。

例如,开发人员可以设置护栏。如果模型的预测精度偏离了预定目标,或者模型在设计参数范围内停止运行,则可能需要某种形式的干预。同样,如果进入系统的数据不再反映所需的特性,则可能会发出警报,要求重新评估数据源,或者选择更适合传入数据的不同模型。

还可以通过其他方式监控人工智能系统。例如,有助于在问题导致监管罚款或者出现公共关系灾难之前发现问题。

Larson说:“已经开发出了一些工具——谷歌有,微软也有,可以评估一个模型是否对某些东西有偏见。在博思艾伦,我们也在开发其中一些工具包,并试图为我们所有的数据科学家提供工具。”

责任编辑:赵宁宁 来源: 今日头条
相关推荐

2018-12-06 09:41:12

持续集成软件

2022-07-17 06:54:51

Eureka架构

2019-05-30 14:05:35

固态硬盘协议?

2018-10-16 09:43:26

负载均衡TCPHTTP

2020-12-03 06:30:11

内部类对象变量

2024-01-18 16:19:31

数据治理AI疲劳数据安全

2022-11-15 08:30:23

设计模式场景map

2024-02-05 13:41:00

2023-09-15 13:18:53

数据训练

2020-07-14 11:14:31

开发技能工具

2022-09-13 12:56:28

前端优化

2022-06-06 10:58:52

训练DeepMind研究

2021-06-03 10:54:57

Wi-Fi 6无线网络AP

2018-10-23 09:22:06

2022-12-13 14:46:25

模型

2020-12-18 09:17:27

分析设计师UI

2022-07-01 15:15:56

AIMITOpenAI
点赞
收藏

51CTO技术栈公众号