如何让人工智能变得可解释?

人工智能
随着AI的普及应用,现在所有人都在问一个关键话题:如何才能让人工智能变得可解释?

RegTech 公司Hawk: AI的首席技术官沃尔夫冈·伯纳(Wolfgang Berner)的表示,如果你真的可解释性对于许多应用尤为关键。

伯纳表示:“在反洗钱等严格监管的领域,考虑人工智能的使用透明度和可解释性是完全合适的。当AI的决策与原始数据过于脱节,以及算法的工作方式缺乏透明度时,人们就会对这种典型的“黑匣子AI”产生担忧。”

Hawk AI认为,合规行业、信任和接受的关键在于高度的透明度。因此,对于该公司来说,对人工智能可解释性的需求远远超出了纯粹的监管要求。

借助可理解的人工智能,金融机构甚至可以对神经网络等复杂模型进行概览和控制。对于 Hawk AI,可解释性由两个方面组成——人工智能驱动的个人决策的理由是什么?有助于人工智能的算法是如何开发的?

Hawk AI 表示:“对于 Hawk AI 来说,这很清楚——只有技术上可以解释的,最终才会被接受。决策的确切标准或某些风险的统计概率以及算法的组成与 AI 决策过程的完整文档一样重要。同样重要的是,所有这些都以清晰易懂的语言而不是纯粹的技术术语来表达。”

该公司认为,每个细节和每个数据源都必须是可验证的——例如,与特定同行组相比,某些值是显着高还是低。为什么人工智能假设某些预期值以及这些值如何相互关联,必须是透明的。数据情况必须非常清楚,以至于合规官会使用相同的数据做出相同的决定。

此外,一致的反馈和验证流程有助于不断改进决策——因此,人工智能直接从合规团队的决策中学习,并可以在未来更好地支持他们。

Hawk 提到,AI 不仅在其应用之初必须是透明的——因为它通过接触新数据来独立改进,还需要能够理解这样的优化。为此,该公司声称 AI 的每一个变更过程也都记录在软件中,并且需要明确的批准。因此,如果没有合规团队能够理解和控制它,人工智能就永远不会进化。

Hawk AI 总结道:“AI 反洗钱已经准备就绪——有了 Hawk AI,它是透明且安全的。由于这些原因,Hawk AI 谈到了与人工智能相关的“白盒 AI”,与“黑盒 AI”相比,其技术对于合规团队来说是完全可以理解的。因此,我们的软件提供了完全的控制和安全性。人工智能在金融领域的应用正在彻底改变打击金融犯罪的斗争。

“技术驱动的反洗钱不仅在效率和有效性方面明显超越了传统系统,而且由于它能够从犯罪行为模式中学习,因此特别具有前瞻性。因此,从长远来看,使用人工智能打击金融犯罪将成为行业标准。多年来,该技术已在实践中得到验证。即使在非常大的金融机构中,它今天已经在使用,或者至少在第一批试点中已经建立。”

Hawk AI 已与推动金融和零售互联商务的领导者 Diebold Nixdorf 合作,以扩大前者的 AML 解决方案的覆盖范围。

责任编辑:姜华 来源: 千家网
相关推荐

2023-03-15 16:02:27

2022-09-07 11:34:49

人工智能智能建筑

2023-09-04 14:09:13

2024-01-11 14:42:20

人工智能机器学习算法

2018-05-23 09:20:12

人工智能机器学习技术

2019-06-11 16:06:10

人工智能AI自动驾驶

2022-11-01 17:09:28

2022-06-13 15:28:42

人工智能机器学习数据

2023-09-20 11:42:44

人工智能AI

2024-05-28 08:00:00

人工智能机器学习

2021-01-14 22:13:03

人工智能教育互联网

2022-11-04 16:23:30

AI人工智能

2020-09-16 10:37:10

人工智能AI技术

2023-08-15 10:04:40

2020-12-18 11:59:21

人工智能知识图谱

2019-11-04 09:24:27

人工智能技术数据

2021-09-14 10:13:57

人工智能AI深度学习

2021-09-16 09:09:03

“可解释的”人工智能XAI人工智能

2020-11-11 12:15:31

AI人工智能可解释性

2022-11-15 17:12:01

人工智能AI
点赞
收藏

51CTO技术栈公众号