人工智能正在用行动证实其在金融服务行业的价值,如今,其应用范围已经从识别欺诈行为和打击金融犯罪,发展到为客户提供创新的数字化体验。然而,这种从传统的基于规则的模型到利用机器学习模型做决策的演进,也正在为金融机构制造新的难题。
如果缺乏适当的步骤来确保机器学习模型所做决策的可信度,那么许多企业组织可能会在不知不觉中暴露于声誉和财务风险中。使用缺乏“可解释性”和透明度的“黑盒”AI技术会使企业组织无法获悉决策产生的原因和过程,更无法获悉决策是何时出现问题的。
AI应用以输出决策判断为目标,随着人们在日常生活中越来越依赖AI,能够理解决策产生的过程也变得愈发重要。这种情况下,“可解释的”AI概念应运而生。所谓“可解释的AI”是指人类能够通过动态生成的图表或文本描述轻松理解AI技术做出决策的路径。AI的可解释性越高,人们越容易理解为什么做出某些决定或判断。
如今,金融机构正处在十字路口。IBM和Morning Consult的一项新研究发现,金融领域中44%的企业组织表示,有限的专业知识和技能是他们成功部署AI技术最大的挑战。在整个疫情大流行期间,采用新技术来提高运营效率并使金融机构在竞争对手中脱颖而出的压力越来越大。随着越来越多的组织部署AI技术,重要的是要确保输出结果的公平公正,提升对AI决策的信任度,并扩大AI部署规模以优化其业务运营。
金融行业如何提升对人工智能的信任感?
首先也是最重要的,在任何金融机构开始考虑将AI集成到其业务运营中之前,他们必须先要从最基础的定义政策和规范等方面了解道德和值得信赖的AI技术。金融服务企业已经意识到了这一点,因为在IBM的《2021年全球人工智能采用指数报告》中,85%的受访者表示,能够解释人工智能如何做出决定对他们的业务很重要。
金融组织应该能够清楚地定义“公平”在其行业中的真正含义以及如何监控公平。同样地,组织还应该清楚他们如今作为公司实体的立场以及哪些政策反映了这种立场。
完成这第一步,金融机构便可以着手研究采用AI模型的特定用例。例如,考虑AI模型在各种信用风险场景中的表现。哪些参数会影响其决策?它是否不公平地将风险与人口统计相关联?
所有这些元素都需要仔细考虑,并且需要在AI运行的整个生命周期——从构建和验证模型,到部署和使用它们——牢记这一点。如今,企业组织也可以借助各类相关平台来帮助指导这一过程,确保模型的公正和无偏见(在政策规定的公平范围内),同时能够为监管机构提供可视化和解释决策的能力。不过,尽管市场上存在这些工具,但63%的受访金融服务组织表示,不适用所有数据环境的AI治理和管理工具是部署可信赖AI模型的障碍。
金融机构如果对其AI模型更具信心,便可以将更少的精力花费在繁重的任务上,并将注意力集中在价值更高的工作上。例如,欺诈检测是当今金融服务中AI的常见用例,但误报率仍然很高。如果AI系统可以解释为什么它认为一个案例是具有欺诈性的,更重要的是,如果它能够证明自己不会系统地偏袒一个群体,人类员工便可以花费更少的时间来验证结果,而可以将更多的时间用于交付更高价值的工作上。
初创企业是否需要采取与传统金融机构不同的方法?
归根结底,无论您是传统金融机构还是初出茅庐的初创企业,您都需要同等关注确保公平、道德和透明的AI技术。
最突出的区别在于,传统金融机构已经拥有现成的模型风险管理实践,通常适用于传统的基于规则的模型。而且,传统金融机构也已经拥有部署到位的技术和流程,因此,改变方法通常更具挑战性。不过,无论使用哪种开发和部署工具,都必须考虑如何扩展现有模型风险管理实践以支持AI/ML模型。
许多金融科技初创公司可能没有考虑对这项技术进行现有投资,这也使他们有更多的自由来选择具有内置功能的同类最佳开发、部署和监控平台。
AI在金融行业的未来之路
对于那些仍将人工智能投资视为“冒险之举”的企业组织而言,此次疫情大流行可谓起到了催化剂的作用,让他们认识到了AI技术对于提高效率、减轻远程工作者压力等诸多好处。目前,金融行业中有28%的企业表示他们已将AI作为业务运营的一部分积极部署。虽然AI技术的渗透速度非常快,而且规模很大,但44%的企业表示他们仍处于探索AI解决方案的初步阶段,22%的企业目前没有使用或探索使用AI解决方案。这就意味着目前,大多数金融公司正在开发概念证明(PoC)或分析其数据以用于未来的增长和使用目的。
随着步入“后疫情”时代,企业组织需要比以往任何时候都更加警惕,以确保其AI技术正在以“负责任”的方式运行,而非在助长系统性的不公正。世界各国政府即将出台的法律法规也将继续关注组织(尤其是金融行业)如何负责任地使用这项技术。
总而言之,想要获取对AI决策的广泛信任,根本没有捷径可走,但企业组织可以从采取持续的、深思熟虑的步骤开始,以解决偏见和不公正并提高可解释性。