为了使人工智能在道德上更加合理和实用,增强深度神经网络的可解释性是至关重要的。
人工智能工作的透明度可能会让那些将该技术融入日常运营的组织感到头疼。那么,该如何做才能消除对可解释人工智能需求的担忧呢?
人工智能在任何行业的深远优势都是众所周知的。我们意识到这项技术是如何帮助世界各地成千上万的企业加快他其运营速度,并使之更有想象力地使用员工。此外,人工智能的长期成本和数据安全效益也被一些技术专栏作家和博主无数地记录下来。不过,人工智能确实存在相当多的问题。其中一个问题是,这项技术的决策有时令人怀疑。但更重要的是,更大的问题是,当人工智能驱动的系统出现令人尴尬或灾难性的错误时,都会略微缺乏可解释性。
人类每天都会犯错误。然而,我们清楚地知道错误是如何产生的。可以采取一系列明确的纠正措施,以避免今后重蹈覆辙。然而,AI的一些错误是无法解释的,因为数据专家不知道算法是如何在操作过程中得出特定结论的。因此,对于计划将该技术应用到日常工作中的组织和已经将其纳入其中的组织来说,可解释的人工智能应该是首要优先考虑的问题。
让人工智能变得可解释的原因
关于人工智能的一个常见谬误是,它完全不会犯错。神经网络,尤其是在其早期阶段,可能会出错。同时,这些网络以非透明的方式执行其命令。如前所述,人工智能模型到达特定结论的路径在操作过程中的任何时刻都不明确。因此,即使是经验丰富的数据专家,也几乎不可能解释这样的错误。
人工智能的透明度问题在医疗保健行业尤为突出。试想一下这个例子:一家医院有一个神经网络或一个黑盒子AI模型,用于诊断病人的脑部疾病。该智能系统经过训练,可以从过去的记录和患者现有的医疗文件中查找数据模式。使用预测分析,如果模型预测对象在未来容易患上与大脑相关的疾病,那么预测背后的原因通常不是百分之百清楚。对于私人和公共机构来说,以下是让人工智能工作更加透明的4个主要原因:
1、问责
如前所述,利益相关者需要知道AI模型决策过程背后的内部运作和推理逻辑,尤其是对于意外的建议和决定。一个可解释的人工智能系统可以确保算法在未来做出公平和道德的建议和决定。这可以提高组织内部人工智能神经网络的合规性和信任度。
2、更大的控制权
可解释的人工智能通常可以防止工作操作中发生系统错误。关于人工智能模型现有弱点的更多知识可用于消除它们。因此,组织可以更好地控制AI系统提供的输出。
3、改进
众所周知,人工智能模型和系统需要不时地进行持续改进。可解释的人工智能算法将在定期的系统更新过程中变得更加智能。
4、新发现
新的信息线索将使人类能够发现当前时代重大问题的解决方案,如治疗HIV AIDS的药物或疗法、处理注意力缺陷障碍的方法。更重要的是,这些发现将有确凿的证据和普遍核查的理由作为支持。
在人工智能驱动的系统中,透明度可以以人类可以理解的自然语言的分析语句的形式显示,突出显示用于制定输出决策的数据的可视化、显示支持给定决策的点的案例,或突出显示系统拒绝其他决策的原因的语句。
近年来,可解释人工智能领域得到了发展和扩展。最重要的是,如果这种趋势在未来继续下去,那么企业将能够使用可解释的人工智能来提高其产出,同时了解每个由人工智能支持的关键决策背后的基本原理。
虽然这些是人工智能需要更加透明的原因,但仍有一些障碍阻止了同样的事情发生。其中一些障碍包括:
人工智能责任悖论
众所周知,可解释的人工智能可以提高人工智能系统的公平性、信任度和合法性等方面。然而,一些组织可能不太热衷于增加其智能系统的责任感,因为可解释的人工智能可能会带来一系列问题。其中一些问题是:
窃取AI模型运行的重要细节。
由于对系统漏洞的了解增加,外部实体的网络攻击威胁。
除此之外,许多人认为,在人工智能系统中揭露和披露机密决策数据会使组织容易受到诉讼或监管行动的影响。
为了不受这种“透明度悖论”的影响,企业必须考虑与可解释人工智能相关的风险与其明显的好处。企业必须有效地管理这些风险,同时确保由可解释的人工智能系统生成的信息不会被淡化。
此外,企业必须明白两件事:首先,让人工智能透明化的相关成本不应阻止其整合此类系统。企业必须制定风险管理计划,以适应可解释的模型,使其提供的关键信息保持机密。其次,企业必须改进其网络安全框架,以检测和消除可能导致数据泄露的漏洞和网络威胁。
人工智能的黑匣子问题
深度学习是人工智能不可或缺的一部分。深度学习模型和神经网络通常以无监督的方式进行训练。深度学习神经网络是人工智能的关键组成部分,涉及图像识别和处理、高级语音识别、自然语言处理和系统翻译。不幸的是,虽然与常规机器学习模型相比,这种AI组件可以处理更复杂的任务,但深度学习也会在日常操作和任务中引入黑匣子问题。
正如所知,神经网络可以复制人脑的工作。人工神经网络的结构是模仿真实的神经网络。神经网络是由几层相互连接的节点和其他“隐藏”层创建的。虽然这些神经节点执行基本的逻辑和数学运算来得出结论,但也足够智能和直观,可以处理历史数据并从中生成结果。真正复杂的操作涉及多个神经层和数十亿个数学变量。因此,从这些系统生成的输出几乎没有机会得到组织中的AI专家的全面验证和确认。
Deloitte和Google等组织正在致力于创建工具和数字应用程序,这些工具和应用程序可以冲破黑匣子,揭示用于做出关键人工智能决策的数据,以提高智能系统的透明度。
为了让人工智能更负责任,组织必须重新设想其现有的人工智能治理策略。以下是改善治理可以减少基于透明度的人工智能问题的一些关键领域。
系统设计
在初始阶段,组织可以在构建AI系统和训练神经网络时优先考虑信任和透明度。密切关注人工智能服务提供商和供应商如何设计人工智能网络,可以提醒组织中的关键决策者有关AI模型的能力和准确性的早期问题。通过这种方式,在系统设计阶段有一个实际操作的方法可以揭示一些AI基于透明度的问题,供组织观察。
合规
随着世界各地的人工智能法规在人工智能责任方面变得越来越严格,组织可以从使其AI模型和系统符合这些规范和标准中真正受益。组织必须推动其人工智能供应商创建可解释的人工智能系统。为了消除人工智能算法中的偏见,企业可以接触基于云的服务提供商,而不是聘请昂贵的数据专家和团队。组织必须通过明确指示云服务提供商在其工作场所安装和实施AI系统期间勾选所有与合规相关的方框,来减轻合规负担。除了这些要点之外,组织还可以在其AI治理计划中包括隐私和数据安全等方面的要点。
自世纪之交以来,我们取得了一些最令人震惊的技术进步,其中包括人工智能和深度学习。幸运的是,尽管100%可解释的人工智能还不存在,但人工智能驱动的透明系统的概念并不是一个无法实现的梦想。这取决于实施这些系统的组织如何改善其人工智能治理,并为实现这一目标承担风险。