高管们长期以来一直抵制将数据分析用于更高层次的决策,他们总是青睐依靠基于现场经验的直觉层面的决策,而不是AI辅助的决策。
AI已在许多行业被广泛用于战术性、低级别的决策——信用评分、超额促销建议、聊天机器人或管理机器性能都是成功部署AI的例子。然而,它在更高层次的战略决策中的作用尚待证明——比如重组产品线,改变企业战略,在各职能部门重新配置人力资源,或与新的合作伙伴建立关系。
无论是AI还是高级分析,企业领导者仍然还没有做好准备,以深刻的方式将他们的业务完全押在机器做出的决策上。瑞士国际管理发展学院商学院(IMD Business School)的阿米特·乔希(Amit Joshi)和迈克尔·韦德(Michael Wade)对金融和零售企业中的AI活动开展的研究发现,“AI现在主要被用于战术性而非战略性目的——事实上,很少能够找到一个完整的长期AI战略愿景。”
在接受德勤(Deloitte)的一项调查时,三分之二以上的高管(67%)表示,他们在访问或使用先进分析系统的数据时感到“不自在”。在拥有强大数据驱动文化的企业中,37%的受访者仍然表达了不适。同样,在毕马威(KPMG)开展的一项类似调查中,67%的CEO表示他们通常更喜欢根据自己的直觉和经验来做决定,而不是通过数据分析产生的见解。该研究证实,许多高管对其公司的数据、分析和AI缺乏高度信任,而且不确定谁该对错误和滥用AI负责。数据科学家和分析师也看到了高管们的这种不情愿——SAS最近的一项调查发现,42%的数据科学家表示他们的结果没有被企业决策者使用。
高管们何时才能做好准备,将AI推向下一步,对AI足够信任,以至于会按照那些影响他们业务的更具战略性的建议而采取行动?虽然存在许多挑战,但是现在可以采取四项行动,以增加高管在AI辅助决策方面的信心。
创建可靠的模式
高管的犹豫可能源于负面的经历,比如某AI系统提供了误导性的销售结果。几乎每个失败的AI项目都有一个共同点——缺乏数据质量。在旧的企业模式中,结构化的数据占主导地位,它在数据从源头到达时就对其进行分类,使得数据相对容易立即投入使用。
虽然AI可以使用高质量的结构化数据,但它也使用大量的非结构化数据来创建机器学习(machine learning, ML)模型和深度学习(deep learning,DL)模型。这些非结构化数据虽然很容易以原始格式收集,但如果不对其进行适当的分类、标记和清理,它们是无法使用的——视频、图像、图片、音频、文本和日志——都需要进行分类、标记,以便AI系统创建和训练模型,然后才能将这些模型部署到现实世界。因此,输入AI系统的数据可能是过时、不相关、多余、有限的或不准确的数据。输入AI/ML模型的片面数据只会提供企业的局部视野。AI模型的构建可能是为了反映企业一直以来的经营方式,并没有能力适应新的机会或现实,例如我们看到的因全球疫情的影响而造成的供应链中断。这意味着数据需要实时输入,这样才能实时创建或改变模型。
难怪,许多数据科学家把一半的时间花在数据准备上。在创建能提供适当结果的可靠AI模型的过程中,这仍然是唯一的重要任务。要获得高管的信任,背景和可靠性是关键。有许多AI工具可以用来帮助进行数据准备——从综合数据到数据去偏,再到数据清理,企业应该考虑使用其中一些人AI工具在合适的时间提供合适的数据,以创建可靠的AI模型。
避免数据偏见
高管的迟疑态度可能是出于持续、合理的担忧,认为AI结果会在其企业内部导致歧视或影响客户。同样,固有的AI偏见可能会将企业决策引向错误的方向。如果不采取谨慎的措施清除数据中的任何偏见,所产生的AI模型始终会带有偏见,结果造成“输入垃圾,输出垃圾”的局面。如果某一AI模型是用有偏见的数据进行训练的,它就会影响该模型的准确性并产生有偏见的建议。
模型和决策只有在数据不存在偏见的情况下才算是好的模型和决策。糟糕的数据,无论是有意还是无意,都可能包含隐性偏见信息——比如种族、性别、出身、政治、社会或其他意识形态偏见。此外,对企业有害的其他形式的偏见也可能是固有的。现在大约有175种已认定的人类偏见需要关注。这需要通过分析找出输入数据的偏见和其他负面特征来解决。如上所述,AI团队花了过多的时间准备数据格式和质量,但没花多少时间来消除偏见数据。
高层决策中使用的数据需要进行彻底审查,以向高管们保证这些数据经过验证、有权威性、经过鉴定,并且来源可靠。它需要从已知的歧视性做法中清理出来,那些做法会影响算法的准确性。
如果数据来自有问题的或未经审核的来源,它要么应该完全根除,要么应该得到较低的信任分数。另外,通过控制分类精度,歧视可以以最小的增量成本大幅减少。这种数据预处理的优化应该集中在控制歧视、限制数据集的失真和保持效用上。
人们通常假设——错误地假设——AI的数学模型最终可以滤除人类的偏见。其风险在于,这种模型,如果不受限制地运行,可能会导致额外的不可预见的偏见——原因还是输入的数据受限或准确性受到影响。
做出符合伦理和道德的决策
高管的迟疑态度可能反映了这样一个事实:企业正面临着前所未有的压力,要确保企业的运营符合道德和伦理,而AI辅助的决策也需要反映伦理观和道德观。部分原因是他们希望以具有伦理和道德价值观的公司形象出现并诚信经营,部分原因是做出错误的决定可能引起法律责任,而这些错误决定可能会在法庭上受到质疑——尤其是考虑到决定如果是由AI做出的或由AI辅助的,它将经历额外一层的审查。
研究和教育机构正在进行研究,将人类的价值观应用于AI系统,将这些价值观转换成机器可以理解的工程术语。比如,加州大学伯克利分校的计算机科学教授斯图尔特·拉塞尔(Stuart Russell)率先提出了人称“价值对齐原则”(Value Alignment Principle)的有用想法,该想法实质上是“奖励”AI系统从事更可接受的行为。AI系统或机器人可以被训练来阅读故事,从这些故事中学习可接受的事件序列,并更好地反映成功的行为方式。
至关重要的是,拉塞尔开展的这种研究被引入商业领域,因为AI极有可能影响到涉及生活与事业的决策的准确性。企业需要确保有足够的制衡,以确保AI辅助的决策符合伦理和道德。
能够解释AI决策
如果缺乏透明度,高管们在接受AI决策时可能会有戒心。大多数AI决策都没有内在的可解释性。当做出的决定和采取的行动会给企业带来数百万美元的风险,或涉及人们的生命/工作时,如果声称是AI做出了这个决策、所以我们是在按此决策行事,这样做不太好。
AI产生的结果和在此基础上采取的行动不可能不透明。直到最近,大多数系统都被编制了程序,可以清晰识别和处理预先确定的情况。然而,传统的非认知型系统在遇到它们程序中未设定的情况时就会碰壁。另一方面,要置入一定程度的批判性思维能力,旨在更接近地模仿人脑。随着新情况的出现,这些系统可以学习、理解、分析情况并根据情况采取行动,无需另外编程。
用于训练算法的数据需要以负责任的方式进行维护——通过安全存储、验证、审核和加密。区块链或其他分布式账本技术之类的新兴方法也提供了一个永恒不变且可审核的存储方式。此外,需要设立一个第三方管理框架,以确保AI决策不仅可以解释,而且是基于事实和数据。在一天结束时,应该有可能证明,人类专家如果被提供了同样数据集,是否会得出同样的结果——AI没有操纵结果。
AI基于数据的决策几乎总是以概率(概率性相比于确定性)为基础。正因为如此,当AI做出决定时,总是存在一定程度的不确定性。对结果的可靠性必须要有相应程度的信心或评分。正是由于这个原因,大多数系统不能、不会、也不应该实现自动化。在近期的未来,人类需要在决策圈中发挥作用。这使得在涉及医疗卫生等敏感行业时,依赖基于机器的决策难度更大。在医疗卫生行业,决策不够好的概率是98%。
随着系统之间的相互作用,事情变得复杂和不可预测。据隶属于哈佛大学伯克曼·克莱因互联网与社会中心(Berkman Klein Center for Internet and Society at Harvard University)的戴维·温伯格(David Weinberger)博士称:“我们开始接受这样的事实:世界的真正复杂性远远超过了我们设计来解释它的法则和模型”。无论决策变得多么复杂,今天的企业仍然需要来自人类的批判性思维来运营。高管们仍然需要有能力否决或质疑基于AI的输出,尤其是在一个不透明的过程中。
提高高管信心的任务
在寻求提高高管对AI方面的舒适度时,请考虑以下行动步骤:
- 提升IT部门之外接触到AI流程的任何人对AI的主人翁和责任感。为促进合乎道德的决策,在数据经济中生存,需要进行文化变革。
- 认识到AI(在大多数情况下)只是根据先前的数据和模式做出决定并对未来进行一些猜测的代码。每位企业领导——以及与他们共事的员工——仍然需要批判性思维能力来质疑AI的输出。
- 将AI瞄准其影响力最大的领域,并首先完善这些领域,这将增加最大的商业价值。
- 调查并推行最具影响力的技术。
- 通过提高透明度,并最大限度实现决策提供链的能观性,确保AI中的公平性。
- 在各个级别促进对公平、可操作AI的更多认识和培训,并将激励措施与AI的成功采用挂钩。
- 定期、系统性地审视或审查AI结果。
- 负起责任,自主决策,如果做出了错误的决定,请纠正方向——不要怪罪于AI。
不可避免的是,出于战略目的,更多的AI辅助决策将出现在高管办公室。目前,AI将在决策方面协助人类表现出更强的智能,而不是按一个按钮就能提供独角兽式的正确见解。确保这些AI辅助决策的输出是基于可靠、无偏见、可解释、符合伦理、道德且透明的见解,这将有助于企业领导者现在及在未来几年对基于AI的决策充满信心。