人工智能无处不在,潜力令人难以置信,但正如俗话所说,强大的力量带来巨大的责任。不幸的是,像优步的“上帝”模式及其现在被认为是歧视性的算法,都已经成为不该做什么的例子。
在所有行业中,组织越来越多地转向人工智能来克服业务挑战并推动其业务向前发展,但我们如何确保自己不会成为下一个以错误理由抢占这些头条新闻的人?障碍和特定的陷阱在哪里?组织如何才能更好地寻找正确的方法?问题不在于人工智能本身,而在于它是如何开发和使用的。
讲道德
首先,组织需要理解为什么道德人工智能是重要的——不仅仅是不接受坏消息。
人工智能的一个巨大好处是,它被用来在规模上产生影响,但这意味着它的错误或正确也将产生广泛的后果。回到前面提到的Deliveroo和Uber的例子,这些算法最终影响了许多工作和人们。重要的是不要忘记人工智能对人类的影响。
将道德观念融入人工智能实际上是防止偏见和其他风险的最佳方法。如果继续使用同样的传统方法和程序,同样的问题将继续出现,歧视(尽管是无意识的)肯定也将继续存在。有了精心开发的人工智能,就有可能消除人类的偏见,但前提是人工智能是合乎道德的。这不仅仅是一个理论上的陈述或研究(这不会让我误解,也是非常重要的),而是一个以正确的方式进行日常业务的工具,对于组织,对于他们的客户和用户。就这么简单。
找出痛点
道德人工智能最初最大的问题之一是,什么是“道德的”这个概念是模糊的,可以解释。在组织希望创建道德人工智能之前,他们对道德的理解需要被明确定义,以确保每个人都站在同一个角度。每个人都需要确定他们为什么要开发人工智能技术及其预期用途。清楚地概述和说明为什么以及如何使用人工智能技术,并制定规则,也有助于防止可能的滥用,就像优步的案例一样。
将这些道德观念转化为人工智能的实际应用是企业面临的下一个重大挑战。在这里,当企业开始创建和开发一个算法时,问题就开始了:我们如何构建一个算法和我们如何使用它一样重要。最初的数据输入和随后形成的计算模型将决定组织是获得预期的结果,还是产生道德困境。例如,许多算法以前都是基于历史数据设计的,但这往往意味着旧的模式可以简单地重复——继续存在相同的问题,可能存在相同的歧视或偏见。
处理过去的问题
组织需要停止重复同样的模式和同样的问题。其中很大一部分归结为数据。
人工智能形成自己的模式,根据输入的数据生成执行任务的过程。因此,一个算法只能和它的数据一样好。如果数据以某种方式扭曲,它将影响最终的输出,一旦模式建立起来,人工智能将继续简单地遵循它们。因此,高质量的数据是最重要的,以及了解这些数据从何而来。组织必须使用当前的、干净的数据,如果需要,在采取任何步骤之前,必须清理数据。最后,该算法基本实现了隐藏在数据中的模式;是数据起了很大的作用。
在这个阶段,还需要注意可能的人为错误的一个关键因素。虽然数据可能已经被清理,希望能够防止可能的偏见或歧视,但那些负责输入数据和创建算法的人可能会无意识地投射出他们的偏见或偏见。人工智能的发展需要以开放的心态进行,没有偏见,以确保不形成歧视性模式。我们经常在工作场合谈论多样性和包容性,我们需要开始思考算法中的多样性和包容性!
组织和他们的商业希望和抱负只会和他们的人工智能算法一样好。因此,这些算法必须经过仔细、深思熟虑的开发,定期测试,而不是仓促使用——我们如何使用它们和如何构建它们一样重要。对企业来说幸运的是,创造合乎道德的人工智能得到了越来越多的外部支持,比如欧盟的人工智能七原则,为数据科学家和人工智能专家提供了一个框架,使合乎道德的人工智能应用程序能够运行。然而,最终,他们的人工智能技术的成功和影响的责任,以及它是被赞扬的创新还是被谴责的歧视,在于个人组织和他们如何开发和使用人工智能。