人工智能有两个明显的目标,就目前而言,这两个目标并不相互排斥,但其中只有一个可以长期造福人类。这些目标要么是加强人们的工作,要么是取代人。最近有两个故事引起了我的注意,这表明我们可能需要调整我们认为的道德行为以正确利用人工智能。
第一个故事是关于一位艺术家使用 AI 创作艺术作品不公平地赢得了艺术比赛,而另一个故事是使用 AI 让学生更快地写出更好的论文。后者目前与作弊有关。
二者都像我过去听到的关于如何在学校禁止使用计算器和个人电脑的争论,因为它们避免了学习乘法表或在图书馆而不是在维基百科上进行初级研究的需要,即使技能随着时间的推移,使用这两种方法对作为员工的学生来说比旧的做事方式更有价值。
简而言之,我们最终必须弄清楚的是,使用人工智能更快地创造出更好的产品是否被认为是作弊,还是只是谨慎行事?
大的人工智能伦理问题
关于人工智能,我们没有讨论的问题是,创造取代人类的人工智能可能要比创造增强人类的人工智能容易得多。第一种方法只需要专注于复制这个人所做的事情,创建一个他们的数字孪生兄弟,现在已经有公司在做这个了。更简单的是,你不需要与人类接触,而人类缺乏共同的语言、共同的技能、共同的兴趣,甚至共同的体型。我们甚至还没有培训人们如何与会话人工智能打交道。如前所述,我们更倾向于惩罚那些有效使用工具的人,而不是奖励他们的技能。
这意味着AI最有效的使用路径不是增强路径,而是替代路径,因为AI在其参数范围内单独运行并不令人反感,但AI被用于显著增强用户,特别是在竞争中,会被视为作弊。这种对替换的关注在自动驾驶汽车上尤为明显。
对于自动驾驶汽车,目前默认的技术是增强驾驶员的能力,丰田称之为“守护天使”(Guardian Angel)。但在测试中, 英特尔发现,在自动驾驶汽车中为人类驾驶员提供控制会增加驾驶员的压力,因为他们不知道自己是否会突然被要求驾驶汽车。如果汽车不提供人类驾驶选项,未经训练的驾驶员会感到更舒服,这表明,从长远来看,不允许或增强人类驾驶员的自动驾驶汽车将比那些提供人类驾驶员的自动驾驶汽车更受欢迎和成功。
实际上,尽管该行业和IBM等公司正在积极推广AI作为人类增强工具,但市场对待这项技术的方式(因为它不专注于培训更好的人类AI界面和舒适度)正在成为AI作为人类替代品的强制功能,随着劳动力池随后崩溃,这将成为问题。
如果人类得到人工智能的帮助,这重要吗?
对于艺术家或作家来说,与比他们更有能力的人合作创作一件艺术品、一篇论文甚至一本书是很正常的。而且,有人在得到影子写手许可的情况下,利用影子写手的名义来创作一本书,这种情况也并不少见。
如果使用AI而不是老师/导师/合作者/合作伙伴/代笔,情况会更糟吗?或者,由于人工智能可能比另一个人更好地独立反映用户的意愿,在连接工作和用户方面,使用技术是否会更好,并且由于用户没有将另一个人的工作作为自己的工作而减少道德妥协?
总结:重新思考人工智能伦理
企业只是想要高质量的工作,如果他们能从机器 (AI) 中获得比人更高的质量,他们就会做出并已经做出不那么困难的选择。想想过去几十年制造业和仓库自动化的过程就知道了。
我们需要培训人们如何使用人工智能,如何接受最有效利用人工智能资源的工作产品,同时确保我们能够防止知识产权盗窃和剽窃。如果我们不这样做,很可能随着时间的推移,人工智能的发展趋势将继续从关注人类的辅助转向人类的替代,这将不利于行业或越来越多的职业,可以更好地利用人工智能。