人工智能(AI)和机器学习(ML)提供的好处已经得到共识。这项技术可以帮助企业实现流程自动化,通过数据分析获得洞察力,并与客户和员工建立联系。
它可以帮助他们满足不断变化的市场需求,降低运营成本,并在当下快节奏的数字世界中保持竞争力。
人力资源应用人工智能
如今,许多主要的云服务提供商已经在其服务包中提供人工智能功能,为那些可能难以负担昂贵的人工智能工程师和数据科学家的企业普及这项技术。
对于人力资源团队来说,人工智能的价值是显而易见的。一张招聘启事就会导致成百上千的求职者,手动查看每个简历往往是一项艰巨且耗时的任务。通过利用人工智能和机器学习技术,人力资源团队获得了大规模评估应聘者的能力,并大大提高了招聘推荐的效率。
人工智能诱发偏见对人力资源的影响
虽然人工智能为人力资源企业或部门提供了相当明显的好处,但它也带来了相当严重的挑战和潜在的陷阱。对于任何AI系统,你必须正面解决最困难(但也是最关键)的一个问题就是确保它没有偏见。
这对人力资源的人工智能系统尤其重要,因为任何人工智能引发的偏见都可能导致公司错失合格的求职者——而且通常是在所有人不知情的情况下。
还记得几年前,亚马逊(Amazon)因为性别歧视,而不得不取消了用于筛选简历的人工智能系统吗?(深度阅读:人工智能的几次著名“翻车”)这是训练数据力量的一个完美的例子——尽管很不幸是负面的。当时,亚马逊的大多数员工都是男性,因此,为人工智能系统提供的算法,根据公司自己的数据进行训练,最终将应用程序与男性化的词汇联系起来。
在这样做的过程中,合格的女性候选人完全被模型忽略了。因此,如果用于训练AI模型的数据是有偏见的,那么部署的AI系统也会有偏见。而且它将继续无限期地强化这种偏见。
人工智能系统无论是外包还是企业自建,都需要更密切关注偏见问题
在亚马逊的案例中,用于筛选简历的人工智能系统是公司内部构建的,并使用该公司自己的求职者的数据进行培训。但大多数公司没有资源为其人力资源部门建立内部人工智能系统。因此,越来越多的人力资源团队将工作外包给Workday或谷歌Cloud等供应商。
现在比以往任何时候都更重要的是,人力资源团队必须承认外包任何人工智能所带来的巨大责任。不要只是盲目地接受和执行你的AI供应商的模型。您和您的团队需要反复审查系统,以确保它们没有偏见。你需要不断地问自己:
- 哪些数据源(或数据源的组合)被用于训练模型?
- 模型使用哪些具体因素来做出决策?
- 结果是令人满意的,还是有什么不正确的地方?系统是否需要暂时关闭并重新评估?
仔细审查培训数据非常重要,特别是在外包人工智能系统中。但这并不是减轻来自偏见工作环境的偏见数据的唯一途径。
因此,你的人力资源团队也有责任评估公司内部的偏见或不公平问题。例如,在公司里男性是否比女性拥有更大的权力?哪些有问题的行为长期以来被认为是可以接受的?数据是否来自不具代表性的群体?
公司文化的多样性、公平性和包容性在融入人工智能时是绝对相关的,因为它推动了人工智能系统和结果的部署。记住,人工智能并不知道它是有偏见的。这取决于我们自己。
公平且不带偏见地利用人工智能的三个最佳实践
最终,人力资源团队需要了解他们的人工智能系统能做什么,不能做什么。现在,你的人力资源团队不必是技术专家或理解驱动人工智能模型的算法。
但他们确实需要知道,培训数据中反映了哪种偏见,偏见是如何融入公司文化的,以及人工智能系统是如何让这些偏见延续下去的。
以下是三个策略最佳实践,可以帮助你的人力资源团队以公平和公正的方式利用AI技术。
定期审计人工智能系统。无论您的系统是内部构建的还是外包给供应商的,例行检查收集的数据以培训模型和产生的结果。数据集是否足够庞大和多样?它是否包括有关受保护群体的信息,包括种族和性别?如果结果不令人满意,不要犹豫关闭系统重新改变方向。
了解数据供应链。当依赖外包的现成人工智能系统时,要认识到培训数据可能反映了供应商自己的偏见或第三方数据集的偏见。同样需要例行检查和定期审核。
使用AI来增强,而不是取代。人工智能的能力正在迅速发展,但现实是人工智能仍然需要管理。由于涉及的风险,人力资源团队应该利用人工智能来增强自己的作用,而不是放任自流。最终的招聘和人力资源决策仍需要人力来做。
人力资源团队处于一个独特的位置,以公平和无偏见的方式利用人工智能技术,因为他们已经非常精通偏见和不公平的系统性问题。
认识到人工智能系统所要求的责任,并始终努力了解它们是如何接受培训并产生结果的。
如果操作正确,人工智能将帮助你的人力资源团队发现偏见,并及时纠正,提高人力资源职责的效率和效力,并选择值得推荐的申请人和有价值的员工,使他们的职业生涯更加顺利。