近年来,随着企业转向自动化评估、数字面试和数据分析来解析求职简历和筛选应聘者,人工智能在招聘过程中的使用有所增加。IT团队致力于实现更好的多样性、公平性和包容性,事实证明,如果企业对如何实施人工智能技术没有战略性和深思熟虑,那么在员工招聘中采用人工智能可能弊大于利。
IEEE研究员、纽约大学坦登工程学院院长Jelena Kovačević说:“人工智能的偏见通常来自数据。如果没有一个具有广泛代表性的数据集,那么采用人工智能系统难以发现和评估适合的应聘者。”
人工智能用于招聘面临的主要问题是,在美国多年来一直以男性和白人员工为主的行业领域中,人工智能招聘系统所依据的历史数据最终将具有固有的偏见。如果没有采用更加广泛的数据集来训练人工智能算法,那么人工智能招聘工具很可能带有自从上世纪80年代以来存在于技术招聘中的偏见。不过专家表示,人工智能的有效使用有助于创建一个更高效、更公平的招聘流程。
人工智能偏见的危险
由于人工智能算法通常是根据过去的数据进行训练的,因此人工智能的偏见始终是一个难以解决的问题。在数据科学中,偏见被定义为由于学习算法中的错误假设而产生的错误。采用不能反映当前情况的数据来训练算法,就会得到错误的结果。因此在招聘方面,特别是在IT这样的行业中,根据历史的招聘数据训练算法可能是一个重大的错误。
美国电子隐私信息中心的人工智能和人权研究员Ben Winters表示:“很难确保一款人工智能软件没有天生的偏见或有偏见的影响。虽然可以采取措施避免这种情况,但许多系统已经显示出基于种族和残疾人的偏见影响。”
Kovačević表示,如果企业的数据集没有明显的多样性,那么人工智能算法就不可能知道来自代表性不足群体在过去的表现。与其相反,其算法将偏向于数据集所代表的内容,并将所有未来的应聘者与其原型进行比较。
她说,“例如,如果黑人过去被系统排除在外,如果在过去没有女性参与其中,而基于这些创建算法则无法正确预测未来。如果只从‘常春藤盟校’招聘,那么真的不知道来自一个鲜为人知的学校的申请者会如何表现,所以将会产生多重偏见。”
BMC Software公司的企业社会责任、多元化、公平和包容性负责人Wendy Rentschler敏锐地意识到了人工智能可能给招聘过程带来的潜在负面影响。她以亚马逊公司试图开发人工智能招聘工具的案例遭到失败为例:该公司不得不中止这个项目,因为该算法歧视女性求职者。
Rentschler说:“如果最大和最伟大的软件开发商不能做到这一点,我就会对所有人力资源技术人员声称能够做到这一点感到疑虑。”
虽然一些人工智能招聘软件的开发商宣称他们的软件提供了强大的功能,但是否可以帮助确定合适的求职者还有待观察。人工智能技术可以帮助企业简化招聘流程,并找到使用人工智能识别合格求职者的新方法,但重要的是不要被这些软件开发商的宣传影响其判断力。
如果正在尝试改善企业中的包容性,人工智能似乎是一种快速解决方案或灵丹妙药,但如果对在招聘过程中使用人工智能缺乏策略性,它可能会适得其反。关键是企业要确保其招聘流程和使用的工具不排除传统上代表性不足的群体。
人工智能的歧视
企业有责任确保他们在招聘过程中尽可能合乎道德地使用人工智能,不是成为这些工具功能被夸大的受害者。美国民主与技术中心员工隐私问题高级政策顾问Matthew Scherer指出,由于企业人力资源部门并不创造收入并且通常被贴上支出部门的标签,因此企业领导者有时渴望引入可以提供帮助的自动化技术削减开支。然而,这种渴望会导致忽视他们正在使用的软件的潜在负面影响。Scherer还指出,人工智能招聘软件公司的许多说法即使不是完全错误的,也往往言过其实。
他说,“特别是那些声称可以分析人们的面部表情、语气、任何衡量个性方面的工具,而这样的工具其实是一种万金油式的工具。”
在视频面试中,声称评估语气、表情和应聘者个性的工具可以评估应聘者在文化上的“正常”程度,这最终可能会排除残疾人应聘者或任何不符合算法的应聘者。这些工具也会让残疾人应聘者处于尴尬的境地,不得不在面试前决定是否披露其所患残疾。残疾人应聘者可能会担心如果不披露,他们将无法获得应聘所要求的条件,因此不愿意在招聘过程的早期披露残疾的事实,或者根本不披露。
正如Rentschler指出的那样,黑人和有色人种(BIPOC)、女性和残疾人应聘者通常习惯于在面试中进行“代码转换”的做法——即这些代表性不足的群体对他们的说话、外表或行为方式进行某些调整,在这种情况下,人工智能系统可能会意识到这一点,错误地将其行为认定为不真实或不诚实,从而拒绝潜在的优秀应聘者。
Scherer将这种歧视分为两类:具有不同的影响是无意歧视;区别对待是故意歧视。因此很难设计一种可以避免不同影响的工具,而不明确偏袒来自特定群体的应聘者,这将构成法律规定的不同待遇。
人工智能招聘规定
人工智能是一种相对较新的技术,在涉及隐私和贸易实践的立法、政策和法律时缺乏监管。Winters提到了EPIC公司在2019年向美国联邦贸易委员会提出的申诉,指控HireVue公司在其招聘软件中使用与面部识别相关的欺骗性商业行为。
HireVue声称提供的软件可以跟踪和分析应聘者的言语和面部动作,以便能够分析适合度、情商、沟通技巧、认知能力、解决问题的能力等等。HireVue公司最终撤回了其面部识别声明以及这种技术在其软件中的使用。
但Winters指出,也有类似的技术衡量主观行为属性并与组织适合度相匹配,或者使用人工智能在互联网上搜索关于应聘者陈述的公开信息,然后分析潜在的危险信号或匹配。
人们还担心人工智能在分析应聘者的视频面试、评估、简历、LinkedIn个人资料或其他公共社交媒体个人资料时可以收集的有关应聘者的数据量。在通常情况下,应聘者甚至可能不知道他们在面试过程中被人工智能工具分析,并且很少有关于如何管理这些数据的规定。
Winters说,“总的来说,目前对人工智能招聘工具的监管很少。美国已经出台了一些州或地方法案。但是,这些法案中有许多存在重大漏洞。人工智能技术的应用应该具有高度的透明度。因此需要对这些工具的应用进行控制,严格限制数据的收集、使用和保留,以及自由发布的独立第三方测试。”
在招聘中负责任地使用人工智能
Rentschler和她的团队专注于寻找使用人工智能技术来帮助企业人力资本更具战略性的方法。他们已经实施了一些工具,可以使用基于技能的评估来快速筛选应聘者,以了解他们申请的职位,并安排面试以与招聘人员联系。BMC软件公司还使用人工智能来识别其职位描述中的有问题的语言,确保它们对每个应聘者都是中性和包容的。BMC公司还使用该软件在入职过程中将新员工与其福利和内部组织信息联系起来。Rentschler的目标是找到实施人工智能和自动化的方法,以帮助其团队中的人员更有效地完成工作,而不是取代他们。
虽然人工智能算法可能会根据历史的招聘数据带来固有的偏见,但避免这种情况的一种方法是更多地关注基于技能的招聘。Rentschler的团队仅使用人工智能工具来识别具有他们希望添加到员工队伍中的特定技能组合的应聘者,而忽略其他标识符,例如教育、性别、姓名和其他可能在历史上将应聘者排除在外的潜在识别信息过程。Rentschler说,通过这样做,BMC软件公司聘请了背景出乎意料的应聘者,其中包括一名叙利亚难民,他原本是一名牙医,但也有一些编码经验。由于该系统只专注于寻找具有编码技能的应聘者,这位前牙医通过了筛选并被该公司聘用。
采取的其他道德策略包括建立制衡机制。Scherer表示,有一家公司设计了一种工具,可以将潜在应聘者的简历发送给招聘人员,然后招聘人员会审查他们的简历,并决定他们是否适合这份工作。即使那名招聘人员拒绝了简历,应聘者的简历仍然会再次通过算法发送给其他的招聘人员。如果它被标记为一名良好的潜在应聘者,它会被发送给另一名不知道已经被其他人审查过的招聘人员。这确保了简历由人工复核,并且他们不完全依赖人工智能系统来确定合格的应聘者,还确保招聘人员不会忽视合格的应聘者。
Scherer说,“重要的是,人类需要保持判断力,而不仅仅依赖机器。这就是很难进行训练的事情,因为对于招聘人员来说,最容易做的事情就是,‘如果公司希望我使用这个工具,我将按照机器告诉我的任何事情去做。”