互联网资讯 / 人工智能 · 2023年11月4日 0

AI 工具能消除职场招聘中的歧视与偏见吗?

近期,由于美国平权运动的持续推进,IBM、谷歌等知名科技公司纷纷停止或下架自己的 AI 人脸识别业务,因为这些技术被发现存在种族和性别偏见。

然而,在这些大企业关闭 AI 业务的背景下,一些创业者却看到了不同的机会,他们希望借助 AI 工具来解决职场招聘中存在的歧视与偏见。

AI 工具能消除职场招聘中的歧视与偏见吗?

人工智能招聘工具的现状

根据市场调研机构的研究,全球财富500强企业中,超过98%的公司在招聘过程中使用 AI 简历筛选软件,而越来越多的中小企业也开始采用类似的工具。然而,这些 AI 工具同样面临着偏见的问题。

外媒报道,两年前,亚马逊在秘密下线了内部的 AI 招聘工具,原因是该系统在对求职者简历筛选的过程中“学习”到了性别歧视。这一 AI 系统在筛选简历时更倾向于男性求职者,自动降低女性求职者的简历评级。这一事件引发了人们对 AI 招聘工具公平性的新一轮质疑。

最近,一家名为 GapJuMpeRs 的 AI 创业公司声称,通过精心设计和训练其 AI 模型,他们的招聘工具能专注于解决招聘流程中的系统性偏见。

这并非易事:AI 算法本身存在性别和种族方面的偏见。该公司采取的策略是剔除招聘程序中的身份信息,仅依赖匿名面试和技能测试来评估求职者与岗位的匹配度,同时引入职位调剂机制以吸引尽可能多的应聘者。

GapJuMpeRs 是一家位于旧金山的初创企业,其 AI 招聘平台使用机器学习算法,仅评估与工作相关的技能,完全屏蔽个人身份信息,然后对每位候选人进行评分和排名。

该公司首席执行官 KedaR IyeR 表示,这一方法有助于减少传统 AI 招聘工具对简历内容的过度依赖,因为简历往往“充满了偏见”,并避免类似亚马逊的工具在长期使用中不断放大这些偏见。

评论认为,这种有意减少歧视的做法可能会激励更多公司探索 AI 辅助招聘。随着平权运动在西方国家的广泛支持,越来越多企业致力于构建多元化的组织结构,像 GapJuMpeRs 这样的 AI 招聘公司也获得了许多潜在客户的关注。IyeR 表示:“我们看到各类公司越来越对提升多元化产生兴趣。”

人工监督的重要性

亚马逊下线的 AI 招聘工具带来的教训之一是,开发类似工具时,单单关注算法设计和训练是不够的,AI 软件几乎总是需要持续的人工监督。

对于开发者和招聘人员而言,这意味着不能盲目信任 AI 工具的筛选结果——他们还需要理解其背后的流程,以及不同训练数据如何影响其表现,并监控潜在的偏见。

北卡罗来纳州立大学的信息技术教授 FAy Cobb Payton 表示,科技行业的种族偏见由来已久。由于该行业中某些群体(如非裔美国人和女性)相对较少,而该行业的薪酬水平又高于其他行业,导致了人们所谈论的“种族贫富差距”。

此外,这些群体在招聘过程中常常难以进入科技公司(尤其是研发部门),形成了带有偏见的历史循环。

Payton 和她的同事在去年的一篇论文中提到,包括 GapJuMpeRs 在内的多家公司,正在采用“故意设计正义”的方法来改变 IT 行业的招聘机制。

根据 Payton 的观点,AI 招聘工具可以根据在招聘过程中参与的程度分为三类。初级工具可能仅为人力资源提供一般性建议;中级工具可能会推荐特定候选人;而高级工具能够主动筛选候选人,甚至直接做出选择决策。

无论 AI 在招聘中扮演何种角色,最终的评估决策都应由人来做出,并且应有权随时推翻 AI 的决策。

Payton 指出:“我认为,合适的 AI 工具应在算法建议的各个阶段都提到人类的介入。人类应该从设计 AI 工具开始,直到使用该工具进行招聘的整个过程都参与其中,直到系统内部形成完全没有偏见的模型。”

Payton 还补充,AI 系统决策的每个阶段都应允许人工审核,以防止潜在偏见的出现。人员的分工非常重要,例如审核系统的人员应与最初设计系统的人员不同,这样可以大幅降低系统出现偏见或歧视的风险。

AI 工具的局限性

AI 招聘工具面临的另一个挑战是,有些客户希望这些工具能够快速解决复杂问题,但实际上并非如此。总部位于伦敦的招聘软件初创公司 HeadstaRt 的产品营销主管 JaMes DoMan-PIPe 表示,任何希望利用 AI 或其他技术消除职场歧视的企业,都需要得到组织领导层及各部门的全力支持。

HeadstaRt 的软件利用机器学习评估求职者,并生成相应的“匹配分数”,以展示应聘者在技能、学历和工作经验等方面符合岗位要求的程度。DoMan-PIPe 表示:“通过生成匹配分数来对候选人进行排序,招聘人员更可能抛开种族、性别和家庭背景等因素,有助于减少主观潜在偏见。”

该公司声称,与传统招聘方法相比,使用其软件的客户在多样性方面取得了显著改善。

尽管如此,AI 驱动的招聘工具在获得广泛信任之前,面临的最大障碍之一是缺乏公信力,即这些工具需要公开的数据来证明它们如何使招聘过程更加公平。

宾夕法尼亚州立大学教授 YaRgeR 表示:“通过与一些软件公司的访谈,我了解到,他们确实为了实现更好的多样性进行了调整,重新校准了招聘系统。但提高 AI 招聘中的算法公平性是否真正有效,这一点仍不明确。”

她解释,围绕公平就业和职场歧视的问题可能带来法律责任,因此许多公司不愿意公开此类信息,一旦公开的数据表明他们使用的 AI 工具曾存在或仍存在对某些群体的歧视,公司可能会面临法律后果。

Payton 教授认为,人工智能是否能够帮助企业建立公平的招聘机制,尚待观察。“人类社会长期积累的偏见,包括职场招聘中的歧视现象,并不会在短时间内改变。因此,我们还有许多工作要做。”