您刚刚申请了这份梦想的工作。您花了数小时时间准备简历和求职信,倍感兴奋并充满了希望。如果能得到这份工作,一切都可能改变!但是随后...
…您的申请被拒绝了。
您以为自己非常适合这份工作。现在你在想:为什么他们没有选择我?这里有一个令人惊讶的事实——您的申请可能从未被人查阅过。
每年,亚马逊收到超过20万份简历,申请他们各种职位空缺。谷歌收到的则是这个数字的十倍,超过200万份简历。想象一下,如果你是负责审查这些申请的管理者,这不是一场彻头彻尾的噩梦吗?
为了应对这种情况,许多公司使用人工智能(AI)来帮助筛选申请。这些系统帮助决定哪位候选人应该得到这份工作。
但问题在这里:新的研究表明,这些AI系统拒绝申请的原因与资质无关。性别、种族,甚至个人兴趣都可能影响候选人是否被筛选出局。专家们称之为算法歧视。
性别偏见、种族偏见和其他形式的歧视在招聘过程中已经存在了数个世纪。
最初,AI被视为减少人类偏见的解决方案,承诺带来公平和效率。但AI只能像它学习的数据一样公平。
如果提供给AI的数据包含歧视的历史,那么AI就会在其系统中包含这些偏见。以亚马逊为例。从历史上看,他们过去雇佣的大多数人都是男性。
因此,当AI扫描简历时...
...它"偏好"男性候选人。这意味着合格的女性在负责人甚至还没有查看她们的申请之前就被自动排除了。
AI的决定常被认为是中立的,但实际并非如此。联合国教科文组织2024年的一项研究发现,大型语言模型(LLM)经常强化刻板印象。它们将女性安排在低地位的家务角色中,而将男性安排在更高地位、更多样化的工作中。
这个问题还延伸到种族偏见。AI工具不公平地拒绝了那些留传统黑人发型或来自移民聚居区的候选人。
这个有缺陷的系统阻止了候选人获得他们想要的工作,也阻碍了公司获得合格的候选人。随着AI在招聘决策中的应用越来越广泛,这种偏见可能变得更难被发现。因为如果你不知道算法是如何运作的,你怎么能证明算法对你存在歧视呢?
由于AI的决定通常被视为"中立的",许多人甚至没有意识到这个问题。明尼苏达大学2024年的一项研究对超过1100名参与者进行了几项在线实验,以了解他们对AI或人类做出的招聘决定的感受。他们发现66%,即三分之二的失业女性更倾向于选择人工智能的评估而不是男性评估者。但如果是女性评估者,这一比率降至39%。无论如何,女性在招聘决策方面都更倾向于选择AI而不是人类。
我们需要教育求职者和雇主关于完全依赖AI的潜在问题。将AI的速度和一致性与人类的同理心和判断力相结合,可能创造一个更公平的招聘过程。
把它想象成一种伙伴关系——AI可以快速处理大量数据,但人类可以解释背景并识别个性。
无论你是求职者还是雇主,问题依然存在:我们是在优先考虑公平,还是在盲目信任看似公正的系统?随着我们继续接受技术,要求这些工具使用过程中的透明度和公平性是我们每个人的责任。而且一如既往,目标应该是为所有人提供平等的机会,不论性别、种族或背景如何。
今天就到这里,感谢您的收听,敬请保持公正和知情!本期叙述改编自TRT World的一篇文章。