APP下载

AI-HR招聘的算法歧视及应对

2022-03-17程建华刘菲菲

常州工学院学报(社科版) 2022年4期
关键词:求职者主体算法

程建华,刘菲菲

(安徽建筑大学公共管理学院,安徽 合肥 230601)

一、问题的提出

人工智能(AI)是计算机科学领域研究、设计和应用智能机器的一个分支,就其本质而言,是对人的思维的信息过程的模拟(对人脑结构模拟与人脑功能模拟)。随着AI技术的不断发展,它应用到了人们生活的方方面面,其中一些岗位被智能机器取代,在一定程度上解放了人类的劳动力。与此同时也给人们带来了一大难题,即人工智能技术中的算法歧视问题。算法歧视问题已经引起了世界各国的关注,早些年,美国白宫发布的大数据研究报告、欧盟数据保护委员会( EDPB)发布的《应对大数据挑战》、我国2017年发布的《新一代人工智能发展规划》以及2021年国家互联网信息办公室发布的《互联网信息服务算法推荐管理规定(征求意见稿)》与《关于加强互联网信息服务算法综合治理的指导意见》都关注到了智能背景下算法可能带来的歧视问题。近年来,众多学者就算法歧视的形成以及如何消除算法歧视也展开了激烈的探讨。卜素认为人类刻板印象通过人工智能技术转译从而形成了算法歧视,要建立完善算法歧视审查体系才能规避歧视现象[1]。汪怀君、汝绪华认为算法歧视是人工智能算法在处理、解释并应用数据时产生的与人类相同的偏见与歧视,对算法歧视规制要从立法、技术以及观念上着手[2]101-106。综上所述,算法歧视现象不仅仅是技术本身出现缺陷,还受到思想观念、立法、行业环境等的影响,算法歧视的消除需要从多方面进行规制。

近年来,AI技术逐渐被应用于招聘领域,AI-HR(AI-HR是指AI赋能于人才选拔,解放HR的繁杂、重复性工作)随之到来并朝着精细化方向发展。AI-HR中,算法深度参与了招聘的各个环节,包括广告的投放、简历的收集、录用决策等。当下,以算法为核心的招聘平台——智联招聘、BOSS直聘、猎聘等成为了企业获取人才的重要渠道之一。使用数据系统和算法决策来监测、筛选、评估和管理人员已经成为了当代招聘的一个重要特征。如方小雷创办的近屿智能公司研发的AI得贤招聘官[3],通过历史大数据描绘人才数字画像,再依靠算法自动从海量求职者中进行高效筛选与科学匹配。人工智能时代,算法的参与,为企业招聘带来了极大便利。如依托算法进行的招聘可以极大降低招聘成本(资金投入与时间成本);增强招聘匹配程度,大数据算法深度分析下,可以高效快速获取与企业相匹配的求职者;消除HR招聘官的技术障碍;等等。科技是把双刃剑,AI招聘中算法为企业带来便利的同时,也暗含着一系列算法歧视问题。算法参与下,看似科学、高效、中立的招聘模式并未实现真正的招聘平等,算法的编码及数据收集等都受到人们价值观念的影响,因此在很大程度上暗含着招聘歧视。

传统招聘中的歧视,包括性别歧视、年龄歧视、身高歧视、地域歧视等。而AI-HR招聘,通过对海量数据的收集、整理、分析与应用将传统招聘过程中的歧视进一步扩大化、透明化,加剧了就业市场的挑战。规制AI-HR招聘中的算法歧视问题,是保障求职者的合法权益、净化就业市场的重要一步。本文拟围绕智能招聘中暗含的算法歧视,探究AI-HR招聘中算法歧视的主要体现、歧视产生的原因以及如何消除这些歧视,以期使AI与招聘进一步融合,实现就业市场的高效与公平。

二、AI-HR招聘算法歧视的类型化呈现

在招聘过程中,算法就求职者的基础数据、能力数据、效率数据及潜力数据进行自动推送、筛选、评估和决策,最后的录用结果可能有失公平。具体表现在以下3个方面:其一,AI算法下,求职者们获得的数据信息存在差异,有失机会公平,即招聘数据推送歧视;其二,求职者对智能招聘中的算法了解甚微,从而无法得知自身数据与最终录用结果的联系,有失过程公平,即招聘数据解释歧视;其三,有偏见的推送及筛选最终导致录用结果不公平,有失结果公平,即招聘数据应用歧视。

(一)招聘数据推送歧视

早些年,亚马逊公司开发的自动招聘系统,在对简历进行筛选时出现了歧视女性应聘者的现象[4]12。卡内基梅隆大学Amit Datta等学者使用ADFisher(一个探索用户行为与广告设置如何交互的自动化工具)发现,谷歌的广告软件向男性推送的高薪职位远多于女性[5]。2019年,美国的研究人员进行了一项关于在线广告优化的实验:将招聘广告分发给脸书(Facebook)用户,目标受众相同,在极端情况下,超市的收银员职位最终分配给85%的女性观众,出租车司机职位分配给75%的黑人观众,伐木工人职位分配给90%的男性和72%的白人观众[6]。这种暗含歧视性的就业信息推送,在我国也常有发生。当一些用工单位在招聘软件(如智联招聘、BOSS直聘、猎聘等)中输入“程序员”时,男性求职者的简历会优先被推送出来;当输入“前台”时,系统则会优先将女性求职者的简历推送出来。

看似为招聘广告的定向推送,实则为被迫性“信息茧房”,又称过滤气泡[7]。企业根据求职者的数据信息,应用AI算法对每位求职者进行定位,确定特定受众对其进行广告的精准投放,这种针对性导致求职者获取就业信息的机会不同,造成了就业不公平。这种招聘数据推送歧视可分为无意识歧视与有意识歧视。无意识歧视是指由于算法技术本身以及大数据算法下输入的偏差样本所致的歧视,也是当下最难攻克的算法问题。招聘过程的核心是“适合”组织的招聘目标,这一要求使得招聘主体可充分利用其自由裁量权从而造成招聘过程中的有意识歧视。不管是前者还是后者,都在“源头”上影响着求职者的职业发展,侵犯了求职者的平等就业权。

(二)招聘数据解释歧视

算法解释权是指人们对算法决策下产生的具体行为具有获得解释以及要求更新或更正数据的权利[8]。而招聘过程中求职者不了解其算法的应用过程,也不了解自身数据与最终录用结果的联系,无法获得解释,更无法对数据信息提出要求。求职者无法与算法得出的结果进行博弈,只能接受其结果,长此以往,该歧视现象将被固化,从而助长了就业市场的不良风气。

招聘数据解释歧视可以分为两种:一是招聘主体不可操控性歧视,即算法“黑洞”[9]所导致的解释歧视。算法运行实质上是数据输入再输出的过程,但是在数据输入与输出的过程中存在着很多无法解释的“黑洞”。究其根本,是由于算法技术本身十分复杂,如设计算法时存在多个研发主体、多种算法的层层叠加、算法中人工神经网络对数据的自动深度学习等。算法“黑洞”导致算法决策不可解释,招聘主体无法向求职者解释最终的录用结果。二是招聘主体可操控性歧视,即利益最大化导向所致的解释歧视。招聘过程中利用算法技术操作规则的不透明,以企业利益最大化对求职者进行筛选。例如,随着我国三孩政策的实行,某些企业对其工作岗位进行算法设定,不录用已婚女性求职者(含有性别歧视);随着我国人口的老龄化, 很多招聘中智能设定一系列年龄限制条件(含有年龄歧视),对这些影响就业结果的隐性要求,招聘主体为了切身利益并不向求职者解释。不可操作性歧视与可操控性歧视都剥夺了求职者获得解释的权利,加剧了智能招聘的不公平性。

(三)招聘数据应用歧视

招聘数据推送歧视及招聘数据解释歧视,必然导致招聘数据应用歧视,即必然的不公平结果。招聘中算法歧视所导致的不公平结果表现在最终的录用结果、薪资待遇等方面。录用结果上主要表现为求职者因为一些岗位非必要条件(年龄、身高、长相、婚姻状况等)错失工作机会,例如比利亚雷亚尔诉雷诺烟草公司案中,比利亚雷亚尔多次在网上申请雷诺烟草公司的工作,却一直未果[2]102,最后得知该公司筛选求职者时存在年龄歧视并且从未向被拒绝的求职者解释其中的原因。薪资待遇上主要表现为就求职者的基础数据、能力数据、效率数据及潜力数据等进行差异化“定价”,继而影响到求职者今后的薪资待遇、职位变动等。我国《2020中国女性职场现状调查报告》显示,58.25%的女性在招聘过程中被问及婚姻生育状况[10],企业无形中提高了对女性的录用标准,进而影响到其薪资待遇及未来发展。上述不公平结果并不等同于常规招聘中的效益原则,而是由求职者与招聘主体之间存在的极大“信息鸿沟”所致,如招聘信息的选择性推送、简历筛选中的隐性年龄歧视或者智能招聘系统中算法自带的偏见等。

传统招聘中求职者本就处于弱势地位,AI-HR招聘进一步加剧了这种现象,使求职者无法与最终的不公平结果进行博弈。录用与否、薪资待遇如何等都与求职者密切相关,影响着求职者今后整个的职业发展道路,因此如何消除智能招聘中的算法歧视、维护求职者的平等就业权是当下亟须解决的问题。

三、AI-HR招聘算法歧视成因溯源

(一)算法中的偏见性编码

算法可被定义为由编程人员设计的一系列“已被编码的程序”或者“为了快速实现其目标对特定数据进行处理的步骤”。算法作为解决问题的一种特定逻辑步骤,是程序代码在计算机中的实现,即编程人员选用一种计算机可识别的语言(计算机可识别指令由最初的一个0、1代码串到低级程序设计语言,再到现在的高级程序设计语言,如Java、Python、C++等[11])对算法进行表述。编程人员运用程序设计语言与计算机进行交流,设计出“数据输入、结果输出”的有穷性算法(有穷性:在有限的步骤后,算法自动结束得出结果,不会无限循环)。编程人员与计算机进行交流时,为了算法能够更好地实现,必然夹杂着其主观选择与判断。人的价值观念被嵌入算法程序设计中,所以说算法是人的观点的一种呈现,必然存在一定的偏见[12]。同时,算法在设计并实现时并不一定是由一人完成,也可能是多人协作共同完成。一人完成时可确保其前后衔接一致,但其个人主观价值也被更多地反映在算法之中。多人共同完成时其效率与公正性相较于前者更高,但前后连贯衔接不能确保精确完成,同时也会夹杂多人价值观念,导致算法出现偏差。正是由于现实世界中的我们将个人固有的偏见嵌入了代码中,使得计算机世界中的算法并不是真正意义上的中立。

偏见性编码下,AI-HR招聘中的算法暗含人的偏见。在智能互联网时代,这种偏见可能进一步扩大化,进而呈现出“过滤气泡”现象。偏见性编码是人们无意识的个人偏见的附加,在算法运作过程中偏见将一步一步加深进而形成歧视。

(二)社会利益驱使招聘主体进行“利益最大化筛选”

AI-HR招聘相较于传统的招聘方式,不仅可以降低招聘成本,同时还可以增强招聘匹配度。使用智能招聘系统监测、分配、评估和管理劳动力是当代就业市场的一个显著特征。有关报告显示,约98%的财富500强公司在招聘过程中使用某种类型的申请人跟踪系统(ATS)[13],使公司以最高效率获得最佳求职者。我国开启AI-HR招聘的企业,如腾讯、滴滴、字节跳动等一批知名企业,其招聘效益也高于之前的传统招聘[14]。AI-HR招聘中算法虽然给企业招聘带来了极大便利,使其利益最大程度实现,但过分追求利益也伤害了求职者的平等就业权。

所有的社会技术系统,即使是为了减轻偏见而设计的,在设计时也考虑到了用例,但这些用例并不能适用于所有的场景。首先,AI-HR招聘中算法的使用可以让企业从海量求职者中快速筛选出适合本企业的求职者,向合适的求职者定向推送招聘信息。虽然高效,极大节约了招聘成本,但也有失机会公平,出现过滤气泡现象。其次,AI-HR招聘中使用算法一方面会出现招聘主体不可操控性歧视,另一方面会增加招聘主体可操控性歧视,即利益最大化导向所致的解释歧视。最后,根据定向推送以及利益最大化筛选,企业做出最利己的选择。AI-HR招聘中算法本身就暗含偏见性编码,在利益最大化驱动下求职者的平等就业权一步步遭到了侵害。

(三)相关法律法规的滞后

《中华人民共和国劳动法》(以下简称《劳动法》)和《中华人民共和国就业促进法》(以下简称《就业促进法》)是我国用来保障劳动者工作平等权的主要法律依据,包括劳动者的种族、民族、宗教信仰、性别、残疾人、农村劳动者等方面,并且力求实现企业用工自由与反对就业歧视两个目标之间的平衡[15]。但在实践中,由于劳动力市场供需不平衡以及举证困难等原因,其都更倾向于维护用人单位的自主用人权利而忽略了对求职者平等就业权利的保护。

当今社会发展迅速,新技术、新生产工具给社会生活带来了巨大改变,与此同时也出现了一系列原有法律制度无法正确处理的事件。AI-HR时代以算法为核心的招聘体系产生了一系列算法歧视问题,相对滞后的法律法规使得求职者的平等就业权更无法得到保护,这对我国反对就业歧视的法律提出了新的挑战。挑战主要表现在以下两个方面:一是AI-HR招聘中算法的使用增加了对就业歧视认定的难度。如向求职者定向推送招聘信息,虽然推送广告中不含有任何歧视性字眼,但其背后暗含着算法的深度计算,它只推送给特定条件的人群(例如只向某一年龄段女性推送招聘广告),而未被推送的群体则被剥夺了了解招聘信息的机会。二是AI-HR招聘中算法的使用使得求职者提供招聘中存在歧视行为证明的难度大大增加。例如运用算法对简历进行审核或者做出最后录用决策,看似是大数据下算法做出的中立性评价,实则背后暗含算法黑洞,求职者也无法获得相应的解释。现有法律法规已经不能满足AI-HR对求职者平等就业权保护的需求。

(四)民众算法意识薄弱

随着信息技术的快速发展,算法被应用于各行各业之中,改变着人们的生活方式。现实生活中,人们享受着算法带来的便利或者遭受着算法带来的不公,本质上是因其对算法没有清晰的认识,从而出现恶性循环,导致信息茧房进而形成过滤气泡现象。

AI-HR招聘中使用算法技术,就要求算法设计者、招聘主体以及求职者要有较高算法意识。算法设计者算法素养较低将导致偏见性编码,在算法的深度自我学习下,招聘中的歧视现象将一步步扩大。招聘主体应该明确自己的责任,若通过算法优势有意侵害求职者平等就业权,或者不能认识到招聘中使用算法将会导致就业歧视现象的发生,将不利于就业市场的稳定发展。招聘过程中,由于信息不对称等原因,求职者处于弱势地位,很难对大数据下算法决策提出反证,若又对算法了解甚少,无法运用合法手段维护自己的合法权益,将影响到求职者未来整个职业发展。可见算法意识、算法素质对AI-HR招聘的实际运用有重要影响。

四、AI-HR招聘算法歧视的应对措施

(一)克服根源性算法技术偏见

AI-HR招聘中算法技术的先天缺陷导致了歧视现象的必然出现,如招聘广告定向推送,求职者无法获得解释等。虽然智能招聘中算法的设计也是为了减轻偏见(用人单位的主观偏好),在设计时也考虑到了很多用例,但是其技术本身还是存在缺陷,并且各种场景交杂在一起的时候并不是所有的用例都适合。所以技术出现问题,首先要用技术来弥补。要想从源头上消除歧视,就必须先在技术上消除歧视。

首先要在算法设计时就尽量避免歧视,减少偏见性编码,确保技术的中立性。编程人员在设计算法时,不能带入自身价值观念,不仅需要有较高的技术水平同时还要有较高的算法素养。很多研究人员,都在力求消除算法中存在的歧视因素,如约瑟夫等人试图将哲学家罗尔斯的公平理论应用于机器学习中,使得在算法的每一步设置中都去避免一种算法偏好[4]18。除了算法设计本身不含有偏见之外,其数据的挖掘与处理也十分重要。建立招聘数据挖掘[16]与数据预处理技术[17],从数据仓库获得高效准确数据。若数据本身就含有歧视性,经过算法处理,其歧视性将越来越大。只有针对性地开发设计不含有偏见的算法技术,才能从真正意义上消除歧视。

(二)明确招聘主体的责任

大数据智能招聘中算法的使用为企业带来巨大便利的同时,在一定程度上也损害了求职者的平等就业权。在招聘广告的定向推送、简历的筛选与评估以及最终的录用决策中,每一个阶段都出现了或多或少的歧视现象,而这些通常都能让招聘主体受益,进而导致招聘主体拒绝承担其相应的责任。为维护我国就业市场的稳定性,招聘主体必须明确自身的责任。

招聘主体要明确自身的责任,切实保障就业市场的高效运转。一是公平公正地提供就业岗位。企业存在用工自由,但前提是不得违反我国劳动就业法,不能利用存在的信息沟侵犯求职者的平等就业权。二是招聘主体作为算法的应用者,有义务对算法造成的招聘歧视现象承担相关责任。2021年我国国家互联网信息办公室发布的《关于加强互联网信息服务算法综合治理的指导意见》中就明确提到要强化企业主体的责任,企业要对算法应用产生的结果负主体责任。三是维护求职者的平等就业权。作为算法的使用者有义务维护求职者的合法权益,积极解决算法中存在的客观性、不可控制性所导致的歧视现象。

(三)完善相关法律法规

人类社会的生产生活以及思维方式受科技进步的影响会发生全新的变化,法律作为受经济基础决定的上层建筑,也应时刻根据社会生产方式的变革作出相应修改和完善。关于AI-HR招聘中出现的就业歧视问题,多数国家都有相应的法律法规条款对其进行规范,例如美国《民权法》第七章与《防止就业年龄歧视法》、欧盟的《欧盟基本权利宪章》第21条等。我国应借鉴其他国家与地区的算法歧视治理经验,再结合我国就业市场自身状况完善相应法律法规,减少以至杜绝招聘中算法歧视现象的发生。

相关法律法规的完善可以从以下几方面进行:一是扩展歧视的类型,明确歧视的认定。修改相关法律法规,扩大就业歧视的类型,将智能招聘中存在的算法歧视作为一种法定歧视类型,从而更好地保护求职者的合法权益。歧视类型得到扩展,明确并细化歧视认定的条件,可给求职者维护自身平等就业权利提供明确的法律标准。二是明确解释义务的规则。智能招聘过程中存在解释歧视,不囊括招聘主体不可操作性解释歧视,要消除招聘主体可操作性解释歧视,就要明确招聘主体的解释义务。即将大数据智能招聘中运用算法的过程“翻译”成为普通用户可以理解的语言,对求职者存在的合理疑问提供解释。解释规则给求职者事后追究责任提供了证据,从而更好地维护求职者的平等就业权利。三是设立专门的诉讼机构。专门的诉讼机构能够帮助求职者有效收集证据材料并提供一定的技术支持,帮助求职者维护其就业权利,有序推进算法的备案工作。

(四)培育民众的算法素养

算法素养是指算法的设计者、管理者、使用者应该具备的算法能力、算法伦理以及普通民众应该具备的算法意识等。首先,算法设计者与算法的管理者、使用者除了应具备一定的算法能力之外,更为重要的是要遵守算法伦理,不借助自身“优势”做出违背伦理道德的事情,严格遵守算法行业自律。其次,应该有意识地培育普通民众的算法意识,防止其因为不知道、不理解算法,遭遇算法服务中暗含的歧视性行为。培育人们的算法素养,防止人们做算法文盲。

算法素养的培育任重道远,需要多方共同努力。一是应将算法教育纳入基础教育,构建完善的课程培养体系。政府应该将算法教育纳入基础教育之中,为民众提供算法教育资料、资源,让民众意识到算法教育的重要性,学习算法知识进而了解AI-HR招聘中可能出现的算法歧视现象。二是充分发挥社会力量,宣传算法知识的重要性,引导算法应用向上向善。对算法知识进行宣传,培养民众的“拒绝算法文盲,从我做起”的意识。三是民众应积极主动提升算法素养。通过政府以及社会的强调与宣传,让民众充分认识到人工智能背景下算法素养的重要性,从而自觉学习算法知识,减少算法歧视,提升算法使用的幸福感。

五、结语

随着科学技术的迅速发展,算法技术正在悄无声息地影响着我国传统的招聘方式。AI-HR招聘中算法的参与具有两面性,既能够防止也能加剧招聘中对求职者的就业歧视。AI-HR招聘中暗含的算法歧视问题,即招聘数据推送歧视、招聘数据解释歧视、招聘数据应用歧视极易被忽略,但却严重侵害着求职者的平等就业权。究其根本,是算法技术本身的缺陷、利益导向下的招聘主体筛选、相关法律法规的滞后以及人们薄弱的算法意识所致。消除AI-HR招聘中的算法歧视问题不仅要从技术上进行真正的“消歧”,还需要招聘主体有所担当,同时要完善相关法律法规以及慢慢培育人们的算法素养。只有消除算法歧视问题,才能更好地共享AI-HR招聘带来的便捷性。

猜你喜欢

求职者主体算法
起初为娱乐,现在做招聘:直播帮中国求职者找工作
论自然人破产法的适用主体
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
进位加法的两种算法
技术创新体系的5个主体
加纳移民局招聘:有妊娠纹不行
民生表情
面试中的12个禁忌
一种改进的整周模糊度去相关算法