APP下载

算法雇佣决策下隐蔽就业歧视的法律规制

2021-11-25汤晓莹

河南财经政法大学学报 2021年6期
关键词:规制用人单位劳动者

汤晓莹

(武汉大学 法学院,湖北 武汉430072)

一、问题的提出

二、“职场歧视3.0”:算法雇佣决策下隐蔽就业歧视的生成路径及类型

根据就业歧视的生成原因,可以将其划分为三个阶段:第一阶段是用人单位明确禁止具有“受保护特征”的劳动者群体进入用工领域,称之为“职场歧视1.0”;第二阶段是用人单位运用经过科学设定程序的“就业能力测试”或者其他“选拔程序”来挑选劳动者,但客观上造成歧视性后果,称之为“职场歧视2.0”。由于其与“职场歧视1.0”相比在外观上具有隐蔽性,因此属于隐蔽就业歧视的一种类型; 第三阶段是用人单位将以“数据驱动”为特征的算法技术运用于雇佣决策并导致就业歧视后果,称之为“职场歧视3.0”。在该阶段,由于用人单位与劳动者之间的“信息鸿沟”,算法雇佣决策下就业歧视的呈现方式也十分隐蔽,也属于隐蔽就业歧视的一种类型。有效规制“职场歧视3.0”首先需要解析算法雇佣决策下隐蔽就业歧视的生成路径,并在此基础上对其进行类型化分析。

(一) 就业歧视嵌入算法雇佣决策的技术路径:“人机交互决策”

就业歧视在“人机交互决策”这一技术路径下,具体通过人与机器对劳动者个人数据的收集与处理嵌入算法雇佣决策。有关“人机交互决策”的内容与特征具体如下:

1.“人机交互决策”的内容。当前尚处于“弱人工智能”阶段[4],其特点是算法并非价值中立、静态的技术存在,本质是“人机交互决策”过程,既包含用人单位的价值判断与行为选择,也包含机器的自动判断,核心内容如图1所示[5]。

图1 “人机交互决策”的核心内容

2.“人机交互决策”的特征。一定程度的“算法黑箱”是“人机交互决策”的特征。一方面,将算法技术的开发与运用过程完全向外界进行公开可能会侵犯用人单位的“商业秘密”。算法技术作为用人单位的内部决策程序,当算法技术具有“保密性”与“商业价值”时,应享受“商业秘密”的保护。另外,算法技术所运用的数据也可能涉及商业秘密保护[6]; 另一方面,算法雇佣决策过程“被充分理解”不具有现实可行性。算法技术并非完全按照用人单位事先设计的代码而产生。在“人的决策”之外,“数据挖掘”所识别的数据与数据之间统计学上的“相关性”并不等于“因果关系”,即使算法开发者或“数据挖掘”技术都难以对此进行解释[7]。另外,值得注意的是,一定程度的“算法黑箱”与“算法操控”这两个概念存在本质区别,前者用于描述“人机交互决策”的特征,强调算法技术的完全公开透明性与充分可理解性并不现实,后者旨在说明算法决策者可能以侵害算法决策对象的利益为代价故意操纵“人机交互决策”,与算法决策者和算法决策对象之间的“信息鸿沟”密切相关[8]。为此,规制算法雇佣决策给劳动者带来就业歧视风险的一个关键点为:在尊重一定程度“算法黑箱”作为“人机交互决策”特征的基础上,避免用人单位故意操纵“人机交互决策”从而对劳动者造成就业歧视后果。

(二) 算法雇佣决策下隐蔽就业歧视的类型划分

根据“人机交互决策”这一技术路径中可能导致就业歧视的因素,可以将算法雇佣决策所产生的隐蔽就业歧视划分为因“结果变量”具有非中立性导致的算法歧视与因“训练集”数据具有歧视性导致的算法歧视两种类型。

1.因“结果变量”具有非中立性导致的算法歧视。算法开发者对于“结果变量”的设定往往是受到效率或者利益的驱动,可能导致算法技术在实际运行中产生歧视性后果[9]。因“结果变量”具有非中立性导致的算法歧视又可进一步划分为两种类型:“结果变量”与“受保护特征”直接相关,具有明显的歧视性;“结果变量”虽不与“受保护特征”直接相关,但“统计学上分析工具”所进行的“数据挖掘”将识别该“结果变量”与“受保护特征”之间的“相关性”。针对前者,假设用人单位在算法开发之“问题建构”阶段为算法技术设定了一个“结果变量”,即筛选出不具有“健康风险”的求职者以降低企业可能面临的用工成本。如前所述,算法技术的“数据挖掘”旨在识别数据之间统计学上的“相关性”。当通过“数据挖掘”在“喜欢吃甜食”与“存在健康风险”之间建立统计学上的“相关性”时,中立的“喜欢吃甜食”这一数据将成为“健康风险”的“代理数据”。针对后者,假设用人单位将“几乎不迟到”作为“优秀”劳动者的“结果变量”。由于具有移民背景的劳动者通常面临经济上的窘境,其居住地点与工作场所的距离较远,因此以“几乎不迟到”为“结果变量”开发的算法技术在实际运行中将可能会对具有移民背景的劳动者(即使其在其他方面与他人相当或者更加优秀) 造成就业歧视[10]。

2.因“训练集”数据具有歧视性导致的算法歧视。“数据挖掘”的“自我强化困境”决定了即使用人单位为开发算法技术所设定的“结果变量”具有中立性,但若算法技术所训练的数据具有歧视性,以这些数据为基础开发的算法技术在做出雇佣决策时也可能会导致就业歧视后果。因“训练集”数据具有歧视性导致的算法歧视也可以进一步划分为两种类型: “训练集”数据包含“人为偏见”和“训练集”数据取自“偏见性样本”。针对前者,如果用人单位收集到的劳动者个人数据包含用人单位的偏见,那么这种偏见将再次在算法技术的运行中体现出来。例如,若用人单位对“肤色为白色”的劳动者所做出的评价明显高于“肤色为黑色”的劳动者,则依据这些“评价性数据”开发的算法技术在招聘阶段将对“肤色为黑色”的劳动者造成歧视性后果。针对后者,例如在工程领域,如果仅对男性劳动者的数据进行收集,那么以此为基础开发的算法将在“男性求职者”与“结果变量”之间建立“相关性”并在后续筛选简历时剥夺女性劳动者的就业机会[11]。

科学的监管体系能够在一定程度上为水利工程施工的安全管理工作提供制度上的保障。将工程中出现的问题进行严格的问责管理,将责任具体落实到个人,使个人的责任与相关的管理权限一致。在对水利工程进行施工的过程中,要对现场的地质情况进行常规性的探测,并且要能够及时对施工现场中所发生的一些现象进行及时的调整,保证施工过程中的每一个环节都不会引发安全隐患。

综上,在以效益为导向的算法雇佣决策中,存在表面看似中立但实际上可能蕴含着人为偏见的数据,且用人单位(算法开发者) 在算法技术开发与运用过程中所进行的人为干预也主要是从自身效益最大化出发,极容易忽视劳动者(算法技术所作用对象) 的主体性地位,背离宪法“人的尊严”价值[12]。为此,法律应对算法雇佣决策可能带来的歧视性后果做出有效规制,努力在“鼓励创新”与“人权保护”之间保持平衡。

三、算法雇佣决策下隐蔽就业歧视对传统反就业歧视法的挑战

反就业歧视法主要是从“结果规制”的视角,在就业歧视结果发生后对相关责任主体施加法律责任,具有滞后性。除此之外,在“算法社会”下还有必要深入探讨欧美国家的传统反就业歧视法是否仍可以适用于规制算法雇佣决策所产生的隐蔽就业歧视,并在此基础上审视我国平等就业权的立法与实践现状,思考其在应对算法雇佣决策下隐蔽就业歧视的不足与后续完善。

(一) 欧美反就业歧视法面临挑战

欧美国家反就业歧视法将“歧视”区分为“直接歧视”和“间接歧视”,前者在美国对应“不同待遇”,后者对应“不同影响”。无论是“直接歧视”,还是“间接歧视”,在规制算法雇佣决策所产生的隐蔽就业歧视上均存在“瓶颈”。

1.“直接歧视”规制算法歧视之困境。“直接歧视”是指基于“受保护特征”对处境相同或者类似的人进行不同对待[13],处于“职场歧视1.0”阶段。算法雇佣决策所产生的就业歧视与“直接歧视”的通常适用情形存在差异。在“直接歧视”通常适用情形中,就业歧视是以显而易见的方式表现出来,如用人单位在招聘简章中明确表示招录男性求职者(未提供该岗位只能由男性求职者胜任的理由) 。相较而言,算法雇佣决策所产生的就业歧视具有相当隐蔽性,理由在于:劳动者在大多数情形下完全不知晓用人单位将算法技术运用于做出雇佣决策,包括用人单位何时、通过何种方式收集劳动者的个人数据并将其作为算法技术运行的基础、用人单位是否有正当理由将算法技术运用于雇佣决策,以及算法雇佣决策的基本运行机理等;用人单位还很可能利用“信息鸿沟”实施“算法操控”,将基于“受保护特征”的歧视隐藏在“中立数据”之后。以因“结果变量”的非中立性导致的算法歧视为例,基于“中立数据”可以对“受保护特征”做出推论。不管该推论在现实世界中是否具有“合理性”,用人单位都可能基于这些外观上中立性的数据在劳动条件上对劳动者进行差别对待。此时,“直接歧视”是否仍存在适用空间? 即使“直接歧视”存在适用空间,客观上劳动者、用人单位也难以承担举证责任。具体而言,在“直接歧视”的举证责任承担上,遭受差别对待的劳动者需要初步证明不具有“受保护特征”的其他人在相同或类似情形下不会遭受相同或者类似的不利待遇(3)欧盟和美国在“直接歧视”的构成要件上存在些许差异。欧盟在“直接歧视”的认定上采取“客观主义立法”,即不考虑行为人的主观故意态度,而美国的“不同待遇”还要求雇员证明雇主存在故意造成歧视的“主观意图”。,而“信息鸿沟”的存在大大增加了劳动者知晓其在劳动条件上与其他劳动者相比处于不利地位以及用人单位在开发算法技术过程中做出何种价值判断与行为选择的困难。另外,针对“直接歧视”的抗辩事由,用人单位需要提出其决策具有合法性以及非歧视性的依据——“正当职业事由”。“正当职业事由”一般需要同时满足“工作实质要件”“全部或者几乎全部要件”以及“合理需要要件”等三个构成要件[14]。用人单位应如何在缩减“信息鸿沟”与尊重一定程度的“算法黑箱”之间寻求平衡,对“正当职业事由”的三个要件进行举证,有待进一步明确。

2.“间接歧视”规制算法歧视之困境。“间接歧视”强调“表面中立”的政策或者措施在实际运行中能对具有某些“受保护特征”的群体造成不成比例的不利影响,而不考虑该政策或者措施的制定是否基于“主观故意”(4)See Griggs v.Duke Power Co.401U.S.424,431(1971) .,处于“职场歧视2.0”阶段。尽管算法雇佣决策所产生的就业歧视与“间接歧视”均属于隐蔽就业歧视的一种类型,但算法雇佣决策所产生的就业歧视与“间接歧视”通常适用情形也存在差异,体现为:算法技术是通过对“训练集”数据进行“挖掘”以识别数据与数据之间统计学上的“相关性”,从而作为对劳动者未知的个人特征或者工作能力做出推论的基础。该推论的做出完全取决于“训练集”数据,具有很大的不确定性,会随着所处数据集范围的改变而变化[15]。相较而言,“间接歧视”适用的通常情形是“能力测试”或者其他“选拔程序”,旨在通过客观、科学设定的标准和程序对劳动者与工作岗位相关的工作能力进行测试与衡量。另外,当“能力测试”或者“选拔程序”客观上导致就业歧视后果时,立法通常是予以免责的,如1964 年美国《民权法案》第703(h) 条明确指出,只要“专业开发的能力测试”不是“被设计、意图或用于区别对待”,则免除雇主的歧视责任。鉴于两者之间存在差异,对于算法雇佣决策可能导致的歧视后果,“间接歧视”是否仍然存在适用空间? 此外,即使“间接歧视”仍可以适用,劳动者和用人单位在举证责任承担上也存在困难。1991 年美国《民权法案》第703(k)(1) (A) 条对“间接歧视”的非法雇佣行为的构成要件作出了更具体的规定:原告提供初步证据证明被告基于种族、肤色、宗教、性别或国籍等“受保护特征”在雇佣条件上对其差别对待,而被告则没有证明受质疑的行为是与“工作相关”并具备“商业必要性”;原告可以提出一种能有效减少歧视的“替代性雇佣方案”但被告拒绝接受来反驳被告所提出的“抗辩事由”。基于此,在“间接歧视”中,劳动者如何知晓算法雇佣决策导致其与其他劳动者相比处于不利地位,以及用人单位如何协调劳动者知情权与企业商业秘密保护之间的关系,对算法技术在雇佣决策中的运用具有“正当职业事由”予以举证,是有待于做出回应的问题。

综上所述,针对“直接歧视”与“间接歧视”是否对算法雇佣决策所产生的隐蔽就业歧视仍存在规制空间这一问题,笔者认为,对于前者,由于“数据挖掘”技术已经在“中立数据”与“受保护特征”之间建立了“相关性”,当用人单位基于“中立数据”区别对待劳动者,仍可以归结于用人单位是直接基于“受保护特征”对劳动者进行歧视,因此“直接歧视”存在适用空间; 对于后者,尽管“间接歧视”在立法与实践中的发展远远早于算法技术的产生,但是其应更具包容性使之能够适应技术发展带来的劳动者选拔程序的创新,因此“间接歧视”也具有适用空间。当然,无论是“直接歧视”还是“间接歧视”,均在规制算法歧视上面临相同困境:一是遭受不利益的劳动者如何提供初步证据证明歧视行为的存在,二是如何认定用人单位在“直接歧视”与“间接歧视”下存在合法的“抗辩事由”。

(二) 我国平等就业权立法与纠纷处理规则面临挑战

我国不存在一部专门的反就业歧视法,有关禁止就业歧视的内容主要体现于平等就业权立法与平等就业权纠纷处理规则之中。在对欧美传统反就业歧视法在“算法社会”之适用困境进行分析的基础上,有必要厘清我国平等就业权立法与纠纷处理规则的现状,发现其存在的问题。

1.立法与司法实践之现状检视。在我国,有关平等就业权保护的规定散见于若干法律条文(5)《中华人民共和国宪法》(以下简称《宪法》) 第三十三条规定中华人民共和国公民在法律面前一律平等;《中华人民共和国劳动法》(以下简称《劳动法》) 第三条规定劳动者享有平等就业权;《中华人民共和国就业促进法》(以下简称《就业促进法》) 第三条也明确劳动者享有平等就业权,不因民族、种族、性别、宗教信仰等不同而受歧视;《就业促进法》第三章“公平就业”禁止基于性别(二十七条) 、民族(二十八条) 、残疾(二十九条) 、传染病病原携带者(三十条) 、农村劳动者(三十一条) 等因素对劳动者进行就业歧视。。司法实践中法院是将“平等就业权纠纷”作为“人格权纠纷”进行处理的。笔者在“北大法宝网”以“平等就业权”为关键词检索相关案例。根据平等就业权侵权纠纷发生的阶段,可以划分为“录用阶段的平等就业权纠纷”与“实际雇佣阶段的平等就业权纠纷”两种类型。有关劳动者提起争议的类型、举证责任、法院判决、救济类型以及参考案件的具体内容如图2 所示。

图2 司法实践中两种类型的平等就业权侵权纠纷审理情况对比

2.立法与司法实践之局限。结合立法条文以及司法实践现状,我国平等就业权纠纷在立法与司法实践审理中存在很大不足,在“算法社会”下其弊端将进一步凸显: 首先,“间接歧视”处于立法空白地带,换言之,我国对平等就业权侵权纠纷的处理仍停留在“职场歧视1.0”阶段。如前所述,对于算法雇佣决策产生的隐蔽就业歧视而言,其并非如“直接歧视”一样以显而易见的方式呈现。若立法未对“间接歧视”作出规定,将难以规制算法雇佣决策所带来的隐蔽就业歧视后果; 其次,现行反就业歧视立法所规定的“受保护特征”的范围具有不周延性。算法技术可能基于那些未处于现行反歧视法“受保护特征”范围的其他特征对劳动者进行分类,这使得反就业歧视法在这些情形中不能得到适用; 再次,平等就业权纠纷不宜作为“人格权侵权纠纷”处理。当平等就业权纠纷作为“人格权侵权纠纷”处理时,劳动者在大多数情形下需要另行提起劳动争议诉讼请求用人单位支付受损失的工资报酬。即使劳动者一开始提起劳动争议诉讼,对于平等就业权纠纷,法院则作出不予处理的决定,这增加了司法审理的复杂性;最后,劳动者胜诉率低。在司法实践中,无论是“录用阶段的平等就业权纠纷”,还是“实际雇佣阶段的平等就业权纠纷”,实际上均是作为“人格权侵权纠纷”处理的,适用“谁主张、谁举证”,这增加了劳动者承担败诉后果的风险,与欧美国家法院在审理涉及“直接歧视”或者“间接歧视”案件中原告只需要提供“初步证据”证明歧视行为的存在具有很大不同。此外,“信息鸿沟”的存在往往导致劳动者不知晓用人单位将算法技术运用于雇佣决策、其在劳动条件上与其他劳动者相比处于不利地位的情况以及用人单位在开发算法技术过程中所做出的价值判断与行为选择,因此劳动者很难承担举证责任。

综上,与欧美传统反就业歧视法相比,我国平等就业权立法与纠纷处理规则在应对算法雇佣决策所产生的隐蔽就业歧视上存在极大的不足,亟需做出进一步完善。

四、算法雇佣决策下隐蔽就业歧视的法律规制:从“结果”到“过程、结果”双轨规制

本文主张,应从“过程规制”和“结果规制”两个视角,诠释和理解算法雇佣决策所产生的隐蔽就业歧视的法律规制路径。鉴于反就业歧视法是从“结果规制”的视角,在就业歧视结果发生后对用人单位施以法律责任,具有“滞后性”且劳动者与用人单位各自在承担举证责任上也存在困难,客观上还要求从“过程规制”的视角,在尊重一定程度“算法黑箱”作为“人机交互决策”特征的基础上,通过缩减“人机交互决策”中用人单位与劳动者之间存在的“信息鸿沟”避免用人单位实施“算法操纵”从而预防“人机交互决策”可能存在的就业歧视风险。针对“过程规制”,在具体内容上应围绕作为算法雇佣决策得以有效运行的“燃料”——“个人数据”的收集与处理展开,包括保障劳动者在算法技术开发与运用过程中的各项数据权利,以及规范用人单位在开发与运用算法技术过程中的其他行为。另外,考虑到算法技术是一项新型的人力资源管理工具,其开发与作用于雇佣决策过程与企业“规章制度”类似从而可以纳入《中华人民共和国劳动合同法》(以下简称《劳动合同法》) 第四条所规定的关乎劳动者切身利益的与“规章制度”并列的“重大事项”,因此在具体对其进行规制上可以借鉴劳动立法中有关企业规章制度的相关内容(6)参见《劳动合同法》第四条、第四十三条、第八十条、2021 年起施行的最高人民法院《关于审理劳动争议案件适用法律若干问题的解释(一) 》第四十七条。。在此基础上,本文根据算法技术从开发到具体运用的一系列过程,将“过程规制”与“结果规制”双轨规制路径的核心措施归纳为“设计与协商”“测试与监督”“制裁与举证”三个方面。

(一) 设计与协商

“设计与协商”强调用人单位在算法技术的开发与运用过程中保障劳动者的个人数据权利与平等就业权等基本权利,以及在算法技术开发与实际运用过程中充分贯彻“劳资协商”的基本理念。值得说明的是,除了已经与用人单位建立劳动关系的群体外,尚未与用人单位建立劳动关系的“求职者”(7)对于企业内部组建的工会而言,虽然其主要在劳动者已经与用人单位正式建立劳动关系的阶段发挥作用,但由于劳动者在求职阶段也常面临来自用人单位的侵害,因此企业工会也应保护处于求职阶段还未与用人单位正式建立劳动关系的劳动者权利。“类雇员”群体,均可以得到工会的保护[16]。有关“设计与协商”的具体内容如下:

1.用人单位应制定并执行“信息政策”,包括“通知政策”与“透明度政策”。具体而言,“通知政策”包括“数据收集”的通知与“算法技术运用”的通知两部分内容。针对前者,由于算法技术在用工领域的运用离不开对劳动者个人数据的收集,用人单位在着手收集劳动者个人数据之前应向劳动者告知数据收集技术是否存在的事实、数据收集技术的类型、所收集的劳动者个人数据的类型以及劳动者个人数据收集的预期用途等;针对后者,算法雇佣决策将显著影响着劳动者的劳动条件,为此用人单位应就“是否在雇佣决策中运用算法技术”这一事实向劳动者如实说明。此外,“透明度政策”旨在要求用人单位就算法雇佣决策过程对劳动者履行解释说明义务,是对“通知政策”的深入。我国《个人信息保护法》第二十四条也首次对数据主体有权要求通过自动化方式做出决策的数据处理者予以说明作出规定。出于保护“商业秘密”的要求,用人单位履行的解释说明义务应符合“比例原则”,即在要求用人单位给劳动者提供一个通俗易懂的关于算法技术究竟是如何被运用于雇佣决策、是否存在偏见的描述基础上,对用人单位履行解释说明义务的范围作出限定,具体包括:向劳动者说明准备开发的算法所需实现的“抽象目标”、选定的“结果变量”均具有“正当职业事由”,以及“训练集”数据来源不带有偏见性且收集“训练集”数据的方式未违背“普遍性原则”,不会对“未被代表”的群体造成歧视等。无论是“通知”,还是做出“解释说明”均应采取“书面形式”。

2.尊重劳动者的查阅权、更正权等数据权利的行使。《个人信息保护法》第四章以专章的形式规定个人在个人信息处理活动中的权利,具有极大的进步意义。其中,“查阅权”“更正权”可以赋予劳动者知晓用人单位收集的与其有关的个人数据的权利,以及在发现数据发生错误或者存在偏见时可以请求用人单位予以纠正,在一定程度上减少因“训练集”数据存在错误或者偏见导致的算法歧视。

3.限制用人单位将算法技术运用于针对可识别性劳动者的雇佣决策,除非具备“正当职业事由”,这也回应了在纠纷发生后用人单位对于“直接歧视”或者“间接歧视”的“抗辩事由”。根据“正当职业事由”的三要件——“工作实质要件”“全部或者几乎全部要件”与“合理需要要件”,用人单位只能在“不存在其他合适替代方案”的前提下运用算法技术来识别劳动者“与工作岗位密切相关”的不易观察的个人特征以作为雇佣决策的依据。“不存在其他合适替代方案”满足“合理需要要件”。而“与工作岗位密切相关”说明用人单位运用算法技术是为了衡量劳动者与“工作岗位相关”的劳动者个人特征,满足“工作实质要件”且“密切”一词体现出了劳动者只有具备该特征才可以恰当地履行工作岗位职责,满足“全部或者几乎全部要件”。在具体操作上,由于用人单位在算法技术开发阶段需要事先确定算法技术所需要实现的“抽象目标”并将其进一步转化为可以衡量的“结果变量”。通过对“抽象目标”以及“结果变量”的分析,可以判断算法技术在雇佣决策中的运用是否具有“正当职业事由”。

4.确保劳动者在算法雇佣决策中的参与权,缩减算法雇佣决策的“信息鸿沟”。在具体内容上包括:首先,无论用人单位运用电子监控技术对劳动者个人数据进行收集,还是在雇佣决策中运用算法技术,均是对劳动者之劳动条件或环境进行实质改变,属于应该与工会进行集体协商的事项[17],需取得工会的“同意”。以“工会同意”取代“劳动者个体同意”可以避免劳动者个体因行使权利而在劳动条件上遭受不利益。另外,应区分“明确同意”和“默示同意”,前者对应触及劳动者“人的尊严”的数据收集技术或者算法技术的运用,后者对应与劳动者“人的尊严”无关的数据收集技术或者算法技术的运用[18];其次,与规章制度在对全体劳动者生效前应向全体劳动者进行公示、听取劳动者的意见类似,用人单位在将算法技术正式投入使用前应主动向全体劳动者履行信息披露义务并接受劳动者的“异议”,从而促使用人单位对算法雇佣决策过程做出进一步审视、确保不会产生就业歧视后果。在域外经验上,欧盟将对自动化决策的“异议权”规定于个人数据保护法中,并且规定当依据完全自动化处理做出的决策未充分考虑数据主体的意见时不具有约束力(8)参见2018 年新修订的《关于个人数据自动化处理的个人保护公约》(Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data) 第9 条、2016 年通过的《通用数据保护条例》(General Data Protection Regulation) 第22 条。。而我国刚通过的《个人信息保护法》第二十四条并未明确指出数据主体对自动化决策具有“异议权”,因此有必要通过法律解释的方式赋予数据主体以“异议权”,且对于未考虑数据主体意见的自动化决策,数据主体可以不受约束; 再次,在实际雇佣阶段,当依据算法技术做出对劳动者的劳动条件产生实质性影响的雇佣决定(如降职、解雇等) ,用人单位应通知工会并听取工会意见;最后,防止劳动者因正当行使权利而遭遇用人单位的“打击报复”。在手段上,劳动者可以授权工会成为其行使数据权利或者其他权利的“代理人”或者在立法上提高用人单位对劳动者实施“打击报复”的法律责任。

(二) 测试与监督

1.秉持“预防原则”,进行“算法影响评估”。由于算法雇佣决策可能给劳动者带来就业歧视风险,应突出“预防原则”的主导作用。“预防原则”最早来源于环境领域,要求建立一个早期预警系统[19]。“创新”和“预防”是密不可分的[20],“人的尊严”应作为科技创新的根本准绳,而在算法雇佣决策中贯彻“预防原则”正是出于维护作为劳动者基本权利之一的平等就业权的需要。在具体内容上,贯彻“预防原则”的核心措施是要求用人单位在算法技术被运用于雇佣决策之前预先对算法技术进行测试,对其是否会侵犯劳动者的平等就业权做出评价,也称为“算法影响评估”,这有助于促使算法开发者更加负责任地开发算法、监测算法的运行[21]。“算法影响评估”应形成“算法影响评估报告”,该报告的具体内容应包括:系统性描述,用人单位必须说明其在雇佣决策中运用算法技术的“正当职业事由”。风险评估,用人单位需要评估算法雇佣决策可能对劳动者造成危害的性质和严重性。比例评估,用人单位应结合运用算法技术的预期目的以及可能产生的就业歧视风险,评估算法雇佣决策的必要性。风险减轻措施,如果风险评估确定了潜在的就业歧视风险,则用人单位要实施适当的风险缓解措施,否则不得将该算法技术投入使用。

2.重视“独立机构”在算法雇佣决策中的监督作用。通过“独立机构”对算法雇佣决策过程进行监督是缩减“信息鸿沟”的另一项重要举措。如前所述,向劳动者完全披露算法雇佣决策过程不利于保护用人单位的商业秘密,因此用人单位只能对劳动者履行有限的信息披露义务。在此基础上,要求用人单位向外部的“独立机构”披露完整的关于算法技术开发与运行过程中每一步的证据线索,可以防止用人单位对劳动者进行“虚假陈述”,提升劳动者对算法雇佣决策的信任感。设立专门的“独立机构”进行“算法影响评估”在国外已经存在实践,例如,美国纽约市议会于2017 年通过的《算法问责法》明确规定应成立“自动化决策工作组”,对市政机构所运用的“自动化决策系统”进行影响评估[22]。针对用工领域,纽约市议会出台了一项法令,禁止销售有助于招聘的算法系统,除非这些系统经过“独立机构”的“歧视审计”并得到“认证”[23]。我国也应借鉴这些经验,可以考虑由“各设区的市政府”“行业工会”“行业商会”牵头成立一个“独立机构”,并要求运用算法技术的用人单位向该“独立机构”披露完整的关于算法技术开发与运用过程的每一步骤的证据线索以及“算法影响评估报告”。

(三) 制裁与举证

“制裁与举证”主要是从“结果规制”的视角,要求用人单位对算法雇佣决策给劳动者造成的就业歧视承担法律责任,并对纠纷处理阶段的举证责任进行分配。立足于我国立法与司法实践现状与问题并借鉴欧美国家经验,我国反就业歧视法应作出如下完善:

1.制定一部专门的《反就业歧视法》,不仅适用于传统雇佣领域的劳动者或求职者,也适用于“类雇员”群体。在具体内容上包括:首先,鉴于当今劳动力就业市场中就业歧视以愈加“隐蔽”的方式呈现,我国应该借鉴欧美国家的“间接歧视”理论,扩大就业歧视行为的范围以有效规制算法雇佣决策带来的就业歧视后果;其次,我国未来《反就业歧视法》应扩大“受保护特征”范围,将一些常见的歧视类型(例如户籍歧视、年龄歧视、学历歧视、身体特征歧视等等) 纳入其中;再次,将平等就业权纠纷作为“劳动争议”下的“特殊侵权行为”纠纷,适用统一纠纷处理规则而不再根据就业歧视是存在于“录用阶段”或“实际雇佣阶段”而适用不同的纠纷处理规则;最后,在赔偿类型上包括精神和财产的损害(如失去的就业机会) 等。对于用人单位“故意”造成就业歧视的,应借鉴美国1991 年《民权法案》对用人单位适用“补偿和惩罚性赔偿”机制(9)See 42 USC 1981a.。

2.减轻劳动者的举证责任。平等就业权侵权行为的构成要件应借鉴欧盟经验采用“客观主义立法”,不将歧视的“主观故意”作为“直接歧视”的构成要件。欧美在是否将相关主体的“主观歧视故意”作为“直接歧视”的构成要件上存在的不同,源于两国所采取的价值取向,美国持“矫正正义”的理念,而欧盟持“分配正义”的理念。前者与过去美国社会存在的严重的、具有道德上可谴责性的种族歧视历史密切相关;后者更看重行为的结果而不追究行为人的主观意图[24]。结合我国国情,我国在劳动者平等就业权的保护上应秉持“分配正义”的价值取向。只要用人单位的雇佣行为客观上对劳动者造成就业歧视结果且不具有“正当职业事由”,那么其就要承担歧视责任。此种“客观主义立法”也减轻了劳动者承担举证责任的压力。此外,在举证责任的具体分配上可吸取欧美的有利做法: 由原告提供初步证据证明存在“直接歧视”或者“间接歧视”,从而推定存在表面歧视,之后由被告举证证明其行为符合法定的“抗辩事由”。

五、结语

“数据驱动”的算法技术具有高度“颠覆性”。在将算法技术运用于雇佣决策的过程中,应时刻警惕其可能给劳动者平等就业权带来的侵权风险。除了对算法雇佣决策下隐蔽就业歧视作出法律规制外,还应推动全体公民进行有关人工智能方面知识的学习,培养基本的人工智能素养。当然,算法技术对就业市场的影响远不只带来就业歧视后果。在平台用工领域,算法成为构建劳动秩序的关键要素,其背后蕴含着平台企业对平台工人的极大控制,平台工人的意志在平台秩序中受到严重挑战。由于平台算法的运行离不开对平台工人个人数据的收集与处理,后续研究有必要专门针对平台用工领域,探讨平台工人个人数据保护路径。

猜你喜欢

规制用人单位劳动者
网约车平台责任条款的识别方法——基于解释进路的正当规制
致敬劳动者
劳动者
控制股东滥用权利规制的司法观察及漏洞填补
致敬最美劳动者
关于与特殊岗位劳动者书面劳动合同签订的责任分析
完善地方政府行政作为法律规制的思考
这32种情形用人单位需向劳动者支付经济补偿金
在云端
集体合同纠纷,用人单位“三不能”