APP下载

职场监视5.0下劳动者个人数据保护的困境与出路

2021-10-21汤晓莹

北京社会科学 2021年9期
关键词:数据保护职场用人单位

汤晓莹

一、引言

“算法管理”目前已经在全世界范围内蓬勃发展,并被普遍运用于众多产业的“劳动者”①分配、管理、优化和评估中。尽管表面上算法管理是以更科学的数据分析作为雇佣决策的依据,但其在实际运行中却带来了越来越多的“侵入性管理实践”,引发了对劳动者权利保护问题的担忧。[1]2020年,《人物》杂志的一篇题名为《外卖骑手,困在系统里》的文章揭示了外卖骑手面临的算法困境,[2]激起了我国学界和实务界对平台用工领域算法管理的广泛讨论。实际上,算法技术除了在平台用工领域发挥关键人力资源管理职能外,在传统雇佣领域也成为影响劳动者是否被录用、解雇或者劳动条件是否得到改善的重要因素。随着2020年新冠疫情的爆发,“远程劳动”②的重要性得到凸显,算法在远程分配任务、衡量劳动者工作效率等人力资源管理上势必发挥越来越关键的作用。根据定义,“算法管理”是指用人单位在“数据收集”的基础之上运用“机器学习算法”对所收集的劳动者个人数据进行自动处理,从而自动或者半自动地做出人力资源管理决策的过程。[3]“机器学习算法”(以下简称“算法技术”)在其中所发挥的核心作用便是在数据收集的基础上通过对数据进行自动化处理从而预测劳动者未知个人特征。

在从属性劳动关系中,具有天然积极扩张性质的用人单位监督管理权与劳动者个人数据保护之间始终存在紧张关系。笔者将用人单位借助技术革新手段扩大对劳动者个人数据的获取范围,称为用人单位职场监视的“第一次大规模扩张”;将用人单位在既有劳动者个人数据的基础上,借助算法技术推论出劳动者未知的个人数据,而无需以直接侵害劳动者个人数据的方式获得,称为用人单位职场监视的“第二次大规模扩张”。对于前者,如何平衡用人单位的监督管理权和劳动者的个人数据保护、限制用人单位对劳动者个人数据的收集一直是学界研究的重点,而对于后者,当前学界研究成果则较为匮乏。另外,对于不具有传统劳动者身份的平台工人而言,其不仅未能在工资工时、工人补偿、集体谈判、失业保险、反歧视法等方面享有与传统雇佣领域中的劳动者完全相同的基本权利,[4]还可能面临来自平台企业以收集和处理平台工人的个人数据为基础的平台算法决策的危害,这无疑是“雪上加霜”。

劳动力不是商品,[5]劳动者对其个人数据的权利也不是商品,并不因为进入劳动关系而舍弃。平台工人也不能在提供劳务给付义务的过程中失去对个人数据的主导地位。当前,我国劳动者个人数据保护立法不仅面临历史遗漏缺陷,也面临着职场监视5.0带来的新挑战,由此呈现出新旧问题并存的局面。《民法典》将个人信息保护上升到一个新的高度,而正在制定中的《个人信息保护法》将进一步助推个人信息保护高潮的到来。职场领域是劳动者个人数据保护、算法技术运用的特殊场景,而算法技术得以运行的基础是个人数据,藉由职场监视5.0下的劳动者个人数据保护可以管窥场景化、类型化在个人数据保护中的意义与运用,也有助于从源头上规制算法技术的侵权风险。

二、职场监视的智能升级与职场监视5.0在雇佣决策的具体运用

“职场监视”,又称为“劳动者监督”。企业在职场领域中越来越频繁地运用电子监控设备、信息技术、物联网技术、人工智能技术等现代科技手段获取和处理劳动者个人数据,由此带来职场监视的智能升级。

(一)职场监视的历史沿革

1.职场监视“五阶层模型”

用人单位对劳动者的职场监视经历了两次大规模扩张,其背后展现的是职场监视手段的革新。根据职场监视手段出现的先后顺序,可将职场监视归纳为“五阶层模型”(表1)。[6]

2.职场监视5.0与其他职场监视手段的关系

职场监视5.0阶段与其他阶段的职场监视既存在紧密联系,又存在差异。算法技术的开发与运行离不开对个人数据的收集与处理。算法技术利用“职场监视1.0”到“职场监视4.0”阶段生成的大数据实现对劳动者进一步监视。从中可得出以下结论:第一,职场监视5.0下劳动者个人数据保护不能脱离前几个阶段的劳动者个人数据保护而独立存在。第二,与之前的职场监视阶段不同,算法技术的核心功能是“数据挖掘”,即借助统计学上分析工具识别数据集中各数据之间的关联性,[7]使根据既有个人数据推论出未知的个人数据成为可能,从而给劳动者个人数据保护提出了新的挑战。第三,算法技术兼具监视与管理职能,前者体现为算法技术可以预测出劳动者未知的个人特征,后者体现为算法技术可以被运用于自动地做出人力资源管理决策,而无需人为干预,这均是其他职场监视阶段所不能及的。

(二)算法技术在传统雇佣领域的运用

1.招聘阶段

算法技术已经逐步进入企业的“自动化招聘系统”。算法技术在招聘阶段的运用也称为“分析”的过程。③在我国,典型的以算法为核心的招聘网站有智联招聘网、前程无忧网、领英等。具体而言,在招聘广告阶段,数字时代下在线广告日益成为接触潜在求职者的首选方式,用人单位可能会使用招聘算法技术来识别合格的群体,并向其定向发送招聘信息;在简历筛选阶段,用人单位通常借助算法技术对求职者进行筛选以淘汰不适格的求职者;在面试阶段,用人单位可以借助算法技术对视频面试中求职者的面部表情、语调等个人数据进行分析以衡量求职者的性格特征、工作表现等;在录用阶段,用人单位将根据前述阶段对求职者进行评级的结果向符合条件的求职者发送录用通知。[8]这一过程类似于一个“招聘漏斗”(图2)。

2.雇佣阶段

算法技术也进入了企业“智能任务分配系统”,或者对劳动者在履行劳动给付义务过程中所产生的个人数据进行分析以识别劳动者的工作效率或工作状态。前者体现为算法技术将根据劳动者完成工作任务的情况自动地向劳动者分配下一阶段的任务。关于后者,现实中,劳动者在职场空间下的绝大多数活动都受到用人单位的监视,甚至包括在职场领域中的非工作时间,如未分配的洗手间时间。算法系统可以基于“机器学习功能”计算出平均每位劳动者的“洗手间时间”并自动地对超出一定时间的劳动者做出警告、降薪、降职、解雇等关系劳动者劳动条件的雇佣决定。例如,实践中有位工人去洗手间的时间超出规定时间3秒,月末结算时全智能员工管理系统扣了他50元工资。[9]

(三)算法技术在平台用工领域的运用

在平台用工中,算法技术借助智能手机这一信息媒介将劳务需求者与劳务给付者进行匹配,实现平台市场两端用户无缝对接的、优化的劳务给付交易。“美团”“饿了么”“滴滴打车”以及“Uber”等互联网平台的运行均离不开算法技术。以Uber为例,当乘客在其app端输入目的地信息,Uber通过定价算法向乘客显示乘车费用,估计平台司机到达乘客所在地和目的地所需的时间,并显示示例路线和图标以指示附近平台司机的存在。当乘客接受时,平台将出行请求发送给附近的平台司机,平台司机的智能手机会显示乘员的姓名、客户评分、位置、目的地以及乘车价格。在平台司机收到出行请求后,其有15秒时间做出是否接受该出行请求的决定,如果拒绝了,平台将会将该请求发送给其他合适的平台司机。如果平台司机接受了该出行请求,乘客将看到司机的姓名、评分、预计到达目的地时间以及平台司机的实时动态。当平台司机完成出行请求时,平台将从乘客所绑定的银行里划走乘车费用,并将其中一定比例的金额作为中介费用,其余进入平台司机的专用账户。行程结束后,平台司机和乘客互相给对方评分。[10]在这一系列过程中可归纳出两套算法:一是将劳务给付供求者与劳务给付需求者进行匹配的算法,二是计算平台工人劳务报酬的定价算法。这两套算法技术的运行同样离不开对平台工人的位置跟踪以及对平台工人与工作过程相关的数据与用户反馈数据的收集(图3)。[11]

图3 平台用工运行的基本要素

三、侵权风险嵌入算法雇佣决策的技术路径:数据收集与数据处理

为何要对职场监视5.0下劳动者的个人数据进行保护?算法技术是把双刃剑,尽管其提高了用人单位或者平台企业在做出雇佣决策的效率,但也给劳动者造成了侵权风险。此侵权风险实际上是通过对劳动者个人数据的收集与处理这一技术路径嵌入算法雇佣决策。

(一)“数据收集”的侵权风险

算法技术是“数据驱动型”的技术,其开发与运行均要以“个人数据”为原材料,这就决定了其离不开对劳动者个人数据的收集。“数据收集”的侵权风险是指用人单位在着手收集数据之前以及收集数据的过程中可能存在的导致算法技术的运行结果对劳动者产生不利影响的风险。具体而言,在用人单位实际着手数据收集工作之前,用人单位需要先作出问题界定,即确定其所开发的算法技术所欲达到的目标。假设用人单位在算法开发之问题建构阶段为算法技术设定了一个抽象目标,即筛选出不具有“健康风险”的求职者以减轻企业的用工成本。继而,用人单位将该抽象目标转化为可以衡量的效果变量,如劳动者因病请假次数少。之后,用人单位会根据已确定的效果变量收集可以衡量效果变量的数据,如收集与在本单位本年度内因病请假天数次数少的劳动者相关的个人数据。在个人数据收集之后,用人单位还需要清除发生错误的数据、估计缺失的数据值并将数据划分为“训练集”和“测试集”数据。[12]

在问题界定、效果变量确定以及实际对劳动者个人数据进行收集的过程中,用人单位所进行的价值判断或者行为选将在很大程度上影响算法技术的运行结果是否会对包括平等就业权、个人数据权利在内的劳动者权利造成侵害,这体现为:第一,因效果变量具有歧视性导致就业歧视;第二,因数据收集方式违背普遍性原则[13]而对未被代表的群体造成就业歧视;第三,因数据本身存在错误或者偏见导致算法运行结果不具有合理性或者造成就业歧视;第四,用人单位可能未经劳动者事先同意而收集劳动者个人数据等。

(二)“数据处理”的侵权风险

在收集完数据之后,用人单位会对收集到的数据进行匿名化处理,此时无关乎个人数据权利。继而,用人单位会利用统计学上分析工具对训练集数据进行分析从而发现数据间统计学上概然性,这一步骤可称为“数据挖掘”。[14]譬如,借助统计学上分析工具得出“工作表现与社交媒体使用频繁程度”有关、“喜欢社交媒体中某些内容与智力”有关等。只要前者与后者之间存在统计学上的相关性而不一定在现实世界中具有因果关系,统计学上分析工具将识别两者存在关联性。由此可见,此时劳动者个人数据的个人权利属性已经褪去,而具有集体利益性质,因为将每位劳动者的个人数据进行汇集后的结果将对其他人造成影响。[15]值得注意的是,与传统统计分析从假设开始不同,“数据挖掘”是从数据生成假设,其本身并不关心此种假设或推论的作出是否具有合理性。[16]

数据的自动化处理过程可能会给包括劳动者的生命健康权、隐私权、平等就业权在内的劳动者权利造成侵害,这表现为:第一,生命健康权侵权风险。近年来外卖骑手因配送时间不断被压缩而发生工伤事故的例子屡见不鲜,笔者认为这与平台企业通过算法技术的“机器学习功能”计算出每笔订单所花费的平均时间,并据此秘密地缩减骑手配送时间,优化顾客订单体验密切相关。根据外卖平台对外的公开说法,送餐系统会收集骑手的上下楼时间,甚至专门研究骑手去低楼层和高楼层时的时间速度,从而对配送时间作出合理的规定。第二,隐私侵权风险。假定在统计学上分析工具识别“喜欢社交媒体上某项内容的群体”与“性取向”之间存在关联性的基础上,若收集到的某个求职者的数据都指向该求职者喜欢社交媒体上的某项内容,则算法最终的分析结果将指向该求职者的性取向存在问题。继而,用人单位可能出于对求职者性取向的歧视,对该求职者做出不雇佣的决定。第三,歧视风险。以“性别差异”为例,根据Uber所进行的一项研究,女性平台司机与男性平台司机的收入之间存在很大差异。研究者认为由于女性和男性在居住地、驾驶经验、冒险精神等方面的差异,导致男性平台司机比女性平台司机更可能在高收入的路段上行驶。[17]尽管该解释是可行的,但笔者认为这并非问题的关键。假设Uber在问题设定阶段为“供应者选择匹配算法”制定了一个看似无辜的目标:将平台司机与可能对其作出高评价的乘客匹配在一起。在“数据挖掘”的过程中,统计学上分析工具可能会识别出种族、阶层和性别等要素与用户评价之间的相关性。例如,相对而言比较谨慎、驾驶速度比较慢的女性平台司机很难与着急赶时间前往机场的乘客相匹配,而前往机场的线路在单位时间内的有效距离往往是更远的,这可能会对女性平台司机的经济利益造成不利影响。

综上所述,算法技术在辅助用人单位或者平台企业做出雇佣决策过程中给劳动者权利造成的侵权风险主要是通过用人单位或者平台企业对劳动者个人数据的收集以及统计学上分析工具对劳动者个人数据的自动处理嵌入算法雇佣决策。由此,通过法律规制数据收集与数据处理过程便成为治理算法技术侵权风险的重要路径,从而凸显劳动者个人数据保护的重要意义。

四、职场监视5.0下我国劳动者个人数据保护之困境

我国现有的劳动者个人数据保护方式可以进一步划分为两部分内容:一是对用人单位在收集与处理劳动者个人数据过程中应遵守的行为规范作出规定;二是对劳动者的数据权利予以明确。这两种方式不仅无法有效应对职场监视5.0出现之前用人单位对劳动者个人数据的不恰当收集与处理,而且在职场监视5.0下也面临着新的困境。

(一)用人单位数据治理义务的困境

用人单位数据治理义务主要是通过约束用人单位对劳动者个人数据的收集与处理行为来保护劳动者的个人数据,主要存在如下问题:

1.劳动者个人数据受保护范围不明确

我国现有劳动者个人数据保护立法主要集中于对劳动者医疗健康信息的保护,④以及将劳动者在招聘阶段向用人单位履行如实告知义务的范围限于与劳动合同相关的事项,⑤而对于在实际雇佣阶段,用人单位是否有权运用电子监控技术对劳动者个人数据进行收集、用人单位对劳动者个人数据进行收集的范围、是否应区分“职场空间”和“非职场空间”下的劳动者个人数据保护,以及用人单位在收集劳动者的个人数据之后应如何使用这些数据等,立法均未规定。

2.“目的限制”原则有违“数据共享”

我国《民法典》第1035条、《数据安全法》第32条都规定了收集、处理个人数据要具有特定的目的且不得过度处理。然而,大数据时代的基本特征是“数据共享”,而依据“目的限制”原则,对个人数据的收集与处理的合法性仅在特定目的范围内生效。如何平衡“目的限制”与“数据共享”之间的关系,有待解决。

3.传统敏感—非敏感数据二元划分难以防止劳动者隐私权或平等就业权遭受侵犯

《民法典》第四编第六章区分“隐私”和“个人信息”,将敏感个人信息(数据)称为“隐私”的一种类型。《劳动法》第12条列举了“民族、种族、性别、宗教信仰”这四种歧视特征, 明确劳动者不得因这四类特征而受到歧视,因此,除非具有正当商业事由,否则不允许用人单位询问劳动者与歧视特征有关的个人数据的行为。上述立法是以个人数据收集时是否具有敏感性来认定某一个人数据是否属于“敏感个人数据”。尽管限制对劳动者敏感个人数据的收集和处理可以在一定程度上避免劳动者隐私权被侵犯或者传统就业歧视的发生——即用人单位通常收集劳动者或者求职者的敏感数据,并据此对其劳动条件产生不利影响,然而在算法管理下,算法技术可以通过对由若干非敏感个人数据构成的数据集进行分析从而发现敏感个人数据与非敏感个人数据之间的相关性,使得雇主能基于“非敏感个人数据”对劳动者不易直接观察到的“敏感个人数据”作出预测,侵犯劳动者隐私。用人单位也可能因此对劳动者予以差别对待。为此,仅限制对劳动者敏感个人数据的收集、披露和处理,并不足以避免就业歧视的发生,且算法歧视的发生极为隐蔽,仅依据现有的平等就业权保护立法与司法实践已经无法有效应对。⑥

4.数据处理结果的合理性未得到重视

如前所述,统计学上分析工具在进行数据自动化处理的过程中所识别的数据与数据之间的关联性在现实世界中可能不具有合理性,这将直接影响算法技术的实际运行结果。然而,我国对个人数据的保护主要将关注中心放置于个人数据收集阶段,如要求用人单位对劳动者个人数据的收集遵循目的限制原则、严格限制对劳动者的敏感个人数据进行收集等,未对个人数据处理阶段中数据处理的结果应具有合理性作出规定。

(二)劳动者个人数据赋权的困境

劳动者对其个人数据的控制权可以进一步划分为“程序性数据权利”与“实体性数据权利”。

1.程序性数据权利未得到落实

程序性数据权利,即劳动者对其个人数据收集与处理的知情同意权。《民法典》第1035条继续肯定了收集、处理个人信息要取得数据主体的同意。然而,该条在职场领域存在适用上的困境,表现为:第一,未对同意作出的形式进行规定。同意的作出若采用任意的口头形式,将难以保证同意是经过数据主体深思熟虑后做出的决定。第二,劳动者个体缺乏作出有效知情同意的能力。正如欧盟“第29条数据保护工作组”在2017年关于“工作场所数据处理的意见”中指出的那样,从属性劳动关系中,雇员个体出于担心雇主在劳动条件上对其予以差别对待,很少会自由地作出、拒绝或者撤销关于数据处理的同意。[18]此外,劳动者个人由于力量的有限性往往不能对数据收集与数据处理可能存在的风险作出合理判断,进而也无法作出实质有效的同意。

2.实体性数据权利种类规定不全面

《民法典》1037条规定的是以“控制个人数据的传播利益”为中心的包括查阅、复制、异议、更正、删除权在内的数据权利。尽管这些权利可以在一定程度上保证劳动者在算法雇佣决策中的参与权,但是作用有限,不能从根本上防止用人单位在“职场空间”以及“非职场空间”下对劳动者个人数据的收集以及避免劳动者遭受算法雇佣决策的侵害。

五、职场监视5.0下我国劳动者个人数据法律保护之出路

面对职场监视智能升级给劳动者个人数据保护带来的挑战,法律人不能被技术创新所绑架,而应当完善和建立相应的法律制度。

(一)职场监视5.0下劳动者个人数据保护的基本理念

职场监视5.0下的劳动者个人数据保护应遵循一定的基本原则与理念,具体包括:第一,数字人权。算法技术的开发与运用离不开对个人数据的收集与处理,而数据主体往往并不知晓算法技术被运用于决策,或者算法决策者以保护商业秘密的名义并不公开算法决策过程,由此带来的信息垄断与信息鸿沟可能会严重威胁、侵蚀数字化的数据主体的隐私权、平等权等基本人权。鉴于此,很多学者纷纷提出“第四代人权”——“数字人权”,旨在反数据信息控制,消解和应对信息鸿沟与信息垄断对信息主体基本人权的挑战。[19]第二,场景理念。对劳动者个人数据的保护应建立在“场景理念”的基础上。在职场领域中,算法技术的运用可能是为了识别全体劳动者的某些特点,也可能是为了区分具有某一属性的劳动者个体进而对其劳动条件产生影响。后种情形极易对个体劳动者权利带来不利影响,与劳动者个人权利密切相关,应属于法律重点规制范围。[20]第三,预防原则。算法技术对个人数据的自动化处理结果可能具有不合理性,因此应突出“预防原则”在劳动者个人数据保护中的关键作用。[21]第四,比例原则。“比例原则”强调对权利进行适度限制,有助于平衡劳动者个人数据权利与用人单位监督管理权的关系。[22]第五,人对机器的控制。在人与人工智能的关系上,应始终强调人的主导地位,体现为要始终对人工智能带来的不利影响承担法律责任。[23]第六,社会对话。“社会对话”在职场领域表现为发挥集体权利在保护劳动者个人数据中的作用。于劳动者来说,集体权利有助于为劳动者谋求更好的劳动经济条件;于雇主来说,集体权利是限制雇主监督管理特权的一个基本工具,可使由雇主单方面行使其管理特权转向由雇主和雇员共同治理。[1]

(二)职场监视5.0下劳动者个人数据保护路径的修正

应以上述六项基本原则为指引,修正用人单位的数据治理义务以及劳动者的个人数据权利。

1.用人单位数据治理义务的修正

(1)遵循“合理隐私期许”

我国对劳动者的个人数据保护应引入“合理隐私期许原则”作为判定劳动者个人数据受保护范围的依据,且在非职场空间下,劳动者的合理隐私期许范围大于职场空间下劳动者的合理隐私期许范围,因此用人单位对劳动者在非职场空间下个人数据的收集与处理行为应受到严格限制,除非存在例外情形。即使在这些例外情形中,用人单位可以收集和处理劳动者个人数据,但在手段上也需要符合比例原则。

(2)秉持“修正后的目的限制”原则

用人单位收集和处理劳动者个人数据时应遵循“修正后的目的限制”原则。具体而言,当用人单位首次出于影响可识别性个体劳动者经济地位的目的收集与处理劳动者个人数据时,用人单位需要遵循“目的限制”原则;当用人单位对已经合法收集的劳动者个人数据作进一步处理以完成另一个可能对劳动者权利造成影响的“不兼容”目标时,需再次通知劳动者并获得其同意。反之,若用人单位不是出于影响可识别性个体劳动者经济地位的目的对已经合法收集到的劳动者个人数据进行进一步处理,则无需再次履行通知义务。

(3)摒弃传统敏感—非敏感个人数据二元划分

不再根据数据收集时是否具有敏感性来划分敏感个人数据和非敏感个人数据。若根据既有的非敏感个人数据对敏感个人数据作出推论,则用人单位基于此非敏感个人数据对劳动者进行区别对待,也应受到反歧视法的规制。

(4)解释算法决策过程

虽然出于保护用人单位商业秘密的要求,要求用人单位完全公开算法技术的开发与运行过程并不可行,但用人单位有必要解释算法决策过程,以缩减算法技术所带来的信息鸿沟。从域外立法经验来看,《关于在自动处理个人数据方面保护个人数据的公约》、GDPR以及伊利诺伊州的《人工智能视频面试法案》(Artificial Intelligence Video Interview Act)均规定了劳动者有权获得数据处理背后的推理知识,我国应借鉴此经验对用人单位履行解释义务的范围进行合理界定。在解释路径的选择上,用人单位应遵循“以主体为中心”的解释方式。[20]该解释方式重在解释该算法技术运行的基本原理,以及其将会给劳动者的劳动条件带来何种不利影响。具体而言,我国立法以及司法实践首先应扩张就业歧视的认定标准,在“直接歧视”之外引入美国反歧视法中的“不同影响”,将“不平等结果”作为认定歧视存在的标准。在此基础上,用人单位需履行如下义务:用人单位需要向劳动者说明其开发的算法所需实现的目标、选取的效果变量与工作相关且不具有歧视性,以及为开发算法而收集到的数据具有准确性与普遍性,能够合理地对效果变量进行衡量,从而做出合理、无偏见的雇佣决策。

(5)遵守其他数据治理义务

除了上述内容之外,用人单位还应积极遵守六个方面的数据治理义务。第一,用人单位出于针对可识别劳动者个体的目的收集与处理劳动者个人数据时应事先告知劳动者并征得其同意。第二,限制算法技术在职场领域运用的目的、手段与结果,包括:原则上禁止用人单位运用算法技术对劳动者个人数据进行自动化处理从而做出能对劳动者之劳动条件产生影响的雇佣决策,除非具有正当商业事由,即为了识别与工作岗位密切相关的劳动者未知的个人特征;当算法技术的运用对于劳动者与用人单位的合同签订或合同履行是必要的,且没有其他合适的替代方案来实现该合法目的时,才允许通过算法技术对个人数据进行自动化处理以指引雇佣决策;若算法技术的运用将不合理地排除劳动者在工作场所的基本权利(例如剥夺休息时间、洗手间时间),应禁止运用。第三,预先评估自动数据处理可能对劳动者基本权利带来的影响,否则不得进行自动化处理。第四,接受外部机构对其履行数据治理义务的情况进行监督,以及如实记录算法技术的开发与运行过程、数据保护影响评估过程并留存该证据线索且在诉讼中负“文书提供义务”。第五,有义务与工会就劳动者个人数据的收集与处理进行集体协商。第六,承担违反数据治理义务以及算法技术运行不利后果的法律责任。

2.劳动者个人数据赋权的修正

(1)确保实质有效的知情同意权

劳动者有权对用人单位收集和处理其个人数据的行为作出书面同意、拒绝同意,甚至可以随时撤回同意。[24]当然,同意作为劳动者的数据权利,其行使也不是毫无限制的。在某些例外情形下,该权利需要受到限制。该例外情形是用人单位在用工领域运用算法技术存在正当的商业事由。而对于平台用工领域而言,平台企业对平台工人个人数据的收集,并借助算法技术对这些数据进行处理是平台系统得以高效率运行的核心,因此平台工人原则上不得拒绝平台企业收集与处理其履行劳务给付过程中的个人数据。此外,劳动者个人还可以授权工会行使知情同意权。

(2)增设新型数据权利类型

第一,算法雇佣决策异议权与免受算法雇佣决策约束的权利。在算法雇佣决策中,算法技术以类似于企业规章制度的形式影响着劳动者的劳动条件,劳动者理应对算法技术是如何对其劳动条件产生何种影响享有异议权。由于算法技术的核心是“个人数据”,欧盟立法将“异议权”纳入个人数据保护立法中。例如,《关于在自动处理个人数据方面保护个人数据的公约》第9条、GDPR第22条明确规定,对于“完全基于自动处理”,未考虑数据主体意见的决策,如对数据主体造成影响,数据主体有权“免受该决策的制约”。我国有必要借鉴此经验在未来的《个人信息保护法》中赋予劳动者算法雇佣决策异议权以及免受算法雇佣决策约束的权利。对于未考虑劳动者意见的算法雇佣决策,当其对劳动者的劳动条件造成不利影响时,劳动者免受该决策约束。

第二,离线权。“离线权”旨在确保劳动者在非工作时间远离工作,不从事与工作相关的电子通讯活动且不会受到不利益对待。[25]我国劳动者个人数据保护立法应借鉴法国经验引入“离线权”,要求用人单位与劳动者就“离线”的具体时间进行协商,并扩张其适用范围,不仅限制劳动者在非职场空间下与领导或者公司同事进行与工作有关的电子通讯活动,也限制用人单位在非职场空间下安装电子监控设备对劳动者个人数据进行收集。[26]

五、结语

“人工智能+”引发了用人单位人力资源管理领域的深刻变革,是高度的颠覆性技术。在将人工智能运用于人力资源管理的同时,应时刻警惕人工智能给劳动者个人数据带来的侵权风险,确保人工智能安全、可靠、可控发展。在个人数据侵权之外,算法雇佣决策所产生的隐蔽就业歧视对我国反就业歧视法律提出了挑战。我国统一的反就业歧视法也应早日提上议程,使之能有效应对算法歧视风险。法律的生命不在于赞美科技的绝妙之处,而在于指出其对人的权利的侵犯可能性并加以防范。总之,在技术创新的同时应时刻保持对技术创新的谨慎态度,并时刻以基本权利保护为最终目的指引技术创新的发展方向。

注释:

① 此处“劳动者”采广义概念,不仅包括从属性劳动者,还包括不具有传统雇员身份的平台工人群体。

② 按照田思路教授的定义,“远程劳动”是指“从业者在传统职场之外通过电讯技术和设备从事工作场所、工作时间相对灵活的非典型用工形式”,远程劳动者是指“从事远程劳动的人”。参见:田思路.远程劳动的制度发展与法律适用[J].法学,2020(5):63-64.

③ 根据欧盟《一般数据保护条例》中的定义,“分析”是指对个人数据进行的任何形式的自动处理,包括使用个人数据评估与自然人有关的某些个人方面,尤其是分析或预测与个人有关的工作表现、经济状况、健康状况、个人喜好、兴趣、可靠性、行为、位置或动作等。

④ 2007年原劳动与社会保障部门发布的《关于维护乙肝表面抗原携带者就业权利的意见》规定用人单位在招、用工过程中,可以根据实际需要将肝功能检查项目作为体检标准,但除国家法律、行政法规和卫生部规定禁止从事的工作外,不得强行将乙肝病毒血清学指标作为体检标准。《职业病防治法》《用人单位职业健康监护监督管理办法》规定用人单位应组织从事接触职业病危害作业的劳动者进行上岗前、在岗期间、离岗时职业健康检查并建立职业健康监护档案的规定。

⑤ 2008年实施的《中华人民共和国劳动合同法》(以下简称《劳动合同法》)第8条第2款中规定:“用人单位有权了解劳动者与劳动合同直接相关的基本情况,劳动者应当如实说明。”

⑥ 我国现行法律所涉及的就业歧视大多指不允许对劳动者实行“直接就业歧视”,而对于“间接就业歧视”,现行立法则处于空白地带。

猜你喜欢

数据保护职场用人单位
用人单位应避免七个认知误区、切实保障职工年休假的合法权益
职场Z世代为何这么跩
性骚扰的用人单位法律责任研究
职场剧需要去除虚伪与虚荣
餐厅经营模式多样 事先分清用人单位
职场充电,停还是行?
TPP生物药品数据保护条款研究
欧盟数据保护立法改革之发展趋势分析
欧盟《一般数据保护条例》新规则评析
集体合同纠纷,用人单位“三不能”