APP下载

完全自动化决策拒绝权的双重功能及实现路径

2023-03-02齐延平朱家豪

国家检察官学院学报 2023年6期
关键词:规制个人信息权利

齐延平 朱家豪

一、问题的提出

数据和算法形塑了“智能利维坦”般的新型社会结构形态,存在于其中的个人已经被嵌入技术网络中,人在创制技术的同时,也作为客体被技术所创制和定义。〔1〕齐延平:《论人工智能时代法律场景的变迁》,《法律科学》2018 年第4 期。完全自动化决策拒绝权作为对抗决策算法化的重要手段,是数智化时代个人权利体系的重要一环。该权利在规范层面的渊源可以追溯到1978 年《法国数据保护法》。此后,欧盟1995 年《个人数据保护指令》和2018 年《通用数据保护条例》在继承这种立法精神的基础上对个人拒绝完全自动化决策的适用范围进行了扩展。及至2021 年,《中华人民共和国个人信息保护法》(以下简称个保法)也设置了自动化决策拒绝权条款,该法第24 条第3 款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求信息处理者予以说明,并有权拒绝信息处理者仅通过自动化决策的方式作出决定。”〔2〕杨合庆:《中华人民共和国个人信息保护法释义》,法律出版社2022 年版,第73 页。基于对国内外规范的考察,研究者概括出了“免受自动化决策约束权”〔3〕参见张欣:《免受自动化决策约束权的制度逻辑与本土构建》,《华东政法大学学报》2021 年第5 期。“完全自动化决策拒绝权”〔4〕参见王苑:《完全自动化决策拒绝权之正当性及其实现路径——以〈个人信息保护法〉第24 条第3 款为中心》,《法学家》2022 年第5 期。等概念,并认为是“调整个人与信息处理者之间关系结构的工具性权利”〔5〕王锡锌:《个人信息国家保护义务及展开》,《中国法学》2021 年第1 期。,或是发挥着个人信息权权能作用〔6〕申卫星:《论个人信息权的构建及其体系化》,《比较法研究》2021 年第5 期。。

完全自动化决策拒绝权是个体对抗算法权力、规避技术控制、逃离“智能利维坦”的重要手段,应用范围不应受到具有“小数据”导向的“可识别性”个人信息的限制,而应作为大数据导向、算法化社会中一种具有基础意义和普遍效力的权利。对完全自动化决策拒绝权的认识不足源于对价值层面权利形象教义化建构的先天缺失,这使之无法形成清晰的法权结构,所带来的后果就是权利实践困难和权利保障规则的逻辑割裂。正如有学者指出的,完全自动化决策拒绝权在欧盟作为“赋予个体的权利事实上很难被个体行使”〔7〕丁晓东:《论算法的法律规制》,《中国社会科学》2020 年第12 期。。原因就在于忽视了价值层面的权利也具有要求国家提供制度性保障、组织与程序保障以及履行国家保护义务的功能,而且这一客观法而非主观权利功能才是数智化时代完全自动化决策拒绝权的先导性价值。借助教义学方法的“稳定化和整合功能”,〔8〕雷磊:《法教义学能为立法贡献什么?》,《现代法学》2018 年第2 期。确立完全自动化决策拒绝权对自动化决策场景化规则的统领观念,便能达致规范间“无矛盾与融贯性”的效果。因此,有必要以个保法的规定为基础,借助系统化建构方法,阐明完全自动化决策拒绝权的双重价值属性,进而构筑起适应数字化、网络化、智能化时代的新型权利实现逻辑。

二、完全自动化决策拒绝权的体系化构建

个保法中的完全自动化决策拒绝权条款具有不完备性,并未揭示权利行使的具体方式,也未规定信息处理者的技术和程序保障义务。〔9〕同前注[6]。这意味着该规定目前仅停留于纸面上,并未对实践中解决个人面临的完全自动化决策困境发挥作用。如果从个保法的解释出发进行体系化建构,完全自动化决策拒绝权规范制度的不完备性就可得到补充,与实践的紧张关系亦可得到舒缓,对自动化决策规则的统领功能就可呈现出来。

(一)完全自动化决策拒绝权规范制度的不完备性

个保法的完全自动化决策拒绝权条款有借鉴欧盟《通用数据保护条例》的痕迹,但不同的是,个保法第70 条将“自动化决策”限定为“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。”〔10〕同前注[2],第73 页。这一定义与《通用数据保护条例》中“用户画像”的概念——即为了评估自然人的某些条件而对个人数据进行的任何自动化处理——相类似。〔11〕京东法律研究院:《欧盟数据宪章——〈一般数据保护条例〉GDPR 评述及实务指引》,法律出版社2018 年版,第227 页。可见,个保法涉及的完全自动化决策范围明显窄于欧盟《通用数据保护条例》。

从个保法的完全自动化决策拒绝权条款的规范效果看,实践中相当一部分完全自动化决策的情形可以落入保护范围中。例如在疫情防控中普遍应用的健康码就是符合该法定义的“自动化决策”(用户画像)。具体而言,健康码的生成分为“个人申报、后台分析和最终发码三个阶段”,在申请人将地址、行动轨迹等信息填报后,系统将与后台大数据分析比对,而后将风险等级以可视化方式呈现。〔12〕参见查云飞:《健康码:个人疫情风险的自动化评级与利用》,《浙江学刊》2020 年第3 期。可见,健康码中的发码决策高度依赖对个人信息的应用。但是,在实践中还有诸多并不高度依赖个人信息和用户画像的自动化决策。例如,在外卖配送算法系统中,骑手的配送时间由系统进行限定,“这个时间是平台系统基于大量的特征维度和历史数据进行计算的结果”,其中基于骑手个人画像的要素并非确定该时间的唯一因素,消费者对订单派送时间的容忍程度、商家的出餐速度、商圈的时段和天气状况等因素与历史数据都会被置入模型并进行机器自主学习,而后得出关于骑手应送达时间的决策。〔13〕参见陈龙:《“数字控制”下的劳动秩序——外卖骑手的劳动控制研究》,《社会学研究》2020 年第6 期。因此,这种情形难以被个保法第24 条第3 款包含。

此外,在自动化行政这一自动化决策的应用大类中,也存在大量难以被基于“用户画像”的完全自动化决策所涵盖的情形。例如在道路交通执法过程中,“‘电子警察’基于其特定的程序设计,会自动过滤筛选出相对人违章的有关证据上传至信息处理系统”,〔14〕周文清:《过程论视野下自动化行政行为的司法审查——以道路交通非现场执法时空情境分析为视角》,《行政法学研究》2022 年第1 期。此即涉及对是否应进行行政处罚,以及何种行为应作为行政处罚证据进行决策的情形。若仅因个保法未规定这类自动化情形便将之排除出完全自动化决策拒绝权的范围,则不仅会带来诸如“杜宝良案”的权利保障疏漏,还会与诸如《道路交通安全违法行为处理程序规定》第19条〔15〕《道路交通安全违法行为处理程序规定》第19 条规定:“自交通技术监控设备收集违法行为记录资料之日起的十日内,违法行为发生地公安机关交通管理部门应当对记录内容进行审核,经审核无误后录入道路交通违法信息管理系统,作为违法行为的证据。”等规范要求的人工审核条款相矛盾。因此,不论是从比较法的角度还是实践角度观察,目前个保法中的完全自动化决策拒绝权条款均存在内容上的不完备性,难以涵盖一般意义上的自动化决策情形。

从域外规范实践来看,将一般意义上的自动化决策纳入法律保护的视野已经得到了充分认可。欧盟《通用数据保护条例》第22 条规定:“数据主体有权不受仅基于自动处理(包括用户画像)决定的约束,如果该决定对他产生法律效力或类似地对他产生重大影响”。〔16〕同前注[11],第242 页。从制度史的角度观察,欧盟对自动化决策的认定经历了从狭义到广义的变化。《个人数据保护指令》率先对完全自动化决策拒绝权进行了较为明确的一般化规定。该指令规定,成员国应授予每个人不受对其产生法律影响或重大影响决定约束的权利,该决定仅基于旨在评估与他有关的某些个人方面的数据的自动处理。〔17〕European Parliament,European Council,Directive 95/46/EC of the European Parliament and of the Council of 24 October 1995 on the protection of individuals with regard to the processing of personal data and on the free movement of such data,https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A31995L0046,Last Accessed on Mar. 30,2023.从规范内容可以看出,早期的完全自动化决策拒绝权主要针对的是与“用户画像”相关的决策,但是欧盟《通用数据保护条例》实现了广义自动化决策的转向,这种措辞的改变蕴含着规制态度的变化,意味着欧盟《通用数据保护条例》不再局限于针对用户画像的自动化决策这一单一情形,而是将专家型算法、学习型算法所作出的自动化决策都纳入到该权利的视野中,从而大大扩展了权利范围,〔18〕参见唐林垚:《“脱离算法自动化决策权”的虚幻承诺》,《东方法学》2020 年第6 期。体现了对现实发展的回应。

我国的规范体系虽然与欧盟不同,但同样承担着回应自动化决策现实风险的任务。因此,将一般意义上的自动化决策纳入法律的规制范围具有充分的必要性。故而,为弥补我国完全自动化决策拒绝权制度形态的不完备性、勾勒出完全自动化决策拒绝权的全貌,不能满足于个保法所划定的用户画像范畴的“自动化决策”范围,而应基于个保法的解释,对该法第24 条第3 款“完全自动化决策拒绝权”进行体系化的权利建构。而体系化的任务正是首先认识到该规范并非独立存在,而是处于巨大的“规范的网络”中,进而发掘与其他规范以及规范整体间的意义脉络并表现出来。〔19〕白斌:《论法教义学:源流、特征及其功能》,《环球法律评论》2010 年第3 期。

(二)完全自动化决策拒绝权体系化建构的意义

“在法律价值论上,‘权利’是现代法律演化发展的原点、基础和指引。”〔20〕齐延平:《数智化社会的法律调控》,《中国法学》2022 年第1 期。面对数智化大潮,借助权利话语回应现实风险已经成为一项必要的选择。正所谓“权利起源于最恶劣的不义”,权利的发展与恶行经历密切相关。〔21〕参见[美]艾伦 ·德肖维茨:《你的权利从哪里来?》,黄煜文译,北京大学出版社2014 年版,第69 页。有研究认为,数智技术的风险使公众对信息安全的需求和意识越来越强烈,因此法律需要进行正面回应,而“不应规避权利话语,不宜简单用传统权利观念剪裁”,应承认个人信息权的新权利地位,并引入公法意义上的个人信息控制权概念。〔22〕周汉华:《探索激励相容的个人数据治理之道——中国个人信息保护法的立法方向》,《法学研究》2018 年第2 期。在数智化社会中,算法是与数据相并列的重要生产要素,能起到孕育新型生产力和生产关系的作用。〔23〕参见马长山:《智能互联网时代的法律变革》,《法学研究》2018 年第4 期。而完全自动化决策就是算法对个人权利产生影响的重要具体途径,核心是决策的算法化。〔24〕参见苗梅华:《智慧治理的时代面向与挑战》,《国家检察官学院学报》2020 年第1 期。在这之中,针对信息的保护已经存在网安法、数安法、个保法等一系列规范,与个人信息相关的权利,诸如删除权、解释权、知情权等,也逐渐成型。但是针对数智化社会另一重要要素的算法以及对其具有对冲功能的完全自动化决策拒绝权的法律规范却显得十分粗疏。

事实上,个人在算法应用中所面临的风险并不亚于个人信息应用中的风险。在基于算法的完全自动化决策中,存在着决策者与被决策者之间显著的权利(力)不对称结构。首先,这种不对称结构来自于算法的偏向性加持。算法将分散化、个体化的知识与理性借助互联网与人工智能技术进行高度整合,从而发展出在特定领域远超个体的能力,〔25〕同前注[1]。而基于决策关系中“人-人”格局向“人-技术-人”格局的转变,对完全自动化决策的应用将造成被决策者被技术背后的操纵者全面控制的局面。其次,完全自动化决策还借助算法的技术壁垒形成了具有双重隔离性的算法权力。〔26〕参见张凌寒:《算法权力的兴起、异化及法律规制》,《法商研究》2019 年第4 期。这意味着决策过程因决策者对技术的垄断而难以为普通公众所理解,前者则借助这种技术屏障实现了技术化统治。同时,决策技术的先进性和法律规范的滞后性将技术与其法律控制相隔离,从而使完全自动化决策中的被决策者处于权利保障的弱势地位。此时,对这种行为的调控就不能寄希望于平等主体之间的协商,而是要通过“国家对个人的赋权和支援”以避免弱势方与强势方的空手博弈。〔27〕王锡锌:《国家保护视野中的个人信息权利束》,《中国社会科学》2021 年第11 期。“法治实践反复证明,保护处于弱势地位的个人,最有效的方式就是赋予权利”。〔28〕刘权:《个人信息保护的权利化分歧及其化解》,《中国法律评论》2022 年第6 期。完全自动化决策拒绝权的体系化建构,可以为矫正自动化决策中的地位不对等提供系统性的解决思路,从而为个人对抗决策者提供有效的制度武器。

当然,借助个人信息保护的相关权利也能在一定程度上达成脱离完全自动化决策的效果。例如借助个人信息自决权可以实现对信息处理过程的控制,从而保证相对方的自然人处于决策环路之中。在“告知-同意”机制下,不同意相关决策者对自身信息的处理就能避免进入自动化决策的流程中。但是这些在个人信息保护框架下的措施具有天然的限制性,且不论个人对进入处理流程的信息是否能进行实际有效的控制,单从该权利的含义上看,内核是个人“有权决定何时、何地、以何种方式传递有关我的信息”〔29〕参见杨芳:《个人信息自决权理论及其检讨——兼论个人信息保护法之保护客体》,《比较法研究》2015 年第6 期。,根据国内外对个人信息的公认定义,识别性是个人信息的要求。〔30〕参见张新宝:《〈中国人民共和国个人信息保护法〉释义》,人民出版社2021 年版,第40 页。这就意味着对于无法识别为个人信息之数据的处理行为,上述机制都难以作为。而现实情况是,包括商业平台、自动化行政在内的大量自动化决策场景依赖的是大数据分析技术,可以通过数据关联进行决策,难以受到发端于“小数据时代”的个人信息保护规范的规制,〔31〕参见田野:《大数据时代知情同意原则的困境与出路——以生物资料库的个人信息保护为例》,《法制与社会发展》2018 年第6 期。从而导致大量现实侵害的遗漏。因此,可以说个人信息保护框架下对完全自动化决策的限制,只是完全自动化决策拒绝权的重要组成部分,并不具备替代作用。因此,在数智化背景下,基于体系化思路建构的完全自动化决策拒绝权对保障个人尊严与自由具有独特意义。

(三)完全自动化决策拒绝权对具体规则具有统御作用

完全自动化决策拒绝权的实践场景庞杂,它对应着一系列泛在的价值,这些价值很多是基本权利的重要内容,例如人的尊严、公平程序、自身发展的自由等。将这些价值统合在一个新型权利外壳下,便能实现对其保护方式的通约与一体规划,从而避免片断式保护带来的琐碎与体系化不足。正如有研究所指出的,“一般性的规则能够减少信息搜寻成本与认知成本”,它能使个人尽快认知和利用法律进行维权、使决策者尽快地进行合规操作、使执法主体尽快进行执法。〔32〕丁晓东:《个人信息的双重属性与行为主义规制》,《法学家》2020 年第1 期。缘于数据和算法对社会生活多领域的渗透,具有单一价值的传统权利往往难以通过解释的方式回应现实需求。因此具有“跨法律部门、多元特征混合、公法私法融合”特征的新型公法权利成为指导规则设计的重要方式,其中,个人信息权就是这样一种权利。〔33〕参见周汉华:《个人信息保护的法律定位》,《法商研究》2020 年第3 期。在“领域法”的特征方面,个人信息保护规则和完全自动化决策拒绝权规则具有相似性,因此完全自动化决策拒绝权的体系化建构也能起到类似的统合效果。在此基础上,完全自动化决策拒绝权便能借助内涵的基本权利价值“对一切法领域产生辐射效力”,从而勾连公法和私法的各个领域,〔34〕张翔:《个人信息权的宪法(学)证成——基于对区分保护论和支配权论的反思》,《环球法律评论》2022 年第1 期。进而使完全自动化决策拒绝权具体规则的设计达至和谐。

目前,已有部分领域开始出现与完全自动化决策拒绝权相关的规则。例如《道路交通处置程序条例》规定,对于电子警察收集到的证据需要经过人工审核后才能作为处罚依据,这实际上是在道路交通执法领域肯定了完全自动化决策拒绝权的存在。但是,如果不借助体系性的权利话语使之与个保法中的完全自动化决策拒绝权条款以及其他相关领域的规定勾连,就无法理顺该规定的价值依据与基础逻辑。更进一步讲,体系性权利话语的缺失还意味着难以对应适用完全自动化决策拒绝权规则的领域进行确定。例如,目前的补助发放系统〔35〕参见《安徽省教育厅关于全面开展智慧资助工作的通知》,皖教秘〔2021〕288 号,2021 年8 月16 日发布。、行政审批〔36〕参见《深圳市人民政府2022 年政府信息公开工作年度报告》,深圳政府在线网http://www.sz.gov.cn/cn/xxgk/ndxxgkbg/content/post_10475032.html,最后访问日期:2023 年3 月30 日。中就存在完全自动化决策的情况。这些情况是否符合完全自动化决策拒绝权规范的要求、尚未普及完全自动化决策的领域是否能令该技术入场、该技术使用的边界在何处等,一系列问题的回答都有赖于完全自动化决策权的体系性回应。因此,为避免规则设计的破碎化以及权利保障出现不均衡甚至矛盾,有必要通过建构具有统合性的权利,促进规制的有效展开,使各部门法根据其特点制定具体的保护规则,从而形成融贯的保护规范体系,实现新环境对新型权利需求的回应。〔37〕参见刘权:《个人信息保护的权利化分歧及其化解》,《中国法律评论》2022 年第6 期。

更重要的是,“法律关系中权利相对于义务具有前提性和主导性”,〔38〕张文显:《法学基本范畴研究》,中国政法大学出版社1993 年版,第73 页。“法学理论总是在先确定权利概念之后才会对义务做出界定,所以对义务的理解需要从对权利的理解开始”。〔39〕参见张翔:《基本权利的规范建构》,法律出版社2017 年版,第35 页。这就意味着只有通过对完全自动化决策拒绝权的内涵进行锚定,才能更有效的对其所对应的义务进行讨论。随着个保法的出台,同为涉及多元价值、多部门法协调规制的个人信息保护具有了系统的法律规范。相比之下,完全自动化决策的应用较个人信息而言更为晚近,涉及的应用场景更为复杂,是否应针对其制定专门单行法仍有待商榷。虽然欧盟的《人工智能法案》已经经历了多轮讨论,但在我国是否有必要以专门立法的形式进行规制,则需要结合本土的既有规范体系与实践进行确定。因此,在我国尚未以系统规范对完全自动化决策进行干预时,首先以权利的视角统合完全自动化决策拒绝权涉及的价值、为繁杂的场景化规制厘定基本规则和逻辑脉络具有不可替代的意义。在完全自动化决策拒绝权统领下,场景化的具体规范得以具备“价值一贯性”“逻辑统一性”和“考量整体性”等优势,从而避免使相关具体规则成为无法综览、杂乱无章的“零散规范群”。〔40〕参见梁迎修:《方法论视野中的法律体系与体系思维》,《政法论坛》2008 年第1 期。

三、完全自动化决策拒绝权的双重功能

个保法第24 条第3 款为完全自动化决策拒绝权提供了形式框架和直接规范渊源,在借鉴宪法基本权利的客观法与主观权利双重功能理论〔41〕基本权利的双重性质是指基本权利既可以作为“个人得主张”的“主观权利”,又可以作为权力行使之上位指导原则的“价值秩序”。同前注[39],第224-226 页。的基础上可以发现,完全自动化决策拒绝权首先承担的是客观价值秩序功能而非主观权利功能。该权利的双重功能特征与对客观价值秩序功能的偏向性需求是由权利特质、价值内核以及权利目的决定的。

(一)完全自动化决策拒绝权双重功能的权利基础

完全自动化决策拒绝权是一种新型权利,是社会与技术发展的产物,无法通过对单一既有权利的解释中导出,是从无到有的过程。不仅是完全自动化决策拒绝权,数智化社会的来临催生了诸如个人信息控制权等一批新型权利,横跨公私法边界,具有独立的法律渊源、制度配置甚至话语体系,往往先由相关的单行法进行定性,而后再由民法、行政法等进行衔接,从而构筑完整的权利保障体系。〔42〕同前注[33]。从权利特征上看,完全自动化决策拒绝权不仅具有私法权利面向,更具有公法权利面向。个保法第33 条规定:“国家机关处理个人信息的活动,适用本法。”〔43〕同前注[2],第93 页。据此,个保法第24 条规定的完全自动化决策拒绝权的相对方既包括私主体,也包括国家机关。因此,在公法权利维度上,该权利一方面要求公权机关在法定条件下避免对个人进行完全自动化决策。另一方面,还需要国家机关积极进行场景化和具体化的制度设计、明确或设置有效应对权利侵害的机构、构建处理私主体间决策纠纷的机制等,以使个人在公私领域拒绝完全自动化决策的权利得到保障。在这个过程中,完全自动化决策拒绝权的客观价值面向往往具有先导性,即为国家履行制度保障、组织保障以及国家保护义务提供支撑。

从具体权利内容上看,完全自动化决策拒绝权可以使个体通过直接或间接的方式避免受到完全自动化决策,对应的义务则是要求相关主体在一定条件下不得对个体进行完全自动化决策。个保法通过明示的方式为该权利设置了限定条件。首先,该权利仅限于对“完全自动化决策”的控制,即不论在何种场景下决策的实质阶段必须由系统作出。而存在自然人实质性参与的混合自动化决策并不属于该权利的范畴。之所以要强调“完全自动化”,是因为在缺乏被决策者参与的情况下,决策的作出依据可能只是个人的“数据造影”,从而“剥夺了个人影响这些机构内部决策过程的能力”,〔44〕Christopher Kuner,et al.,The EU General Data Protection Regulation(GDPR):a Commentary,Oxford University Press,2020,p.526.形成人的物化风险。其次,该权利的对象并非是所有完全自动化决策。不论是个保法还是欧盟《通用数据保护条例》,都要求只有当决策对人的影响达到一定程度后才能激活该权利。就我国而言“对个人权益存在重大影响”是行使该权利的必要条件,这种启动门槛的设定避免了该权利对智能技术的发展和应用造成过度限制。

从权利功能看,完全自动化决策拒绝权具有工具性。但该权利的工具性并不能否认权利的独立性,因为从某种意义上说,权利本身就是“主体以相对自由的作为或不作为的方式获得利益的一种手段”,归根结底是工具而不是目的。〔45〕张文显:《法理学》,高等教育出版社2018 年版,第131 页。该权利的工具性与个人信息权利的工具性具有结构上的相似性。对后者而言,国家最终的目的并不是要保护“个人对其信息的支配与控制”,而是通过“赋予个人各种‘手段和工具’”,实现对“个人尊严、隐私、财产等实体价值”的保护。〔46〕同前注[27]。同样,完全自动化决策拒绝权也是调整个人与决策者之间关系结构的工具性权利,并非是由个人所享有的拒绝完全自动化决策的绝对权,而更多的是国家履行保护义务的结果,目的是在自动化决策过程中制衡决策者。

因此,完全自动化决策拒绝权的权利范围具有较高的后天拟制性,而拟制的具体内容需要借助相应的细化规范补全。与其他新型权利一样,权利范围究竟多大、具体如何操作、例外理由如何设置,均属于立法者的形成自由,而非不言自明的、绝对的。〔47〕同前注[5]。因此,立法者对于完全自动化决策拒绝权权利效果有较大的形成权,这种特点也使完全自动化决策拒绝权呈现出一定的弹性。即便是同属《个人数据保护指令》调整下的成员国,比利时、德国、荷兰对完全自动化决策拒绝权的理解也与英国存在较大差异,前者对这类决策采取了一般禁止的态度,而后者则采取了一般允许的态度。〔48〕Sandra Wachter et al.,Why a Right to Explanation of Automated Decision-making Does Not Exist in the General Data Protection Regulation,International Data Privacy Law,Vol.7:2,p.94-95(2017).但是,立法者对该权利的具体塑造并不是恣意的,受到本土法律规范体系等制度性要素,以及公民诉求、企业诉求、国家科技发展需求等现实要素的制约。更重要的是,立法者对完全自动化决策拒绝权的塑造需要以实现多种传统权利价值保障为准绳。

(二)完全自动化决策拒绝权双重功能的价值基础

完全自动化决策拒绝权的价值内涵深度影响着其权利功能的发挥。立法者具有对完全自动化决策拒绝权权利范围的形成自由,但是这种自由受到既有的基本权利价值及其保障规范的约束。因此,价值基础在很大程度上是存在与实践的正当性来源,人的主体性和个体正义具有基础性意义。其中,人的主体性所要求的是对算法被决策者本身的尊重,个体正义要求的是对被决策者一系列权利的尊重。这意味着应在价值上坚持“数字科技必须以人为本”,并将“人的权利及尊严作为其最高目的”。〔49〕张文显:《新时代的人权法理》,《人权》2019 年第3 期。

完全自动化决策拒绝权的价值基础在于它能在数智化社会中保证人的主体性。有研究认为,正是因为现代技术的帮助,人才获得了对抗自然的条件,从而具备了确立主体身份的现实性,因此,人的主体性实现在很大程度上依赖于“技术的昌明”。〔50〕陈凡等:《技术图景中人的主体性的获得、缺失与重构》,《哲学研究》2007 年第6 期。但是,技术的发展并不总是向善的,“第四次工业革命”产生的一系列问题就意味着脱离法律控制的技术有可能基于逐利的目的而不断将人物化,从而蚕食人的主体性。例如,在完全自动化决策中,本应控制决策算法的人被作为一个元素纳入算法运行中。〔51〕郑智航:《平衡论视角下个人免受自动化决策的法律保护》,《政法论丛》2022 年第4 期。原本面对面的人际交流被转化为窗口化的、平台化的人机互动,具有时间跨度的商谈程序基于效率考量被无限压缩、基于实践考察与论证的说理也被基于统计学的大数据分析所替代,自动化决策的这些特点使决策的作出呈现出一种虚拟化的表象,但被决策者的权利却依旧受到实质性的影响。在对客观正确性和效率的追求中,“人是目的而不是手段”的根基被技术所撬动。

对人主体性的保护与人的尊严密切相关,因为人的尊严所体现的正是人的主体性和自主性,它强调不应以人为客体、工具或手段,强调人之为人的基本价值。〔52〕王泽鉴:《人格权法:法释义学、比较法、案例研究》,北京大学出版社2013 年版,第65 页。因此,个人有权脱离完全自动化决策不仅具有普适的、哲学意义上的价值基础,还具有规范性的、法学意义上的价值基础。中国宪法并未以列举的方式规定人的尊严,其第38 条“人格尊严”条款一般也被认为是对具体人格利益保护的确认。〔53〕于文豪:《基本权利》,江苏人民出版社2016 年版,第176 页。但是这并不意味着人的尊严无法受到宪法的保护,因为人的尊严已经成为一种普遍共识,具有先在性、永久性的特征,应当成为法律的基础准则,并承担起“整合法律体系的基础规范”作用。〔54〕胡玉鸿:《人的尊严的法律属性辨析》,《中国社会科学》2016 年第5 期。因此,就对法律规范体系的辐射与指导作用而言,人的尊严所发挥的效果并不弱于任何被列举的基本权利。这就意味人的尊严应成为搭载于该权利上的指导性价值准则,从而赋予该权利以强有力的对抗性。而该权利的功能也正是通过对自动化决策方式和结果的排除,实现人的“去数据化”、还原人的主体性,从而实现在数智化社会中对人的尊严的强调。

个体正义的实现也是完全自动化决策拒绝权的重要价值基础。戴维斯认为,个别化的正义需要是证成裁量正义的普遍理由,〔55〕[美]肯尼斯 ·卡尔普 ·戴维斯:《裁量正义》,毕洪海译,商务印书馆2009 年版,第17 页。而完全自动化决策拒绝权正是在促使公权力主体恰当行使自由裁量权方面体现了个体正义。裁量权的必要性体现于弥合“形式正义要求公平性与实质正义要求公正性”“行政管理事务的无限性与法律的有限性”“行政管理事务的专业性与立法者的非专业性”等问题之间的矛盾。〔56〕姜明安:《论行政裁量权及其法律规制》,《湖南社会科学》2009 年第5 期。有研究认为,相比于自动化决策,人类决策能进行更灵活的裁量,基于共同生活而产生的同理心、同情心和情感共鸣,使裁量能在道德与情感因素的作用下具备法律规范无法精确规定的决策智慧。〔57〕蔡星月:《算法决策权的异化及其矫正》,《政法论坛》2021 年第5 期。因此,在部分情况下要求避免使用自动化决策即是避免陷入“法律万能主义”的陷阱,因为不论是法律还是算法都具有在先预置性的特点,作为对现实的涵摄依据方面是恰当的,但是并不能完美地贴合所有的现实情形。因此,在自动化决策的涵摄手段无法达到人的智能性的前提下,应通过避免适用自动化决策的方式强调人工裁量对实现个体正义的意义。

在通常意义上,个体正义的实现主要存在于公权主体与私权主体之间,但是随着工业社会的发展,很多大型企业逐渐转变为拥有几乎与国家权力无异之“社会权力”的主体,而处于弱势的公民个体则已经丧失了对话的平等权利。〔58〕参见赵宏:《作为客观价值的基本权利及其问题》,《政法论坛》2011 年第2 期。在私领域中,能应用自动化决策系统的主体并非一般的自然人,而是具备一定规模和技术水平的企业与组织。因此,在自动化决策系统的加持下,这些私主体的权力属性进一步增强,决策对人的影响在某些程度上更甚于公权力主体的决策。例如亚马逊就曾使用自动化决策系统对员工进行考评与开除,〔59〕Colin Lecher,How Amazon automatically Tracks and Fires Warehouse Workers for“Productivity”,https://www.theverge.com/2019/4/25/18516004/amazon-warehouse-fulfillment-centers-productivity-firingterminations,Last Accessed on Mar. 30,2023.这种决策对人的影响可能与某些涉及财产权的司法裁判以及某些涉及从业限制的行政裁决相当。因此,即便是私主体对自动化决策系统的使用,也并不属于私法背景下平等交流的场景。不仅如此,由于私主体往往较公权主体具有更高的场景化技术应用能力以及更强的逐利性,因此对个体正义的价值需求反而更强。故而,完全自动化决策所涉及的实现个体正义价值具有一定的普适性,并无公私场域之区别。而完全自动化决策拒绝权的这些价值内涵,既是支持其对具体规则具有统领地位的理由,又可以经由该权利的双重功能深入到场景化的具体规范中。

(三)完全自动化决策拒绝权对双重功能的偏向性需求

完全自动化决策拒绝权的实现有赖于该权利双重功能的发挥,但是对基于个保法解释构造的本土化权利而言,实践效果与权利目的的达成对客观价值秩序功能具有更强的指向性。就完全自动化决策拒绝权的效果而言,存在免于完全自动化处理方式说与免受完全自动化决策结果约束说两种观点。其中,免于完全自动化决策方式说认为,该权利应使人免于受到自动化决策的处理,主要作用于自动化决策发生之前,同时也可能发生在决策过程中与决策完成后。〔60〕相关观点参见前注[4],王苑文;万方:《算法治理应聚焦解决的关键性问题》,《理论探索》2022 年第2 期。而免受完全自动化决策结果约束说认为,该权利并不具备使人拒绝自动化处理方式的权能。〔61〕相关观点参见林洹民:《个人对抗商业自动决策算法的私权设计》,《清华法学》2020 年第4 期;前注[18]。有研究认为,“结果说”是一种既能保证公平与正义,又不损及创新和发展的平衡方案,兼顾了正义与效率。〔62〕同前注[61],林洹民文。但是如果将完全自动化决策拒绝权看成是一种承载了诸多基础性价值的公法权利,而不简单的是私主体之间的一种请求权,那么仅仅实现对结果的拒绝便无法实现保证人的主体性、维护人的尊严等效果,因为在处理的过程中,人已遭到了相当程度的物化。不仅如此,基于技术应用的惯性,人的数据化一旦开始便难以停止,会在决策系统使用者的推动下规模化地展开。正如埃吕尔所指出的,技术在对社会的全面渗透中摆脱了传统社会对它的控制,成为一种不可遏制的独立力量。〔63〕夏劲、项继光:《埃吕尔与温纳的技术自主观比较研究》,《科学技术哲学研究》2013 年第3 期。在这种条件下,基于私法请求权的拒绝可能意味着与整个群体和社会生态的隔绝,而个体异议的声音也会随之淹没。因此,在这种个体难以抵挡的蚕食中,人的主体性价值会被消耗殆尽。

与欧盟《通用数据保护条例》不同,个保法的表述为“通过自动化决策的方式作出决定”,从文义看其采取了一种对决策方式的拒绝,〔64〕持这种观点的研究包括张欣:《从算法危机到算法信任:算法治理的多元方案和本土化路径》,《华东政法大学学报》2019 年第6 期;前注[4],王苑文。这为完全自动化决策拒绝权在规范层面的展开奠定了良好的基础,使之更易于通过客观价值秩序的方式对现实进行调整。与之相呼应,目前已有很多法律法规规定了具体场景下的完全自动化决策拒绝权,这些规定的作用对象是完全自动化决策的方式而不是结果。例如,《道路交通安全违法行为处理程序规定》第19 条规定,交通技术监控设备收集的违法行为记录只有经审核后才能作为违法行为的证据。再如,《电子商务法》第18 条规定,电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项。可以看出,目前我国的完全自动化决策拒绝权实践更多依赖的是基于该权利的核心要义进行义务体系和保障制度设计,而非鼓励以诉讼的形式实践该权利。

从目的层面看,作用于决策结果的完全自动化决策拒绝权致力于消除个案化的不公正,而作用于决策方式的完全自动化决策拒绝权则致力于消除决策者与被决策者之间的失衡地位。而只有在地位失衡的情况下,才会出现一方因被物化而尊严受损或是因被单方裁决而难以获得个体正义的情况。因此,在我国的语境下,完全自动化决策拒绝权的根本效果是对地位失衡和权利失衡的矫正,非此不足以实现该权利所承载的价值。这种矫正作用的机理是使权利主体退出单纯以数据和算法建构的决策环境,回到相对传统的决策场域中。此时,就决策本身而言,决策者基于技术垄断和技术隔离所获得的优势地位受限,被决策者的相对劣势地位得到缓解,产生质疑与提出质疑也更便利。就决策救济而言,保护被决策者权利的传统法律规范是基于工业社会现实而非数智化社会现实而建立,〔65〕同前注[1]。回复到此种状态对于被决策者而言可以获得更熟悉的救济环境,进而更便捷有效的实现救济。因此,只有通过制度设计提供否定完全自动化决策方式的可能,才能真正达成价值保障目标。

当然,矫正完全自动化决策中地位失衡的手段不仅包括完全自动化决策拒绝权,还包括算法解释权以及对决策者施以风险防控义务等。但是,完全自动化决策拒绝权具有终局性和最后手段性。终局性是相对于过程性而言的,解释权、风险防控义务等要求是通过对完全自动化决策系统使用者课以过程性义务的形式,在数智化语境下弥合双方的不平等性。例如解释权的作用是“提高算法透明性与可理解性,提高用户行使个人信息相关权益的可能性”〔66〕陈吉栋:《人工智能法的理论体系与核心议题》,《东方法学》2023 年第1 期。。再如,算法备案制度“不以直接调整相对人权利义务关系为目的”,而是通过提升监管效率、促进公众治理等功能间接促进权利实现。〔67〕张吉豫:《论算法备案制度》,《东方法学》2023 年第2 期。相比之下,个人有权拒绝完全自动化决策则体现为使被决策者对完全自动化环路的直接脱离,本质上是对决策范式的转换。完全自动化决策拒绝权具有终局性的特点,是一种具有高强度效力的权利,对它的启动会对完全自动化决策的应用带来巨大影响,因此对它的使用应具有最后手段性。而最后手段的判断标准包括在通过解释权等过程性权利无法有效矫正决策双方失衡地位,以及使用过程性矫正手段成本过高,不具备现实可实施性等。这些判断标准的确定借助该权利的主观请求功能显然难以实现,更多的还是要依靠明确的规范设计。

四、完全自动化决策拒绝权实现的并行路径

完全自动化决策拒绝权的实现路径存在“权利模式”与“禁令模式”的争论。〔68〕相关讨论参见前注[64],张欣文;前注[4],王苑文;前注[51],郑智航文。从个保法的完全自动化决策拒绝条款来看,以“对个人权益有重大影响”为完全自动化决策拒绝权的启动条件,而对“有重大影响”的解释则会因决策场景而异。这种弹性条件的设计使得在宏观上出现了“默认允许+请求禁止”的“权利模式”与“默认禁止+规定允许”的“禁令模式”的区分。与其说两种模式是非此即彼的,毋宁看作是完全自动化决策拒绝权统领下的两种并行路径。正如拉德布鲁赫所指出的,为了将特定行为标识为反社会的或者是为社会所希望的,通常借助两种规范来实现,一是授权性规范,二是规定性规范。〔69〕[德]古斯塔夫 ·拉德布鲁赫:《法哲学入门》,雷磊译,商务印书馆 2019 年版,第70、71 页。在以客观价值秩序为先导的权利功能下,“权利模式”与“禁令模式”背后所代表的实际上是以授权性规范为主的“请求权模式”以及以规定性规范为主的“规制模式”。就我国而言,宜采取以“请求权模式”为辅,以“规制模式”为主的并行式权利实现进路。

(一)作为权利实践辅助路径的“请求权模式”

在进行请求权模式的探讨前,首先需要区分该模式中的“权利”与完全自动化决策拒绝权之“权利”,即区分作为法律调控技术意义上的权利和价值意义上的权利。〔70〕同前注[20]。完全自动化决策拒绝权之权利是价值意义上的权利,是由个保法提出、结合多种要素建构的权利。而权利模式中的权利指的是一种要求决策者作为的请求权,是凯尔森所谓的“特定的法律技术”,是“民法技术的典型”〔71〕[奥]凯尔森:《法与国家的一般理论》,沈宗灵译,商务印书馆 2013 年版,第138 页。,是前种权利的功能。在实现完全自动化决策拒绝权的路径中,请求权模式仅能处于辅助地位,这主要是由这种“法律技术”自身的局限性造成的。从请求权的初始含义看,它是一种针对他人的意思力,即要求他人为或不为的权利,这种权利以法律上既有的命令性规定为基础,并将该命令交予权利人,以使其自行决定是否应用该命令。〔72〕金可可:《温德沙伊德的请求权概念》,《比较法研究》2005 年第3 期。这种法律技术具有鲜明的个人主义特征,对于确立人的独立性有积极意义,但是在科技与市场高度发展、社会关系复杂化的背景下,这种个人主义理念日渐疲乏。〔73〕魏振瀛:《请求权在民法典中的地位——兼论我国民法的指导理念》,《北方法学》2015 年第2 期。

原因在于这种个人主义的请求权忽视了他人的权利与公共利益。完全自动化决策基于复杂的算法系统作出,需要漫长的研发过程与大量资金投入。赋予个人过于灵活的自主判断权,会为自动化决策的应用带来较大的不确定性,从而为正常运转带来困难、压缩自动化决策系统使用者的利益。不仅如此,在有效的规制下,自动化决策的效率与准确度优势有利于社会福祉的整体提升。在这种情况下,片面强调个人主义会对自动化决策的应用潜力造成压制。其次,随着大型企业和互联网平台的发展,个人主义的运行环境发生了变化。面对“算法利维坦”,在保护手段上依靠对个人赋权及自我保护、在救济途径上以事后侵权责任为主展开、试图依靠个体化的自主控制来制约信息处理者滥用权力,在很大程度上可能沦为乌托邦式的幻想。〔74〕同前注[27]。在这种背景下,积极行使权利所面对的可能是高额的成本,而怠于行使权利则只能承担自动化决策带来的负面后果。

请求权模式存在诸多局限性,但是这并不意味着它无法为完全自动化决策拒绝权的实现提供任何帮助。在某些方面,权利路径将发挥无可替代的作用。首先,权利路径较规制路径而言具有更强的灵活性。自动化决策的使用场景庞杂,对于涉及人的生命、自由等高价值位阶的权利,国家机关通过事前的规则确定进行一揽子保护是可行的。但是还有诸多情况涉及个人一般权利的保护,例如个性发展、就业机会等,这些权利虽然也对个人具有重要影响,但是场景化程度更高、情况更复杂,通过事前一刀切式的规则预置难免会产生投鼠忌器的困境。因此,在这种情况下,通过赋予被决策者请求权的方式,可以使之代替执法机关进行监督与纠偏,从而使每个个案的正义保证成为可能。正如哈耶克所言:“我们永远不可能确知谁比行动者本人能更好地知道他的利益”。〔75〕[英]弗里德里希 ·冯 ·哈耶克:《自由秩序原理》,邓正来译,三联书店1997 年版,第90 页。

其次,请求权模式可以通过增强公民对自身利益的控制感建立普遍的数字信任,实现主观正义。规制模式可以以更高的集体理性作出更具备客观优越性的选择,但是这种选择也压制了个人进行选择的自由。在关于完全自动化决策拒绝权价值基础的论证过程中,人的主体性是存在正当性的重要理由,在这种观念下,无论最终结果如何,人都不应成为决策中的客体。同样,这种“不受支配”与“自我选择”的自由〔76〕王旭:《宪法上的尊严理论及其体系化》,《法学研究》2016 年第1 期。也适用于完全自动化决策拒绝权实现路径的选择,正所谓人类选择是社会、经济和政治制度的基础组成部分,〔77〕Michal S.Gal,Algorithmic Challenges to Autonomous Choice,Michigan Technology Law Review,Vol.25:1,p.60(2017).在面对是否接受自动化决策时,人也应保有一定的自主选择权,而不应完全依靠公权机关“代劳”。有研究认为,增加参与和表达机会能使人更好的感受到程序正义,从而提升人对纠纷解决机制的认可度以及纠纷处理的满意程度。〔78〕参见苏新建:《主观程序正义对司法的意义》,《政法论坛》2014 年第4 期。因此,在对完全自动化决策拒绝权实践路径的选择中,需要以分配正义为主,选择达到权利保障目的的最优方法,但也应注意到其中的程序正义维度,并通过适当设置授权性规范的方式增加被决策者的直接参与机会,从而增强对权利保障制度整体的信任。

(二)作为权利实践主要路径的“规制模式”

完全自动化决策拒绝权实践路径中的“禁令模式”具有规制主义色彩,但是在宏观上借助规则设定对完全自动化决策进行一般禁止是不现实的。观察个保法的规定可以发现,以“对个人权益有重大影响”为完全自动化决策拒绝权启动的条件。而对“有重大影响”的解释会因决策场景而异,例如在行政处罚场景中,依据《行政处罚法》内含的价值位阶原则,涉及对公民人身自由的决策将被判定为“有重大影响”。而在服务交易场景中,只要对法律规定的权益造成阻碍其行使程度的侵害,就有可能被判定为具有“重大影响”。〔79〕程啸:《论公开的个人信息处理的法律规制》,《中国法学》2022 年第3 期。同样的,欧盟《通用数据保护条例》中设定的“实现合同订立或履行之必须”“决策经欧盟成员国法律授权”〔80〕同前注[11],第242 页。等条件也包含了场景化判断的含义。因此,通过普适规范的方式无差别地禁止一切完全自动化决策很难具备实践可能性和实践价值。但是借助区别于授权性规范的另一种法律技术,在具体场景中设置禁止使用完全自动化决策的规定性规范并借助国家力量获得直接执行却是可行的。相应的,这种权利实践进路可以被称为完全自动化决策拒绝权实践的规制模式。而且基于该模式在权利实现效率与效果方面的优势,可以承担起作为完全自动化决策拒绝权实践主要路径的任务。

首先,从权利保障效果层面看,规制模式对完全自动化决策中的失衡地位矫正更为彻底。有研究指出,非政府行为的强势会导致社会经济等领域的不平等现象,此时“只有依托于民主机制安排的政府规制才会有效地消除不平等的问题”。〔81〕程岩:《规制国家的法理学构建——评桑斯坦的〈权利革命之后:重塑规制国〉》,《清华法学》2010 年第2 期。在自动化决策普遍应用之前,针对大型企业依靠其雄厚实力将工人置于隶属地位、重工业企业向公共空间排污等私主体权利失衡问题,国家往往会通过规制模式进行调整,即由劳动行政部门、环境行政部门依法直接对相关问题进行干涉。此时,公权机关已经从请求权模式下被动的、居中的裁断者的身份转变为主动的、带有倾向性的监管者身份。在规制模式下,对于非政府行为违规的纠正不再主要依靠受害者的发现与请求,而是直接由公权机关执行规范中的“命令”成分,要求加害者承担义务。从实践层面看,这种规制模式在面对数智化社会中的问题时依旧彰显了其有效性。例如,欧盟《通用数据保护条例》建立了以公权力监管机构为核心的数据行政保护机制,〔82〕高富平:《GDPR 的制度缺陷及其对我国〈个人信息保护法〉实施的警示》,《法治研究》2022 年第3 期。在该条例实施一年后,以行政方式处理的案例占比明显较高。〔83〕EDBP,1 Year GDPR-Taking Stock,https://edpb.europa.eu/news/news/2019/1-year-gdpr-taking-stock_en,Last Accessed on Mar. 30,2023.再如,有研究指出,在信息保护实践中,监管机构的规制而非个人的主张构成了信息保护的主要方式,美国联邦贸易委员会就“通过个案执法而不断勾勒个人信息保护的行为边界,从而在事实上形成了对个人信息的场景化行为主义规制”。〔84〕同前注[32]。

其次,从权利保障效率层面看,规制路径在整体上将带来更及时的权利保障。在一般的请求权行使中,请求的内容是要求对方为或不为特定行为,效果多直接指向具体目的的实现。但是对完全自动化决策拒绝权而言,请求权行使的效果则是使被决策者获得存在自然人实际参与的决策,虽然带有保护被决策者自身主体性的价值,但本质上仍是满足对正当程序的需求。相比之下,规制路径直接通过公权机关介入的方式达成被决策者需求,降低了追求最终价值的成本。从对抗自动化决策风险的效率来看,公权机关的介入较个人管理模式具有更高的效率,前者能更有效的处理诸如信息聚合风险等个人所难以识别的风险。〔85〕See Daniel J.Solove,Introduction Privacy Self-Management and the Consent Dilemma,Harvard Law Review,Vol.126:7,p.1881(2013).从产业发展效率来看,个人信息保护领域的权利模式已经证实,高度个体主义的权利实践模式不利于产业对个人信息的利用。〔86〕[英]维克托·迈尔-舍恩伯格、肯尼斯·库克耶:《大数据时代:生活、工作与思维的大变革》,盛杨燕、周涛译,浙江人民出版社2013 年版,第197 页。因此,在完全自动化决策拒绝权实践中采取规制模式进路,能有效克服请求权模式进路中权利启动标准模糊、难以进行统筹规划等问题。

最后,从权利保障的体系协调性层面看,完全自动化决策拒绝权在部分场景中的实践只有借助规制模式才能实现。例如在自动化行政中,完全自动化决策拒绝权实现的请求权模式可能与行政行为的公定力发生冲突。公定力意味着行政行为被撤销前应被推定有效,而行政行为的撤销权由国家机关垄断。〔87〕参见王天华:《行政行为公定力概念的源流——兼议我国公定力理论的发展进路》,《当代法学》2010 年第3 期。这意味着要么放弃请求权模式,要么修改整体制度设计,而后者显然造成了过大的权利保障成本。相反的,规制主义路径可以通过预置的规范禁止自动化行政中的部分完全自动化决策行为,从而避免了请求权行使与行政权运作规律的冲突。总体而言,不论是从实践尝试还是理论推演来看,超大规模、超复杂社会存在的难以克服的协调难题和集体行动困境,以及政治、经济和社会各领域的“公地悲剧”并不能通过传统民主、市场化机制和公共理性予以避免,事后权利救济的作用空间十分有限,因此以权利规范设置与救济为主导的法律调控策略将不可避免的转向责任和义务的加载与规制,〔88〕同前注[20]。规制模式宜成为完全自动化决策拒绝权实践的主要进路。

(三)完全自动化决策拒绝权具体实践路径的权衡标准

从权利实践整体情况看,请求权模式与规制模式有主次之分,但在具体场景中应适用何种路径亦有规律可循,将两者搭配使用有益于更妥当的实现完全自动化决策拒绝权。在具体判断方法方面,“法的不完备性”理论借助经济学方法提供了一个可资借鉴的判断框架。该理论认为,法律具有不完备性,因此无法对现实中的所有情况进行预先界定,因此,法律规定的空白就会限制法律对个体的“最优阻吓”功能,从而带来投机取巧者、影响法律目的的实现。〔89〕许成钢:《法律、执法与金融监管——介绍“法律的不完备性”理论》,《经济社会体制比较》2001 年第5 期。因此,为了弥补自身天然的不完备性,法律可以在进行基础性规定的同时,将剩余权力转移给具有立场的主动执法者以补足规制。〔90〕[德]卡塔琳娜 ·皮斯托、许成钢:《不完备法律:一种概念性分析框架及其在金融市场监管发展中的应用》,载吴敬琏主编:《比较》(第3 辑),中信出版社2002 年版,第121、122 页。这就意味着,高度依赖既有规范的请求权模式因规范固有的不完备性而作用受限,而完全自动化决策场景化的特性以及立法的迟滞则进一步加重了相关法律的不完备性。因此,在完全自动化决策拒绝权领域,存在大量的剩余权力转移需求。

至于在何种情况下适合将权利保障的剩余权力转移给公权机关,则需要考虑目标机关的“标准化”能力,以及因无法保障权利带来的“预期损害的程度”。其中,“标准化”能力是指“以合理成本对损害行为及结果进行描述,以便监管者能有效行使主动式执法权的能力”,而预期损害程度则与单个损害严重性或损害数量有关。〔91〕同前注[90],第125-128 页。在完全自动化决策拒绝权的实践中,规制模式下公权机关的“标准能力”就是指识别自动化决策风险性的能力,即确定是否会导致人的主体性、尊严以及个体正义受到侵害,如果不能作出此种识别,就不宜借助公权机关主动规制,而应采取请求权路径,将判断权交予被决策者。就预期损害程度而言,如果某一类型的自动化决策对个体的重要权利具有较大的损害预期,那么就需要公权机关的及时直接干预。其中,影响预期损害的原因分为技术要素与权利自身要素,前者包括技术的不成熟性、滥用的可能性、潜在的歧视等,而后者则与权利的价值位阶有关,例如生命健康、人身自由等权利基于其较高的价值位阶,一般具有更高的损害预期程度。此外,某些类别的完全自动化决策虽对单一个体的权利具有较低的损害预期,但考虑到影响面广,也可以判定为在整体上具有较高的损害预期。例如,在其他变量相同的情况下,以“消费者”为对象的完全自动化决策较以“大学生”为对象的完全自动化决策,具有更高的损害预期,因为前者对象基数更大、人员构成情况也更复杂。

在具备可权衡条件的具体权利实践路径选择方面,除了以权利保障效果为依据外,还需要综合考量不同模式在信息成本、起诉动力、责任承担能力和执法成本等方面的差异。〔92〕宋亚辉:《论公共规制中的路径选择》,《法商研究》2012 年第3 期。正如桑斯坦所指出的,对规制必要性的考察需要充分认识到风险排除与规制成本的关系,如果一种规制成本很小,那么一种微小的风险也可以施以规制,如果规制成本巨大,那么面对较大的风险最好的办法也是不加规制。〔93〕[美]凯斯 ·R.桑斯坦:《权利革命之后:重塑规制国》,钟瑞华译,中国人民大学出版社2008 年版,第223 页。也有研究指出,在规制过程中应进行“成本收益核算”“某个规制目标如果可以通过激励型方法实现,就应该尽可能地避免强制性的规制手段”。〔94〕靳文辉:《公共规制的知识基础》,《法学家》2014 年第2 期。还有研究进一步指出,在选择权利实现路径时应评估不同工具的绩效,具体考量因素包括其对群体目标的作用、对第三方的作用、远期作用与近期作用、直接成本与间接成本。〔95〕[美]托马斯 ·R ·戴伊:《理解公共政策》,谢明译,华夏出版社2011 年版,第285 页。因此,“法的不完备性”理论提供了一种路径选择的思路,但是还要受制于影响现实可行性的多种因素。

结语

“通过法律将权利观念制度化,使制度体现权利的正当价值,是自然权利向法律权利进而向实有权利转变的基本方式”〔96〕同前注[53],第7 页。在数智化社会中,个体脱离完全自动化决策具有深厚的价值基础和现实意义,进行制度化肯定的必要性无可厚非。但是要使这些诉求得到全面而完善的制度保障,首先就需要以价值层面的权利话语进行整合与厘定。目前,个保法已经对涉及个人信息使用的脱离完全自动化决策进行了规范性确认,这相当于实践了新型权利生成中的“法律可容纳性”标准,〔97〕雷磊:《新兴(新型)权利的证成标准》,《法学论坛》2019 年第3 期。明确肯定了完全自动化决策拒绝权的规范必要性,并规定了启动条件。但是,囿于法律调整范围的限制,个保法中的自动化决策拒绝权条款无法对使用不具备“可识别性”数据以及其他更多形式的自动化决策进行调控。正是基于对这种情况的观察,我们尝试以个保法的解释为基础,建构起面貌完整的完全自动化决策拒绝权,并通过对该权利双重功能的确认与客观价值秩序功能的强调,使之承担起统领纷繁复杂的场景化规则的任务。进而通过对“请求权模式”与“规制模式”的调和,使该权利的实现路径跳脱出单一模式的争论,从而勾勒出对其进行规范保障的理路。

猜你喜欢

规制个人信息权利
如何保护劳动者的个人信息?
个人信息保护进入“法时代”
主动退市规制的德国经验与启示
我们的权利
警惕个人信息泄露
论不存在做错事的权利
保护与规制:关于文学的刑法
论《反不正当竞争法》的规制范畴
权利套装
内容规制