公共决策适用算法技术的规范分析与实体边界
2023-09-01赵宏
文/赵宏
公共决策的算法化对国家治理有明显赋能。但算法与公共决策的结合具有复杂的多效性,其可以促进行政决策、监管和执法能力的升级,同时又不可避免地引发过度侵蚀个人权利的问题。如果我们不加防备地允许算法进入所有的决策领域,仅靠事中的算法解释或者事后的追责机制,根本无法避免个人被算法霸权所奴役和压制。
公共决策适用算法的典型问题
在算法加持下,国家权力的作用范围不再受物理世界中空间和时间的限制,其可以借由信息的互联互通,在极短时间内覆盖社会生活中的每个人,并涵盖其生活的每个位置和时刻。这也更易引发群体性、规模化的,而非传统单体性、单向度的权利侵犯。传统法治用以约束公权力的主要方式在于权限控制、程序控制和后果控制,即事前、事中和事后的法律控制。但引入算法决策后,因固有认识认为算法只是改变了工具,因此对其准入往往不做任何防备,也未设置任何门槛,这就使很多攸关个人权利的事项未经事先评估和民主决议就轻易交由算法决断。被传统法治奉为圭臬的正当法律程序原则同样因为算法的适用而被架空。徒留空壳的还有事后救济和追责权利。由于透明度不足以及缺乏明确的责任人,在算法出现偏误、歧视等不公结果时,当事人的救济权利同样无法得到充分保障。
《个人信息保护法》中算法决策规范与适用问题
《个人信息保护法》对算法决策的规定仅有第24条、第55条和第73条三条。第24条作为自动化决策的核心规范,共有三款,其中可直接适用于公共机构的有两款。这两款规定为公共机构适用算法决策设定了“予以说明”以及“保证决策的透明度和结果公平、公正”的义务,同样赋予个人要求说明和拒绝仅通过自动化决策的方式作出决定的权利。但要知道上述规定在多大程度上构成对公共机构适用算法决策的拘束,这种拘束又存在何种欠缺,仍需对条文进行细致分析。
(一)免受自动化决策:权利抑或禁令的争论 从条文构造看,《个人信息保护法》第24条是对欧盟《通用数据保护条例》(以下简称“GDPR”)第22条的借鉴。但GDPR对自动化决策的立场,到底应理解为是对自动化决策的一般禁令还是对个人免受自动化决策的赋权,一直存有争议。这也构成了评析《个人信息保护法》第24条规定的背景。
(二)《个人信息保护法》第24条的规定与问题 从《个人信息保护法》第24条的规定来看,我国在处理自动化决策的问题上选择了相对持中的权利立场,即并未普遍性禁止自动化决策在私人领域和公共领域的适用,但赋予个人“要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定”的权利,同时附加“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正”的要求。从条文规定来看,这种“免受自动化决策约束权”在行权时又须满足以下要件:其一,决定必须是仅通过自动化决策的方式作出;其二,必须是对个人权益有重大影响的决定;其三,个人必须就自动化决策对其权益有重大影响负担举证责任。相对严苛的行权限制使赋权模式对算法决策的约束效果受限。除此之外,《个人信息保护法》的这一条文尚有不少含混之处。
公共决策适用算法的界限缺失与背后原因
因为采取的是赋权模式,我国公共决策适用算法技术在源头处并未受到实质性限制。公共决策仍旧可以畅行无阻地适用算法,其可能遭遇的障碍只有信息主体事后的免受自动化决策约束权。但免受自动化决策约束权本质上只是事后阶段的控制,并无法覆盖事前的风险预警和事中的有效阻击。而且此项权利在行权时不仅面临规范要件上的约束,还会受到数据主体可能怠于行权或者力量薄弱的现实因素的掣肘。由此来看,《个人信息保护法》虽对算法决策有了一定的规范基础,但这些规范不仅质效单薄,而且其中还隐含着未对公共决策适用算法设置实质界限的重大缺漏。造成这一缺漏的原因主要有二:一是常规算法规制路径的影响;二是《个人信息保护法》“一体化调整”模式的问题。算法规制的一般径路主要有算法公开、个人数据赋权与反算法歧视。但上述规制路径是否可解决算法技术适用于公共决策的问题却值得怀疑。其关键就在于,算法公开、反算法歧视甚至个人的数据赋权,都是内嵌在针对算法的正当程序中的。这种内嵌于正当程序中的算法规制本质上仍旧是针对算法的程序性控制。无论是作为表象的程序控制还是内嵌其中的实体赋权,所缺失的都是在源头处对算法进入公共决策的严格把控。而且,《个人信息保护法》第24条主要以算法技术适用于私人生活和商业领域为基础构建,并未考虑算法技术适用于私人领域与公共领域的区别。就信息处理而言,私人机构处理个人信息由“告知同意”这一核心原则来调控,其目标是通过赋予个人对自身数据的控制权,来避免他人对其数据人格的贬损和抑制。但因考虑到将告知同意适用于公职履行会影响乃至破坏国家的执法能力,《个人信息保护法》已将国家机关“为履行法定职责或法定义务所必需”的行为从同意原则的适用中豁免,即使是告知义务也被缩减为“有限度的告知”。这同样说明,以其为思路衍生出的对当事人的全周期数据赋权,尤其是允许其事先知情和拒绝的做法,并无法有效规制公共机构的算法决策。
法律保留作为边界划定的思考框架及其考虑因素
为避免个人尊严的保护被完全淹没在追求技术福利的目标之下,对公共决策适用算法设置界限无疑是必需的。
(一)法律保留作为形式合法性依据
传统法治用以确定公共机构尤其是行政机关权力边界的首要原则是法律保留。法律保留决定着行政机关采取某种措施介入社会的容许性,其逻辑是将国家的基础决定都交由最具民主正当性的议会,由此使立法在保障基本权利、控制行政权上发挥核心作用。
1. GDPR中隐含的加重法律保留
GDPR第22条第2款规定的免受自动化决策约束权的例外之一是,决策是由数据控制者所应遵守的欧盟或成员国法律授权的,该法律提供了保护数据主体权利、自由和合法权益的适当措施。GDPR规定,公共机构要完全诉诸算法进行决策就必须要有“法律授权依据”,且其目的是出于“公共利益、风险防控或者确保控制者提供服务的安全性和可靠性等”,适用前提是其“已制定了恰当措施保证数据主体的权利、自由与正当利益”。如果我们将算法适用于私人机构和公共机构作区别对待,认为对公共机构应为禁令模式,唯有符合法律规定的豁免情形时才会被允许,那么GDPR的上述规定就完全可被理解为算法决策的法律保留。
2. 原则与例外的关系模式
将法律保留作为算法适用于公共决策的界限意味着,立法对此的立场是原则禁止和例外允许,规范模式也相应表现为“原则与例外”的关系模式。除GDPR外,此类关系模式的典型还有德国《联邦行政程序法》中有关“全自动化行政”的规定。要求有具体的规范授权也意味着,立法者有义务在行政效能与权利保护之间进行权衡,并在个别法中单独明确何种事项在何种程度上可委托给算法。这种并非进行统一规定,而是交由立法者个别处理的模式,同样是为因应算法技术的动态发展和人类对人工智能的认识更新。
3. 法律保留中被放宽的“法律”
法律保留中的“法律”应为立法机关制定的法律,由此才能贯彻立法约束行政的原则意涵。但值得注意的是,无论是GDPR中的“决策是由数据控制者所应遵守的欧盟或成员国的法律授权”,还是德国《联邦行政程序法》中的全自动化行政行为必须要有规范依据,都对作为允许性保留前提的法律作了放宽处理。这种放宽处理的立场同样体现在我国《个人信息保护法》中。该法第13条在列举个人信息处理的合法性根据时,将第七项“法律、行政法规规定的其他情形”作为兜底。这也意味着,对个人信息的处理除该条明确列举的情形以外,都必须要有“法律、行政法规”的明确授权。在法律之外,同样允许行政法规进行授权,可说是对法律保留中的法律作了扩张处理。
4. 加重的法律保留作为适用类型
鉴于公权机关将决策权拱手让与算法可能导致的法治被架空、权利受克减,以及个人主体性被蚕食的巨大风险,对于公共决策完全的算法化不仅要有法律的授权依据,对于授权所追求的目的、满足的前提和使用的方式,法律也应予以详尽规定,即加重的法律保留应该成为具体立法的首要选择。
(二)法律授权时的考虑因素
法律规范在例外授权时应考虑哪些因素,既可参考传统的法律保留原则,也应纳入算法决策的特点。这些考虑因素不仅攸关法律是否应作出授权决定,亦会决定授权法严苛还是宽松的规范强度。
1. 基本权利的保障
即使行政将决策工具替换为算法,但只要决定触及个人基本权利,就仍旧要接受法律保留的约束。但何种基本权利要有严格的法律授权,何种基本权利可交由法律之下的其他规范处理,各国规定不一。若论严格意义上的法律保留,我国的立场仍较为保守,主要涉及的只是基本权利中的自由权和财产权。这也意味着包括生命权、人身自由在内的自由权应受到更高程度的保护,立法者在将攸关这些基本权利的公共决策交由算法时也会受到更严格的约束,而在不能确保上述权利获得充分保障时,完全的算法决策更应被明确禁止。
2. 风险可控性与分级保护
亦有国家是从算法决策可能引发的风险以及风险的可控性出发,结合具体场景适用分级保护和监管的模式。2019年加拿大颁布的《自动化决策指令》就是这种分级保护机制的典型。加拿大的分级保护提供了一种根据技术引发的风险大小和强度以及是否可逆等因素,考虑是否能够授权的思路。
3. 价值判断和自由裁量作为决策禁区
在应用清单的考量中有一项是设置算法应用于公共决策的禁区,这种考量又落实于美国2016年的“卢米斯案”(State v. Loomis)判决和德国《联邦行政程序法》中,因此同样可成为法律授权的禁止性规定。
卢米斯案提炼出了算法适用于刑事司法这类特殊公共决策的首要实体边界:若某项公共决策涉及利益冲突和价值判断,就不能全部交由算法处理。这一认识目前已被广泛接受,价值判断也因此成为公共决策算法化的实体禁区。其原因在于,价值判断是一项依赖生活经验和决策预警的工作,由于社会环境无法全面数字化和符码化,算法往往无法领会和处理解决价值冲突所需要的人类情感和体悟,算法也并不具有人类因文明传承和生活经验所产生的对他人的同理和同情。除价值判断外,公权机关是否享有裁量权成为权衡算法可否用于行政任务的另一参考。对于高度不确定的、需要更多依赖人类裁量才能完成的任务,不能交由算法处理,这一点同样为德国《联邦行政程序法》所明确规定。尽管从技术理性角度,自动化决策似乎可减少裁量的随意性,提高其一致性和客观性,避免人工因仓促或粗心所犯下的典型错误,但它却无法以数学模型收集所有与裁量相关的信息,因此在个案处理能力上是有限的。尤其在法律适用阶段,决定的得出很多情况下都倚赖语义确定与解释以及价值权衡,机器显然无法胜任此项工作,其在冲突目标的选择和权益的分配上也会面临巨大困难。
4. 算法类型和所涉数据作为其他考量
除算法所影响的权利类型、影响程度以及风险等级外,算法类型、所涉数据等也都可成为法规范能否允许公共决策适用算法的考虑因素。
算法影响评估作为划定实体界限的程序性保障
如果我们将法律保留中的“法律支配”进一步引申为“人民支配”,那么在现行法尚未对公权机关可否适用算法作出某项决策予以规定前,事先吸纳公众参与并作出具有实质影响力的算法评估,同样是有助于划定决策边界的预防性手段,也是法律保留的程序性保障。
我国《个人信息保护法》以GDPR为蓝本,在第55条规定了类似的个人信息影响评估,需要评估的事项就包含“利用个人信息进行自动化决策”。再依据第56条,此类影响评估又包含:“个人信息的处理目的、处理方式等是否合法、正当、必要;对个人权益的影响及安全风险;所采取的保护措施是否合法、有效并与风险程度相适应。”对照美国《算法问责法案》以及欧盟GDPR,我们仍会发现,尽管《个人信息保护法》规定了对自动化决策的影响评估,但这种粗放的算法评估还存在明显缺漏。首先,《个人信息保护法》第55条仅列明个人信息处理者有义务在事前进行个人信息保护影响评估,并对处理情况进行记录,但这种个人数据影响评估能否在源头处阻却公权机关适用某项自动化决策,从规范中却未可知。其次,相较于美国《算法问责法案》以及加拿大《自动化决策指令》中相对明确的算法评估技术框架和指标体系,我国虽规定了个人信息影响评估,但评估内容却未具体化。最后,算法评估不仅是预防性手段,同样也是问责制的构成之一。应在算法设计者、部署者和运行者自我评估的基础上,纳入外部问责和审计力量,但这一要求在《个人信息保护法》中同样缺失。
结语
无论是赋予个人体系性的数据权利,还是科以数据处理者算法公开、算法解释和算法评估的义务,抑或是探求公权机关适用算法决策的实体界限,其最终的目标都是确保人的主体性和自治性,使其不致因新兴技术的适用而被蚕食,也不致使法治约束公权的目的因人工智能时代的到来而落空。