APP下载

个人信息保护影响评估:制度内涵与完善路径

2022-02-17石佳友

关键词:数据保护信息处理个人信息

石佳友 曾 佳

一、问题的提出

自1969年美国通过《国家环境政策法案》以来①,影响评估作为一种工具被普遍运用于多个领域,包括环境、量刑、人权、警务技术、监控,以及隐私保护、数据保护和算法决策等。②影响评估设计目标在于让项目开发人员在各种决策实施之前,使用他们的专业知识来评估项目在未来可能产生的影响,以达到消除或减轻任何预期的有害影响而不是事后纠正的目的。[1]

2021年11月1日生效实施的《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)是我国第一部在个人信息保护领域的综合性立法,其第55条明确提出了个人信息处理者在开展个人信息处理活动前应进行个人信息保护影响评估。据此,个人信息处理者如何开展个人信息保护影响评估,成为个人信息保护的又一要点。

《个人信息保护法》第55条规定的个人信息保护影响评估制度被认为借鉴自欧盟《通用数据保护条例》(General Data Protection Regulation,GDPR)第35条规定的数据保护影响评估制度(Data Protection Impact Assessment,DPIA),与此相类似,国际上较为普遍运用的还有隐私影响评估(Privacy Impact Assessment,PIA)③和算法影响评估(Algorithmic Impact Assessment,AIA)④。有观点认为,数据保护影响评估由隐私影响评估演化而来,是为适应大数据、人工智能等新兴技术的发展而对评估主体、评估对象等方面进行扩展和调整的结果。而数据保护影响评估与算法影响评估虽然有制度范围、广度的差别,但在大多数语境下指向内涵相同。[2]另一种观点认为,数据保护影响评估与算法影响评估的制度设计存在诸多不同之处,构成相辅相成、互为补充的关系。[3]还有文献对此未加以区分,默认将这些被冠以不同名称的影响评估作为相同的制度。[4]

由此可见,当前数据处理领域被普遍运用的几种影响评估制度定位较为模糊。本文拟在对比隐私影响评估、数据保护影响评估、算法影响评估各自制度目的、规范功能、核心机理的基础上,明确《个人信息保护法》第55条个人信息保护影响评估的制度定位,挖掘提炼我国个人信息保护影响评估制度的薄弱点,并探寻更具效率和效能的实现方案,促进其功能的有效发挥。

二、影响评估制度的历史沿革

(一)隐私影响评估

隐私保护一直是人们关注的主要话题,人工智能、大数据等新兴技术的发展极大地增强了入侵隐私的能力,使得隐私获取性更高、隐私侵犯方式隐蔽性更强。[5]因此查明造成隐私受侵害因素方法的需求更加迫切。一旦项目或者行为开始实施,再识别隐私风险将会花费更高的成本且非常困难。对于风险的识别应在项目的设计和实施之前进行,或至少在设计和实施的同时进行,这类活动通常被称为“隐私影响评估”。隐私影响评估肇始于20世纪70年代,于20世纪90年代在世界各地兴起,随后被应用于政府服务领域,如1996年美国国税局发布隐私影响评估报告⑤,1999年安大略省管理委员会秘书处发布隐私影响评估指南,要求省政府部门在新信息技术和互联网技术项目的提案中应用隐私影响评估。随后,新西兰、澳大利亚、英国、美国、欧盟等多个国家和地区相继建立起针对信息技术项目、电子信息系统的隐私影响评估制度。[6]

一般认为隐私影响评估是“评估提案对隐私影响的系统过程”⑥。隐私影响评估作为风险管理工具,旨在使组织在系统开发及运用的整个生命周期中,彻底地分析特定项目或系统将如何影响相关个人的隐私,帮助组织妥善识别和考虑处理行为可能带来的隐私风险,并确定最有效的解决方法。⑦一个有效的隐私影响评估使得组织在早期阶段识别和解决潜在的问题,减少相关成本和可能发生的声誉损害。不同于其他风险管理策略,隐私影响评估具有如下关键特征:隐私影响评估是依托于单个项目,而非针对一个组织进行的评估(即隐私影响评估不同于组织隐私策略);隐私影响评估是在项目规划之前或与之并行进行,本质上具有预期性、前瞻性,而不是回溯性(即隐私影响评估不同于隐私审核);隐私影响评估对象广泛,包括个人行为隐私、通信隐私以及信息隐私等(即隐私影响评估不同于一个纯粹的数据隐私影响评估);隐私影响评估考量因素广泛,不仅考虑主办机构以及主办机构的战略合作伙伴的利益,还考虑受影响的群体的利益(即隐私影响评估不同于内部成本/效益分析或内部风险评估);隐私影响评估面向解决方案,不仅是隐私问题分析,而且着重于消除或降低风险。[7]

长期以来,隐私负面影响的暴露所带来的压力累积,迫使组织和立法机构采取行动。对于公众来说,隐私影响评估作为一个在政治上代表处于弱势的“公众利益”的技术,无法与企业和政府主导的潮流相抗衡。只有提高公众对侵犯隐私的信息技术爆炸式增长以及企业和政府机构通过数据、算法聚集的巨大权力的认识,才能促进风险管理工具的运用。面对在技术和系统上的大量投资无法获得回报的风险,信息处理者不得不反思如何更好地维护自己的利益。由此隐私影响评估被用作风险管理工具,以识别可以避免或减轻的项目中侵犯隐私的风险。

(二)数据保护影响评估

《通用数据保护条例》第35条要求私营和公共部门在进行数据处理前都必须遵守进行数据保护影响评估的要求。对于违反第35条的行为,《通用数据保护条例》第83(4)条规定了高额的行政罚款,以督促数据处理者对数据保护影响评估义务的遵守。2017年4月4日,第29条数据保护工作组——现为欧洲数据保护委员会——通过《数据保护影响评估指南》(以下简称《指南》),阐明了对保证第35条有效实施至关重要的若干要素,印证了数据保护影响评估是《通用数据保护条例》实施过程中的热点问题之一。

《通用数据保护条例》第35条要求数据控制者在考虑数据处理性质、范围、情境、目的之后,如认为数据处理,特别是采用新技术的处理,很可能会对自然人的权利与自由带来高风险时,应在处理前开展数据保护影响评估,督促数据控制者主动考虑风险并提出降低风险的方案。该条第3款还提出了三项应当进行数据保护影响评估的具体情形,包括自动化数据处理决策对自然人产生法律影响或类似重大影响;对特定类别的数据进行大规模处理,或处理与刑事犯罪和刑事起诉相关的个人数据;对公开区域进行大规模、系统性监控。

第35条与《通用数据保护条例》第24、25、36条形成体系上的照应。第24条提出了应对数据处理风险的一般性规定,要求数据控制者考虑到个人数据处理的性质、范围、情境、目的,以及对自然人权利和自由的不同程度和大小的风险,采取合适的技术和组织方面的措施,以保证数据处理符合《通用数据保护条例》的规定,并且应当及时评估和更新前述措施,确保措施与数据处理的风险合乎比例。第25条设计和默认数据保护的规则确立了在制定数据处理的计划和实际处理数据期间采取某些行动的必要性,解释了为何须在处理个人资料之前进行数据保护影响评估。数据保护影响评估将确保个人数据被处理时,自然人的权利和自由被纳入考量,通过技术、程序等方面的设计消除或减轻风险。此外,第36条明确,如数据保护影响评估表明,数据控制者不采取额外措施,数据处理将引发较高风险的,数据控制者应在数据处理开始前,征求数据保护监管机构的意见。《通用数据保护条例》生效后作出的处罚第一案中,学校采用人脸识别技术作为学生考勤的工具,学校事先未就数据处理行为对数据主体的权利和自由产生的影响作出评估,也未提出相应的风险应对措施,因而被认定构成对第35、36条中关于数据保护影响评估和事先征求意见规定的违反。⑧

根据《通用数据保护条例》的要求和《指南》的解释,一个完整的数据保护影响评估过程大概包含如下步骤:首先是确定实施数据保护影响评估的必要性,数据处理操作超过“高风险”阈值是触发数据保护影响评估的前提;其次数据控制者需要系统地描述数据处理的目的,识别哪些数据正在或将在未来被处理,并为这种处理提供理由;接下来数据控制者还需进行与目的相关的处理操作的必要性和相称性的评估,即评估数据处理是否依据《通用数据保护条例》“合法、公平和透明”“目的限制”“数据最小化” “存储限制”等的规定。上述流程的铺垫主要是为了识别数据处理可能对自然人权利和自由造成的每一种风险,评估风险的来源、性质、特殊性和严重性,同时考虑处理的范围、背景和目的以及风险的来源;接下来则是确定可以消除或减轻前一步中发现的风险的补救措施,将风险实现的概率最小化;在适当的时候征求数据保护官、数据主体或其代表的意见;生成一份关于数据保护影响评估的报告,并监控处理过程是否符合风险的变化。[8]

《指南》极为强调数据保护影响评估的灵活性和动态性,提供了数据保护影响评估步骤的最低要求,数据控制者可以自由选择他们认为最合适的方法。具体体现为:第一,根据《通用数据保护条例》第35(1)条,对于实施数据保护影响评估的要求并非强制性的,仅适用于高风险数据处理活动。《指南》提供了一份高风险数据处理活动清单,给出了关于“高风险”的一系列标准,如处理敏感数据、向域外转移数据、超出数据主体合理预期的数据集的匹配和组合等。⑨一般认为,处理过程符合的标准越多,就越有可能对数据主体的权利和自由构成高风险。《指南》明确表示,这些标准只是提供一个参考,是否构成高风险,仍然要考虑具体情境。⑩一份事无巨细的高风险清单最终可能成为一种僵化的行政负担,这也是第29条数据保护工作组坚持要求数据控制者在评估处理计划时证明并按照《通用数据保护条例》第30条记录其选择的必要性和科学性的原因。[9]第二,考虑到技术发展速度非常迅猛,即使在某一特定时刻没有实施数据保护影响评估,但这可能在一段时间后发生变化。如果实施了数据保护影响评估,数据控制者将更好地了解其业务模式是否符合欧盟数据保护立法,并可以根据这些信息规划未来的发展。执行数据保护影响评估的决定应该始终根据具体情况作出,需要考虑当前数据处理的性质、企业的财务状况、未来的计划和发展方向等多种因素。第三,是否寻求数据保护官和数据主体或其代表的意见也非强制性,而是在“适当情况下”咨询即可。关于谁将在适当或不适当的情况下决定征求意见,什么样的处理需要公众参与,这些问题并未明确。《指南》仅提供参与的可选形式(如调查问卷),以及要求记录不咨询和不遵循咨询结果的任何决定并提供合理理由。这一流程在一定程度上遵循了透明原则,有助于建立数据主体、数据保护部门和公众对数据控制者的信任。第四,《指南》提出了对数据保护影响评估更动态的要求,数据保护影响评估作为一个持续的过程,在项目的整个生命周期内更新,至少每3年应该重新评估或修订一次。这个持续的过程包括评估风险、部署风险缓解措施、通过监测记录其有效性,并将这些信息反馈到风险评估中。

数据保护影响评估的名称不同于隐私和数据保护领域已有的隐私影响评估,那么数据保护影响评估和隐私影响评估之间是否存在本质区别。理论上对这一问题存在观点分歧,一个原因可能是“隐私”和“数据”之间的区分。在相当长的时期内,个人信息归属于隐私权的框架,被视为是隐私权在信息时代所发展出的新维度。[10]直到《通用数据保护条例》以“个人信息保护权”的概念替代了隐私权,把个人信息保护权作为一项独立的基本权利及民事权利,与隐私权相区分。[11]从本质上说,“隐私”保护的是个人的私生活安宁,而不仅是个人数据的处理;“数据保护”涵盖了所有个人信息的处理,超出了“隐私”的范围,权利内容也比隐私权更广泛。一些学者对隐私本身范围的界定非常广泛,确定了八种基本的隐私类型——身体隐私、智力隐私、空间隐私、决策隐私、通信隐私、关联隐私、专有隐私和行为隐私,并将第九种隐私类型——信息隐私叠加在一起,与这八种基本类型重叠但不一致。[12]隐私影响评估重点关注涉及个人身份信息的隐私风险。数据保护影响评估可能涵盖隐私之外的权利,但隐私是数据保护影响评估捍卫的主要权利之一。由此,隐私影响评估和数据保护影响评估的保护范围存在重叠或者说大致相同。《指南》特别指出,隐私影响评估一词通常用于其他背景,但与数据保护影响评估指的是同一个概念。此外,《指南》规定,如果计划进行伴随高风险的数据处理,数据控制者必须选择附录中给出的数据保护影响评估示例方法。而附录给出的例子几乎完全来自已有的隐私影响评估框架。

《通用数据保护条例》第35条规定的评估目标——“自然人的权利和自由”,连接了欧盟《基本权利宪章》等一般法律框架所赋予的权利,相当明确地阐明了《通用数据保护条例》要给予自然人的广泛保护。因此,《通用数据保护条例》下的数据保护影响评估在本质上提供全面的隐私和数据保护,也被称为对隐私影响评估的改进,可将其作为隐私影响评估的升级版,因为其目的不仅是保护隐私权,还包括其他基本权利。

(三)算法影响评估

近年来,人工智能自动化决策系统的使用呈指数级增长。政府机构在许多领域越来越依赖算法,例如交通管理、移民筛选、社会服务分配等。私营企业也已经将人工智能整合到招聘流程、贷款管理等业务中。许多曾经由人类做出的决定现在正逐渐地交给人工智能系统。自动化决策系统的日益普遍加剧了人类的偏见、不公平和歧视。例如,美国法院用于评估被告再次犯罪可能性的案例管理和决策支持系统被报道高估了黑人再犯的可能性。⑪亚马逊开发的基于人工智能的招聘系统,偏爱使用那些男性工程师简历上更常见的词汇来筛选求职者,这反映了男性在科技行业的主导地位以及对女性的偏见。⑫除了歧视性的招聘算法,算法损害还体现在不明原因的拒绝贷款,以及不安全的医疗诊断设备。它们代表了三种常见的算法伤害——歧视、程序不公和身体伤害。自动化决策系统可能会对个人的基本权利产生直接影响,如言论自由、隐私、平等和自治等。

人工智能系统将决策权力从民主程序转移到程序员身上,日益塑造我们的生活环境,鉴于其带来巨大的潜在危害,确保某种形式的算法监督至关重要。法律学者、政策制定者积极寻求可能的监管回应,包括反歧视法、行政法和侵权法中已有的补救措施等。其他领域的学者也在努力寻求建立更公平、更易理解和可审查的算法体系,并倡导公众参与算法治理。但由于算法的动态性,以及缺乏透明度、可预见性和可解释性,导致了监督的困难。正是在这一背景下,近年来得到青睐的一种监管方法是要求使用自动化决策的主体进行算法影响评估。算法影响评估要求在算法设计、部署与运行期间,算法治理的相关利益主体如政府、平台、社会公众与第三方力量,对算法可能造成的风险及其对社会的影响进行充分的评估。其主要有两个目标:一是引导构建系统的主体在复杂项目实施之前尽早地考虑实施细节和潜在影响,从而在风险无法纠正之前采取行动。在项目开发中越早考虑社会价值,最终结果就越有可能反映这些社会价值。二是建立和保存在项目实施期间作出的决定及其理由的文件,这有利于对这些决定更好地问责,并为未来的政策制定提供有用的信息,也让公众了解建立算法模型的机构是如何做出决策的。

将强制性影响评估作为一种工具,以促进对人工智能和其他自动决策系统的监督,是最新的立法趋势。2016年,《负责任算法的原则和算法的社会影响声明》报告列出了五项指导性的原则——责任、可解释性、准确性、可审计性和公平性,并描述了算法影响评估的大概形态,将推动影响评估作为“负责任的人工智能”或“人工智能道德”的一部分。[13]为了加强对人工智能系统的监督和问责,美国参议院和众议院于2019年向国会提交了《算法问责法案》。用提案人之一参议员怀登的话来说,该法案背后的意图是要求公司定期评估其工具的准确性、公平性、是否包含偏见和歧视。《算法问责法案》要求所有实体对其高风险自动决策系统进行影响评估,以评估系统的设计过程和培训数据对“准确性、公平、偏见、歧视、隐私和安全”的影响,并将报告提交给联邦贸易委员会。该法案还规定,在合理的情况下,应与外部第三方,包括独立审计员和独立技术专家合作进行影响评估。记录通过影响评估发现的任何偏见或威胁。企业被要求以“及时的方式”“合理地处理”任何确定的问题。⑬算法影响评估作为一个循环和多层次的过程而非静态陈述[14],不仅解释算法背后的逻辑和推理,更要证明决定是正确、合法和公正的。

有学者认为应将《通用数据保护条例》第35条“每当数据处理可能对自然人的权利和自由造成高风险时都要执行数据保护影响评估”的要求在适用时理解为包含算法影响评估。一些欧盟成员国政府也将《通用数据保护条例》理解为另一个算法影响评估版本。英国信息专员办公室发布的人工智能审计框架草案表示,《通用数据保护条例》的“问责原则”要求所有的自动化处理都要进行算法影响评估。⑭算法影响评估可以说是进入自动化决策时代后,在算法遁入社会生活背景下对数据保护影响评估的发展,而数据保护影响评估与算法影响评估在价值取向与底层逻辑方面仍存在区别,具体而言:数据保护影响评估更加关注对个人权利的保护。数据保护影响评估作为一种风险管理形式,目标在于对个人“权利和自由的风险”的评估,是建立适当措施以保障个人权利的一个重要方面。数据保护影响评估要求数据处理者导入《通用数据保护条例》中规定的各种个人权利,采取适当措施保护个人权利,个人有权了解数据处理的“重要性和预期后果”,质疑决策和表达观点。数据保护影响评估将这些个人权利作为风险管理战略的一部分来实施,旨在实现个人正当程序权利。算法影响评估更多聚焦于社会公共利益,要求数据处理者考虑不公平、错误、偏见和歧视的风险,并提出减轻这些风险的具体方法。算法影响评估要求对算法如何影响特定类别的个人或特定地点的群体层面进行分析,除了考虑个人权利保护之外,还关注道德和社会影响,识别和减轻超出个人影响的社会危害,不仅致力于根除对特定个人的歧视,还注重缓解对边缘化群体的歧视。在透明度上,数据保护影响评估的官方指南仅建议公开而不强制公开,且在公开范围上也限于摘要,而算法影响评估强制披露所有的评估内容。数据保护影响评估倾向于关注数据质量和数据安全,忽略了更广泛的社会和法律影响。算法影响评估明确地将重点放在公共空间背景下的集体监控上,将填补《通用数据保护条例》当前评估机制的空白。因此,算法影响评估程序超越了对隐私或个人数据保护的考虑,而转向更广泛的社会公共利益,可能会解决一些学者对数据保护影响评估侧重于个人权利而排斥群体的担忧。

三、我国个人信息保护影响评估的内涵及其局限

(一)个人信息保护影响评估制度定位

《个人信息保护法》第55条规定的个人信息保护影响评估制度,系基于风险预防理念,事先评估个人信息处理活动是否合法、正当、必要,识别其可能对个人权益产生的重大影响并进行早期干预,动态应对风险变化,有针对性地及时采取措施最小化风险的过程。根据第55条,应当进行个人信息保护影响评估的法定情形,包括处理敏感个人信息,进行自动化决策,委托处理、对外提供、公开个人信息以及向境外提供个人信息,最后以“其他对个人权益有重大影响的个人信息处理活动”进行兜底。随着相关产业的迅猛发展,兜底条款可以基于新的产业发展实践状况,为应当进行个人信息保护影响评估的新情形预留空间。此外,在《信息安全技术 个人信息安全规范》《个人金融信息保护技术规范》《互联网个人信息安全保护指南》等国家标准、文件中也列举了推荐个人信息处理者进行个人信息保护影响评估的具体情形,如“基于不同业务目的将所收集个人信息进行汇聚融合”“产品或服务发布前,或业务功能发生重大变化”“法律法规有新的要求时,或在业务模式、信息系统、运行环境发生重大变更”“发生个人信息安全事件后”等,这也为准确理解“其他对个人权益有重大影响的个人信息处理活动”提供了指引和参照。

《个人信息保护法》第56条规定了个人信息保护影响评估的内容和保存记录要求。根据第56条规定的个人信息保护影响评估应当包括的内容来看,主要是为了保证个人信息的处理目的、处理方式等符合合法、正当、必要的原则,其指向的是对个人权益有重大影响及安全风险的个人信息处理活动。根据《信息安全技术 个人信息安全影响评估指南》第5.5.1段,对个人权益的影响可能包括限制个人自主决定权、引发差别性待遇、个人名誉受损或遭受精神压力、人身财产受损等方面。在具体开展个人信息保护影响评估时,个人信息处理者需要结合个人信息处理活动全生命周期对个人权益可能造成的影响综合分析,评估针对个人信息处理活动所采取的安全保护措施是否有效并与风险相适应。可以发现我国个人信息保护影响评估在评估对象、手段、目标等方面与数据保护影响评估一脉相承,主要关注的是个人权益。

算法是发挥沉默的数据价值的关键,自动化决策不断影响人们的互动方式,人类已经步入“算法社会”。[15]在当前背景下,我国目前的个人信息保护影响评估在一定程度上忽视了算法评估制度更加关注社会公共利益的价值意蕴。目前个人信息保护影响评估在评估范围方面太有限,主要涉及对个人信息权益的影响。随着新兴通信技术的发展,可能不仅会带来个人权益保护方面的挑战,还会引发道德问题,如人的尊严、自由、民主、人权保护、多元主义、不歧视、正义、团结和性别平等等。影响的范围应该扩展到其他权利和价值。应充分发挥个人信息保护影响评估方法论的功能,个人信息处理者在《个人信息保护法》第55条规定的法定情形外,也可以运用个人信息保护影响评估的基本原理和方法,对具体场景中个人信息处理活动可能对歧视、偏见、安全等关涉社会群体的因素进行分析,并在此基础上采取相应的风险应对措施,不断提升算法治理水平。个人信息处理者可以参考《信息安全技术 个人信息安全影响评估指南》,除了个人权益,还可从引发差别性待遇维度考虑个人信息处理活动对社会群体造成的影响,比如泄露隐私信息造成的歧视,对应聘者、获取服务者的歧视性筛选,个人福利、资格、权利方面的差别对待等。

(二)个人信息保护影响评估制度构成

影响评估是风险管理的重要手段,风险管理也是影响评估的关键部分。个人信息处理风险可能来自组织内部的漏洞或项目本身的设计和实施,也可能来自外部威胁。个人信息保护影响评估在避免或管理风险方面具有优势,是整体风险管理策略的重要组成部分。要想使影响评估有效,应在个人信息处理者作出关于如何满足目标的关键选择时及早介入,在能够真正影响信息处理发展的阶段进行。《个人信息保护法》第55条要求个人信息处理者应当事前进行个人信息保护影响评估。影响评估的启动较为关键,如果在不符合评估理由的情况下进行,有限的资源会被不必要地使用。如果不能将评估集中在关键问题上,就有可能导致无法实现其功能。虽然第55条列举了应当进行影响评估的情形,在实际抉择时需要衡量个人信息保护需求的实际情况,了解当前风险状态,查看新项目是否符合信息保护要求。

影响评估的规模和范围取决于处理信息的重要性,收集、使用或披露个人信息的程度,影响评估预算,执行影响评估所需的时间等因素。信息规模越广泛,影响评估就应该越全面。相反,如果一项处理的影响范围相对有限,可能只需要一个简略的个人信息保护影响评估。影响评估是一项资源密集型的工作,个人信息处理者应该考虑影响评估的目标、规模和范围,以与所识别的风险相称的方式进行。如果风险不显著,那么影响评估的规模和范围可能是有限的。如果风险很大,那么影响评估应该更详细。随着处理进程的发展、问题更加明朗,评估规模和范围可以随时进行更新和补充。

域外大多数指导文件给予处理者相当大的自由裁量权,以决定是否需要进行影响评估和影响评估的规模与范围。影响评估是灵活和动态的,也就是说,没有一种方法适合所有的情况。英国信息专员办公室表示:“由于组织的规模差异很大,它们的活动侵犯权益的程度以及处理问题的经验不同,使得很难写出一份‘一刀切’的指南。”⑮影响评估的深度和内容应与所收集信息的性质以及系统的复杂性相适应。英国的影响评估手册提供了“小规模”影响评估(small-scale assessment)和“全面”影响评估(full-scale assessment)两种模板,加拿大影响评估政策将“初步”评估(preliminary assessment)和“全面”评估(comprehensive assessment)区分开来。这值得我国个人信息影响评估制度借鉴,即基于影响广度、深度确定评估框架体系,推动评估的场景化和精准化。

信息主体在信息处理过程中可能面临的风险包括被收集的信息超出目标所需、缺乏透明度、缺乏删除机制、秘密收集信息、知情不充分、信息被不当分享、信息储存超过必要时间等。信息的使用或披露环境可能会随着时间的推移而变化,导致信息在人们不知情的情况下被用于不同的目的。在进行个人信息处理之前,处理者需要进行信息保护分析,考虑所收集信息的数量和类型,确定存在哪些风险,以及如何降低这些风险。描述设计选择的过程、处理的目的,以及在设计过程中如何嵌入信息保护要求。描述可能用于保护个人信息的各种措施,例如是否加密某些信息?是否实施了访问控制?是否寻找信息收集范围更小的途径?说明为何收集和存储特定个人信息是必要的,仅说明一般用途并不足够,需要进行具体详细的解释。例如仅声明收集姓名、出生日期和生物特征等是为了核实个人身份是不够的,还需解释必须通过收集这些信息才能达到核实身份的目的。信息处理者需要确保处理行为符合法律、行政法规及其他政策文件的规定;目的合法、正当、必要;处理行为不侵犯人权;采用适当的、最少干扰的手段。信息收集最小化、目的合法正当、流程透明是影响评估需要确保的关键目标。信息处理建立在明确的同意基础上,尊重信息主体的知情权,确保信息主体及时被告知有关收集其信息的事宜;保证信息主体查阅、更正及删除的权利;确保信息在信息主体提出异议时不再被处理;确保处理的机密性和安全性,防止未经授权的访问及意外丢失;信息的保留时间应与保留的目的或其他法律要求相一致。

影响评估流程的一个关键部分是决定采取哪些解决方案。识别风险后,处理者应该确定可以采取什么行动来应对风险。影响评估的目的不是完全消除对个人信息权益的影响,而是在实施有益的信息处理活动的同时将影响降低到可接受的水平。解决方案的确定需要考虑对信息权益的影响是否与项目的目标相称,平衡信息处理需求与对个人的影响。消除、降低风险的可能方案包括:决定不收集或存储特定类型的信息;严格控制信息的储存期并保证信息的安全销毁;实施适当的技术安全措施;匿名化、脱敏化信息;确保员工经过适当培训,并有能力意识到潜在的风险,为员工提供关于如何使用处理系统以及如何在适当情况下共享信息的指导;采取措施确保个人充分了解其信息的使用方式,并为个人提供便捷的寻求帮助途径;制定信息共享协议,明确将共享哪些信息、如何共享以及与谁共享等。

《个人信息保护法》第56条第2款规定个人信息处理者应当形成个人信息保护影响评估报告,这是个人信息处理者进行个人信息保护影响评估后形成的过程性和结论性文档。评估报告应当包括评估对象、评估依据、评估人员、评估方法等评估基本事项,实施个人信息保护影响评估的过程性记录,以及安全风险分析结果、风险处置措施、风险处置效果等。记录影响评估的详细信息是必要的,包括处理风险和解决方案,可以用来向利益相关者保证信息处理已经过全面评估,在关键时刻向决策者提供信息。影响评估报告具有充当处理者记忆的价值,可以成为解释处理细节的重要资源。影响评估报告应包括对信息处理计划的概述,解释为何开展信息处理,以及该处理行为将如何影响信息安全;记录信息处理及其后端基础设施的全面详细信息。报告应描述如何识别风险,以及解释针对风险已采取或将采取的措施和背后的原因,并确定谁负责批准和实施解决方案。影响评估记录应该随着处理进展审核和更新,以反映处理者采取的举措是否与处于不断变化中的风险水平相称,这应在信息处理的整个过程中持续,甚至扩展到处理过程之后,因为随时可能会出现新问题。

总体来说,个人信息保护影响评估注重具有成本效益的解决方案,因为在设计阶段将个人信息保护纳入项目、政策、技术中,比在技术部署或政策颁布后尝试进行成本更高的改造更具有成本效益和效率。影响评估为个人信息处理者创造了一个机会,以预测和解决新举措的可能影响,提前识别风险,并确定解决措施,在功能设计中尽量减少对个人信息权益的影响或找到威胁更小的替代方案。

(三)个人信息保护影响评估制度的不足

个人信息保护影响评估制度借鉴自数据保护影响评估,它们最大的缺点在于没有向公众强制披露的机制。面向公众的信息披露能够以市场反馈的形式(不去选择个人信息保护水平不佳的处理者)和长期监管反馈的形式(制定法律以防止不良行为)监督个人信息处理。因此公开披露是影响评估的一个基本要素。由于未能强制要求公开披露,我国个人信息保护影响评估未能触发这两种机制,而这两种机制是有效合作治理机制的重要组成部分。由此带来较大的弊端:在如何保护个人权利,以及如何解决算法的不公平、偏见和歧视等相关问题不为公众所知时,公共监督缺位,难以确保个人信息保护影响评估风险预防工具朝着公共利益的方向发展。

影响评估包括评估系统开发过程的研究、设计和培训数据,其主要优点是积极促进关键领域的信息公开,提高数据处理和决策过程的透明度。在没有影响评估的情况下,政府机构或公众获取这些信息将更加困难。但我国《个人信息保护法》框架下进行的个人信息保护影响评估的透明度仍然有限,不能充分响应基于个人信息处理系统的动态特性,以及没有建立强制性的披露要求。随着个人信息体量的暴增,数据处理越来越依赖于算法,可以说,算法已经成为当前数据处理的最主要力量。[16]人工智能系统的主要特征之一是其复杂性和学习与进化的能力,机器学习使系统能够不断改进和调整。因此,主要依靠事前评估没有充分考虑到基于人工智能系统的动态性质,不足以促进透明度。《个人信息保护法》并不要求受监管实体公布其影响评估的结果,而透明度的缺乏剥夺了共享信息、公众影响决策过程的机会。此外,自动决策的黑箱性质可能会排除传统的正当程序形式,如通知和听证。如果信息主体不具有获得信息、提出质疑的权利,个人很难理解系统对其作出的决策,从而无法纠正错误信息,不能充分保障正当程序。

影响评估方案具有改善组织行为,促进信息共享,并激励信息处理者预先考虑其处理行为对个人和公众安全的益处,但其所能发挥的监督功能仍不充分,带来了监督与问责的障碍,未能促进充分的问责制。特别是影响评估并不要求受监管实体向公众披露影响评估的所有内容,也没有提供其他方式让公众了解具体行为的发生,提供的透明度有限,不充分保障正当程序,个人没有被通知或表达意见的权利。因此,影响评估工具未能促进充分的公众监督和提供纠正错误决定的适当机会。为提高监管潜力,需要对现有的影响评估框架进行一些改进。要在个人信息保护影响评估中有效问责,仅依靠自我评估是不够的,有必要让影响评估接受多方主体的客观监督和审查。

四、个人信息保护影响评估制度的完善

为避免个人信息保护影响评估流于形式,需要保证公众理解数据处理流程,能够挑战这些流程和纠正不当决策,这依赖于透明度、正当程序、公众审查等要素。个人信息保护影响评估制度的有效落实,仅依靠个人信息处理者的自我评估尚不充足,需要对现有的影响评估框架加强监督。

(一)监督的实现——协同治理

我国个人信息保护影响评估制度中协同治理架构设计存在不足,并未强制性地要求公共机构、社会或者数据安全领域的专家实施独立监督。这种制度设计虽然体现了对个人信息处理质量和安全的重视,但对协同治理实践的关注不够,对社会和经济影响的评估亦有所欠缺。个人信息影响评估需要团队合作,充分吸纳各领域专家的技能,并明确鼓励外部利益相关者参与个人信息影响评估过程。与个人信息保护影响评估制度相比,算法影响评估制度不仅要求设计者、部署者和运行者对算法设计和相关数据展开系统评估,而且还要求在评估过程中纳入外部问责和审计力量,全面践行协同治理理念,相比较而言具有更为完善的治理架构。个人信息保护影响评估是一个更大的监管生态系统中的一部分,与监管工具包中的其他工具相互作用,不能将其理解为独立的机制。当它与其他监管工具协调合作而非单独部署时,才能发挥最佳功能。比如在实践中,影响评估框架依赖于专业知识和信息。因此,技术公司在评估中不可避免会有一定的实际裁量权;为提高监管的效率,与企业的合作是必要的。个人信息保护影响评估治理策略应摒弃单一治理模式,充分整合政府机构、社会公众、行业代表、外部专家等多元力量进行联动治理。

(二)监督的前提——强制披露

个人信息保护影响评估旨在发现、处置和持续监控个人信息处理过程中对个人合法权益造成不利影响的风险,是个人信息处理者履行个人信息保护法定义务及承担社会责任的重要体现,由此公开形成的个人信息保护影响评估报告具有多重功能。一是降低信息差距。公众审查对有效的影响评估至关重要,在信息差距下,为了保持有意义的公众监督并支持正当程序的理念,个人信息处理的公共属性要求处理者公布影响评估。虽然这种强制性的公布不会完全消除信息差距,但通过告知公众数据处理的目标、决策做法、可能的风险,能够尽量减少这种差距。二是帮助个人进行对比。对不公平和歧视的风险进行必要的影响评估分析,与个人申诉、表达观点和干预的权利之间存在联系。个人要想有效地行使对个人信息处理提出异议的权利,需要知道自己受到的待遇是否与其他处境相似的人相同。要使《个人信息保护法》规定的一系列个人权利有意义,个人不仅需要知道关于特定决策的信息,还需要知道算法对待群体的方式,以及偏向和歧视的倾向。三是为外部意见输入提供通道。公布影响评估的某些方面可能会引导公众辩论,获得外部意见输入,了解系统的开发、培训或监控方式,鼓励民间社会和公民组织采取行动。四是构成个人信息处理者的自我承诺。一旦处理者公开了其影响评估,它就有义务按照影响评估的要求行事,根据影响评估中披露的细节对他们采取的行为负责,可以获得公众对信息处理合法性的认可。

有观点以商业秘密为由反对强制公布。[17]《通用数据保护条例》提案的最初文本要求在影响评估过程中与数据主体进行协商。⑯这段文字后来被删除,因为“主动寻求数据主体的意见对数据控制者来说是不成比例的负担”⑰。因此,在《通用数据保护条例》的最终文本中,与数据主体或其代表进行磋商只需“在适当情况下”进行。即使需要公众参与,也必须“不妨碍对商业或公共利益的保护或处理作业的安全”⑱。在数据保护影响评估中,虽然立法和相关指南推荐数据控制者对评估结果予以公布,但并不强求其公布评估文件和流程信息,可以仅公布核心概要。⑲根据《通用数据保护条例》框架,仅仅是对平台商业利益保护的损害就可以提供一些不予披露的理由。采用默认披露规则来平衡个人信息处理者与公众的利益,同时允许个人信息处理者在需要对专有信息保密时申请例外豁免可能是更佳的选择。可能会有观点认为,考虑到个人信息处理的动态特性,以及利益相关者有机会在事后寻求救济,决策前的公众参与并不那么重要。然而,在现实中,公众的参与无论是事前还是事后都是不可或缺的。在数据和算法治理实践中,一定程度的公众参与和公开披露已被广泛视为构成有效治理的核心要素,个人信息处理的公开披露制度可以有效弥补个人信息保护影响评估制度的不足。

(三)监督的展开——主体与内容

让数据处理、自动化决策系统接受监督是促进信任的重要目标和工具。个人信息保护影响评估本身不足以促进有效的监督和问责,应该附加外部监督的客观机制。影响评估本身的监督和问责力度不充分,将自我评估与外部和独立的监督机制结合起来可能是更好的解决办法。在内部监督和一些外部投入的情况下,将有助于个人信息处理者发现问题并提出解决方案,使影响评估具体落实。

1.部门监管

影响评估专注于数据处理系统的开发过程,包括自动决策系统的设计和培训数据,以及对准确性、公平、偏见、歧视、隐私和安全的影响。评估必须包括以下参数:系统的描述、对系统的相对效益和成本的评估、系统风险的评估,以及可采取的降低风险的措施。虽然增加了透明度,但评估结果的公布仍由个人信息处理者自行决定。这就是为什么影响评估促进公众审查的能力受到了制约。算法影响评估最强大和最具革命性的方面之一是赋予了美国联邦贸易委员会广泛执法权力。《算法问责法案》授权联邦贸易委员会发布和执行规定,要求涉及的实体完成影响评估,并及时处理影响评估的结果,有权强制执行。任何违规行为将被视为“根据《联邦贸易委员会法》第18(a)(1)(B)条的不公平或欺骗性行为”。作为对联邦贸易委员会执法权力的补充,《算法问责法案》将授权州检察长对违法实体提起民事诉讼。《通用数据保护条例》赋予相关监管机构广泛的执法权力。这些独立的主管机构被赋予了广泛的监测、咨询和调查权,包括发出警告或训斥数据控制者;监督数据控制者遵守数据对象行使权利的请求,例如解释权、罚款。不仅如此,《通用数据保护条例》还明确规定,各成员国应赋予监管机构权力,使其能够将任何侵权行为提请司法机关注意,并启动法律程序以执行《通用数据保护条例》的规定。[18]这些机制可被视为监督受管制实体决策过程的一种手段。

《算法问责法案》和《通用数据保护条例》都是试图利用影响评估优势对人工智能和其他自动化决策系统等数据处理工具实现有意义监督的范例。但上述举措并未针对特定行业和风险等级进行异质化监管。面对目前大数据产业的普及,执法者在监管方面资源有限,过多依靠政府部门监管不利于通过公私合作降低治理成本和吸收外部第三方专业知识。因此,考虑到单一的监管机制可能不足以灵活地适应信息处理系统的多样性,用一套规则来妥当地监管所有相关行业比较困难,政策制定者和执法者可能难以根据管制活动、公共政策目标和外部性等因素来考虑必要的监督水平。政策制定者根据特定领域的异质性来开展监督能更好保证政府监督的效能。

2.公众参与

在环境法领域,公众意见是评估过程中的一个关键因素,为公众提供提出意见和反馈的机会,被认为是确保全面透明度的关键。在许多情况下,这些群体拥有有关环境和生态相互作用的宝贵知识,对开发人员和政府来说十分有益。例如,《美国国家环境政策法案》第240条是采用环境影响评估概念的主要立法之一,它要求有关机构必须给予公众参与的机会。⑳这种强制性的评论过程,使得个人和公民社会团体能够参与决策过程,从而使数据处理系统的黑箱变得更加透明。除此之外,它还可以加强决策过程的合法性,让公众更容易接受个人信息处理的结果,即使这个结果与他们自己的偏好不一致;使公众参与到决策过程中来,可以提高观点的多元度,扩大个人信息处理者所考虑问题的范围;激发信息交流,提高评估质量,减少错误决策的机会;促进公众更深入地理解个人信息处理过程,并对所涉及的利害关系有更清晰的认识,从而影响公众对决策的态度;降低个人信息处理者使用评估工具来促进特定利益集团的利益的风险,这在现实背景下尤为重要。在部署个人信息处理之前,公众可以通过代表委员会的形式参与监督,要求个人信息处理者或监管机构为公众参与提供资金,并提供专门技术知识或获得专门技术知识的渠道。它不仅需要外部技术专家的参与,还需要法律和伦理学专家的参与,为公众提供智力支持。

3.内部控制机制

影响评估的一个关键优势是其影响信息处理者内部组织行为的能力。通过要求处理者进行内部检查,影响评估促使编码人员和设计人员进行更深层次的分析,仔细调查可能存在的错误和不确定因素,并实施必要的步骤来纠正它们。影响评估的内在性和灵活性将被监管实体的注意力从单纯的合规转向了问题的解决和改进。此外,内部检查可以阻止私营企业开发无法承受公众监督和辩论的处理系统。所有这些都将有助于促进和改进个人信息处理的发展和实施。基于信息处理系统的动态性,处理和决策过程可能会随着时间而改变,因此需要强制性的定期影响评估。这意味着将在事前(在数据输入系统之前)以及事后(通常在处理系统实施之后)进行影响评估,这将增加透明度和公众审查空间。周期性评估更适合处理系统不断进化的性质。补充评估应每隔几个月或每年进行一次,以反映输入系统的数据的不断变化以及法律的动态性要求。因此,处理者应定期评估自己的信息处理系统。不同的行业表现出不同程度的活力,因此具体评估频率因行业而异,需要不同的评估时间框架。

4.第三方审计

虽然可以对影响评估框架进行定制,以更好地满足个人信息处理的需要和属性,但它们不能单独作为促进问责的手段,而是应该被纳入一个更广泛的问责计划,以确保内部检查和外部监督。影响评估的优势在于其依赖于信息处理者的内部流程,以保持用户的参与度和品牌认知度。自我评估机制特别适合于技术迅速变化的环境。此外,它们在很大程度上依赖于处理者自己的报告和评估,而这些报告和评估往往具有处理者的个人利益色彩。个人行使权利在缓解个人信息处理系统影响公众自由和获取信息利益方面的力量有限,许多个人可能缺乏必要的激励或资源来行使其权利。而且,个人目标和公共目标可能相互冲突,个别解释不太可能引发市场机制或公众监督。因此,有必要让个人信息处理者接受更高层次的外部客观审查,比如第三方审计。有学者将审计定义为一种独立评估信息处理是否符合“适用的法规、标准、指南、计划、规范和程序”的方法。㉑外部审计不能保证数据处理的完全透明,也不能完全弥补信息差距,但它仍然作为一种额外的监督机制用于验证处理决策,以防止不当使用、歧视和对社会的负面影响。这种外部和客观的审计制度应该确保对处理系统进行独立、持续的监督,最终将更好地保护公共利益。

影响评估是建立数据处理、算法问责制的关键工具。在个人信息保护影响评估流程下,个人信息处理者必须证明个人信息处理的必要性,决策的合理性和合比例性。随着信息处理系统的广泛应用,出于对歧视性、偏见和安全的担忧,影响评估作为风险管理工具,是促进对个人信息处理者的公众监督的有力工具。尽管影响评估方案具有突出的优势,但仍存在透明度有限、正当程序不足、公众审查空间有限的问题,在许多方面带来了新的监管挑战,仅依靠个人信息处理者进行自我评估并不足够,需要更多元的内外部客观监督与审查予以补强。影响评估应被纳入更广泛的协同治理架构,以确保公众信任。结合内部和外部监督机制可能不足以完全克服个人信息保护影响评估工具面临的挑战,但有助于改进对个人信息处理系统的监督。

注释

①National Environmental Policy Act of 1969.

② E-Government Act of 2002;Commission Regulation 2016/679 of Apr.27,2016;General Data Protection Regulation,2016 O.J.(L 119) 1.

③E-Government Act of 2002;Privacy Impact Assessment(PIA)Guide.

④ Government of Canada,Directive on Automated Decision-Making;Washington House Bill 1655.

⑤ Internal Revenue Service,IRS Privacy Impact Assessment,Version 1.3,Washington,DC,17 December 1996.www.cio.gov/documents/PIA_for_it_irs_model.pdf.

⑥ Office of the New Zealand Privacy Commissioner,Privacy Impact Assessment Handbook,March 2002.

⑦ Roger Clarke,Privacy Impact Assessment in Australian Contexts,https://elaw.murdoch.edu.au/archives/elaw-15-1-2008.html.

⑧ 腾讯研究院:《GDPR生效后的第一张人脸识别罚单》,https://baijiahao.baidu.com/s?id=1648104332133048007.

⑨ DPIA Guidelines (n1) 7,10.

⑩ DPIA Guidelines (n 15) 7-10.

⑪ Julia Angwin et al.,Machine Bias,Propublica (May 23,2016),https://www.propublica.org/article/machine-bias-risk-assessments-in-criminalsentencing [https://perma.cc/EUW3-NPLY].

⑫ Jeffrey Dastin,Amazon Scraps Secret Al Recruiting Tool that Showed Bias Against Women,Reuters(Oct.10,2018),https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazonscraps-secret-ai-recruiting-tool-that-showed-biasagainst-women-idUSKCN1MK08G [https://perma.cc/N4YF-6AMG].

⑬ S.1108,Algorithmic Accountability Act of 2019.

⑭ Commission Regulation 2016/679 of Apr.27,2016.

⑮ ICO,PIA Handbook,op.cit.,p.2.

⑯ General Data Protection Regulation),art.33(4),COM(2012) 0011 final (Apr.5,2016),https://eur-lex.europa.eu/legal-content/EN/TXT/? uri=CELEX%3A52012PC0011[https://perma.cc/H5PS-Z2KS].

⑰ Report on the Proposal for a Regulation of the European Parliament and of the Council on the Protection of Individuals with Regard to the Processing of Personal Data and on the Free Movement of Such Data (General Data Protection Regulation) (COM(2012)0011 -C7-0025/2012 -2012/0011(COD)),PARL.EUR.Doc.PE501.927v05-00(2013),http://www.europarl.europa.eu/sides/getDoc.do?pubRef=_//EP//TEXT+REPORT+A7-2013-0402+0+DOC+XML+VO//EN [https://perma.cc/6257-WT7E.

⑱ Commission Regulation 2016/679,supra note 24,art.35(9).

⑲ DPIA Guidelines(n1)17.

⑳ National Environmental Policy Act of 1969,42 U.S.C.§§4321-70(2018).

㉑ Joshua A.Kroll et al.Accountable Algorithms,165 U.PA.L.REV.660-661(2017).

猜你喜欢

数据保护信息处理个人信息
如何保护劳动者的个人信息?
个人信息保护进入“法时代”
基于Revit和Dynamo的施工BIM信息处理
数据保护护航IT转型
——戴尔易安信数据保护解决方案
警惕个人信息泄露
欧盟通用数据保护条例中的数据保护官制度
地震烈度信息处理平台研究
CTCS-3级列控系统RBC与ATP结合部异常信息处理
TPP生物药品数据保护条款研究
药品试验数据保护对完善中药品种保护制度的启示