APP下载

数字社会中算法消费者的个人信息保护体系构建*

2022-02-03刘颖

广东社会科学 2022年1期
关键词:保护法经营者个人信息

刘颖

《个人信息保护法》被誉为我国个人信息保护的“基本法”,构建了数字经济社会中以“自然人”为核心的个人信息保护基本框架。个人信息保护法不区分具象人格和适用场景上的差别,而是适用于所有“个人”以及所有场合中的“个人信息”保护,所有场合包括线下实体和互联网,也包括有算法主导的互联网、无算法主导的互联网场景。数字平台作为数字经济中最重要的商业主体,其通过大数据、物联网(LoT)、智能算法技术的深度融合,逐渐走向了“万物互联”的数字化世界,并塑造了全新的平台经济商业模式。在此经济模式中,消费者的个人信息被数字平台不断收集,并被算法深度分析,消费者利益被肆意地攫取,导致在数字社会中消费者与数字平台利益严重失衡。在数字经济中如何保护消费者既享受算法便利,又不被算法算计就显得极其重要。本文从算法消费者的角度,探索构建算法消费者的个人信息保护体系。

一、数字经济背景下的算法消费者

(一)数字经济背景下被算法算计的消费者

如今,算法定义了我们的生活,脸书(Facebook)、推特、知乎、今日头条、抖音等数字平台通过机器学习等智能算法来决定向你推荐哪些内容。数字平台经营者(以下简称平台经营者)通过智能终端、API(应用程序接口)、SDK(软件工具开发包)、IoT设备、浏览器、传感器等自动收集用户的个人信息,并运用智能算法对消费者进行用户“画像”,以此进行后续的商业行为。数字经济时代中的平台经营者与传统互联网消费平台有着显著不同,他们依托平台的生态实现自组织、自运营的数字化发展,甚至在平台生态内形成“算法权力”,同时他们在算法驱动下精准预测或塑造消费者偏好。随着线上线下界限的不断模糊,依托智能算法、大数据、物联网等科学技术的发展,算法已经成为各个领域的技术基础架构,使得原有的社会关系与权力结构不断固化与发展。①刘颖、王佳伟:《算法规制的私法进路》,《上海大学学报(社会科学版)》2021年第6期,第12页。可见,在数字经济社会中,智能算法是一把双刃剑,即智能算法为消费者提供更多便利的同时,亦有可能无时无刻地算计消费者。

(二)传统经济向数字经济转型下的消费者保护

回顾消费者保护的进程可知,近代西方消费者法由消费者运动推动产生,“二战”之后资本主义国家消费者运动勃兴,各国消费者组织应运而生。以美国消费者运动为例,共经历了反假货运动、非营利消费者组织的兴起和法律激进主义时代。②参见姚佳:《消费者法理念与技术重构》,北京:法律出版社,2019年,第45、47页。21世纪以来,互联网与信息科学技术深度融合与发展,当前社会已经从工业经济迈向数字经济时代。但是,我国《消费者权益保护法》的困境在于,仍未脱离现实世界的传统框架,不能满足互联网服务消费者权益保护的需求。③孙南翔:《论作为消费者的数据主体及其数据保护机制》,《政治与法律》2018年第7期,第33页。例如,目前消费者法中的消费者知情权、自主选择权等消费者权利源于20世纪消费者运动,依旧为传统保护框架下的保护模式;传统保护模式缺乏应对平台经营者利用算法、个人信息和数据等新兴技术手段侵害消费者的保护措施。尽管《电子商务法》第18条规定了定制搜索结果条款,④葛江虬:《解释论视角下<电子商务法>定制搜索结果条款的规范目的及限制适用》,《法律科学》2021年第3期,第9页。但该条规范过于简单,或许更多是行政监管规范,以至于其在私法上的适用和保护效果仍有待观察。

(三)算法消费者作为消费者的一种新类型:算法消费者的内涵界定

算法消费者是消费者的新类型。《消费者权益保护法》第2条规定“消费者为生活消费需要购买、使用商品或者接受服务”。算法消费者,也是为生活消费需要购买、使用商品或者接受服务。

算法消费者是通过互联网等网络平台购买、使用商品或者接受服务的消费者,基于平台经营者利用智能算法介入消费或服务行为,线上消费者随之蜕变为算法消费者。故而算法消费者是在数字经济背景下平台经济中应运而生的一种消费者类型,是算法与互联网嵌入融合的产物。算法消费者的本质是“互联网+算法”,是通过在智能算法接入互联网等信息网络中为生活消费购买商品或接受服务的消费者。

二、算法消费者个人信息保护的基本框架与反思

(一)算法消费者个人信息保护体系

自2012年12月28日第十一届全国人大常委会第三十次会议通过《全国人民代表大会常务委员会关于加强网络信息保护的决定》开始,我国确立了以“合法、正当、必要原则”+“同意”为核心的个人信息保护制度。在此后《电信和互联网用户个人信息保护规定》(2013年)第5条和第9条、《网络安全法》(2016年)第22条、《民法典》(2020年)第1035条、《个人信息保护法》(2021年)第5条和第13条均坚持“合法、正当、必要原则”+“同意”的两项核心内容。可见,上述两项核心内容已经作为我国个人信息保护体系的基本框架。

回归算法消费者视角,其个人信息保护体系并不与上述体系完全重合。一方面,算法消费者作为消费者的一种新类型,消费者个人信息保护的一般规则必然适用于算法消费者。《民法典》第1035条坚持了个人信息保护中的“合法、正当、必要原则”+“同意”的两项核心规则,但在细节上有所调整,例如增加“不得过度处理”、“同意规则的例外性规定”等内容。综上,《民法典·人格权编》中第六章“隐私权与个人信息保护”规定了个人信息保护的系列规则,该章作为个人信息保护的一般性规定适用于所有自然人。因此,《民法典·人格权编》第六章“隐私权与个人信息保护”也是算法消费者个人信息保护的一般规则。《消费者权益保护法》(2013年修正)第29条规定了消费者个人信息保护的规则,该条自然可适用于算法消费者。算法消费者作为电子商务中的重要参与者之一,其个人信息保护也受《电子商务法》(2018年)第23条的调整,但该条仅作了“应当遵守法律、行政法规有关个人信息保护的规定”的指引性规定。2021年颁布的《个人信息保护法》作为个人信息保护的“基本法”,是自然人个人信息保护的特别法。就算法消费者个人信息保护体系而言,从适用关系上来看,《民法典·人格权编》中第六章“隐私权与个人信息保护”是算法消费者个人信息保护的一般性规则,《消费者权益保护法》第29条是算法消费者个人信息保护规则的特殊规范,《个人信息保护法》是作为自然人个人信息保护的特别法。因此《个人信息保护法》应予优先适用,《民法典》《消费者权益保护法》具有适用的备位性。此外,从行政监管角度,政府部门从职责范围出发制定的相关个人信息保护的部门规章也有适用算法消费者个人信息保护的空间,如国家网信办颁布的《移动互联网应用程序信息服务管理规定》(2016年)、国家市场监管总局颁布的《网络交易监督管理办法》(2021年)等部门规章对个人信息保护作了更为细致的规定。

(二)同意作为形式控制的缺陷

同意是我国个人信息保护的核心规则之一,算法消费者个人信息的“同意”规则适用《个人信息保护法》第13条的规定。我国自2012年即确立了个人信息保护的“同意”规则,然则,国内外学者对该规则有效性均无一例外地提出质疑。

为什么消费者会陷入一种困境,即一方面关心自身隐私,另一方面却又同意侵蚀自身隐私的数据行为并使自己暴露于面临信息损害的风险之中。这是因为个人信息保护中的“同意”存在三种病理形态,即不知情同意(unwitting consent)、被强迫的同意(coerced consent)以及无行为能力的同意(incapacitated consent)。①NeilRichardsandWoodrowHartzog,“ThePathologiesofDigitalConsent”,WashingtonUniversityLawReview,vol.96,no.6,2019,p.1476.首先,不知情同意将“知情”从“知情和自愿”中分离出来。因为在数字环境中,太多消费者对自身同意的数据行为或暴露几乎一无所知。例如,基于文化程度和认知上的差异,消费者并不知晓经营者提供的各类法律术语或技术规制的烦琐说明,形式上的告知形同虚设,在点击“同意”时,消费者考虑的仅是使用上的便捷性,而不认真阅读所有隐私协议或政策,即使认真研读,也不可能把所有的隐私政策都看完。隐私政策等所谓披露告知之所以失败,不仅与复杂烦琐的披露有关,也与消费者跳过及略读被披露信息的“无所谓”心理相关。①参见[美]欧姆瑞·本·沙哈尔、[美]卡尔·E.施奈德:《过犹不及:强制披露的失败》,陈晓芳译,北京:法律出版社,2015年,第14-77页。其次,被强迫的同意不是经营者通过行为强迫消费者签署同意,而是指“自愿”从“知情和自愿”中分离出来,具体是指在数字环境中的消费者对同意的选择极其有限,更不用说自由地讨价还价。一方面,在数字经济中的平台容易居于垄断地位,例如所谓形成“六巨头”(三巨头如BAT、新三巨头如TMD)②BAT(百度、阿里、腾讯)是公认的我国互联网三巨头,而随着互联网的发展,又有三家企业进入了人们的视野,它们被认为是互联网新三巨头TMD(今日头条、美团、滴滴)。的局面,这在客观上让消费者在使用方面的可选择性不多;甚至每个平台公司提供的隐私政策都基本一致,造成实际没有可选择余地。另一方面,经营者可能采用一次概括授权、默认授权、与其他授权捆绑、停止安装使用等变相强制的方式,取得算法消费者的同意。此时的“同意”只是一种无可奈何、不得不作出的“同意”,难谓真实意思表示。③张新宝:《个人信息收集:告知同意原则适用的限制》,《比较法研究》2019年第5期,第15页。最后,无行为能力的同意是将“自愿”从“知情和自愿”中剥离出来。我国《个人信息保护法》第28条和第31条都将未满14周岁的未成年人作为个人信息保护的特殊对象。可见,在《个人信息保护法》中对于已满14周岁未满18周岁未成年人的保护并无特殊规定,即与18岁以上成年人均适用于一般规则。已满14周岁的未成年人在民法上为限制民事行为能力人,其作出的法律行为除纯获利益行为或由监护人同意、追认外一般无效。《个人信息保护法》中的“同意”作为一种意思表示,④陆青:《个人信息保护中“同意”规则的规范构造》,《武汉大学学报(哲学社会科学版)》2019年第5期,第123页。与民法中意思表示中“同意”的效力存在着悖论。

同意制度作为个人在数字经济社会中信息保护的一种机制,赋予个人的信息自决权或自我管理控制权。但同意机制无论在理论上还是实践中⑤有学者对此作了进一步的阐述,认为塑造同意神话存在有自愿困境、结构困境、认知困境、外生性困境和时间困境等六个误区。See Charlotte A.Tschider,“The Consent Myth:Improving Choice for Patients of the Future”,Washington University Law Review,vol.96,no.6,2019,pp.1519-1532.都存在着“困境”,并且难以执行。⑥参见赵园园:《互联网征信中个人信息保护制度的审视与反思》,《广东社会科学》2017年第5期,第214页。这种困境就是,流于形式的告知义务导致同意的作出缺乏实质性的“知情”和“自愿”,此“虚化”的“告知-同意”模式让平台经营者取得了攫取个人信息的“合法性”。最终,同意也就成为一张平台企业处理个人信息的自由通行证。

(三)算法消费者个人信息保护中过程保护的僵硬性与结果保护的不足

《个人信息保护法》作为个人信息保护的基本法,可分为“过程保护”与“结果保护”两种模式。⑦参见蔡培如:《个人信息保护原理之辨:过程保护与结果保护》,《行政法学研究》2021年第5期,第91页。但在个人信息保护场景中并不区分信息的媒介是电子信息抑或其他类型,也不区分信息的收集方式为线上或线下。电子信息、线上收集个人信息与传统媒介信息、线下收集个人信息的保护力度应有所差别。即使是线上信息的收集又可以是否涉及算法介入的场景区分为有无算法收集、分析的方式。因此,个人信息保护在不同场景中的保护强度和适用上均有所差别。但遗憾的是,《个人信息保护法》在过程保护和结果保护的模式中均未对此进行区分,体现了其一定的僵硬性与缺陷。

个人信息中的过程保护主要是指信息处理过程中,个人参与所享有的各类权利。如知情权、决定权、查询和复制权、同意与撤回权、可携带权以及可删除权等等。以算法消费者知情权为例,作为消费者的知情权规定于《消费者权益保护法》第8条。据此,消费者享有知悉其购买、使用的商品或者接受的服务的真实情况的权利。《电子商务法》第17条规定了电子商务经营者应当全面、真实、准确、及时地披露商品或者服务信息,作为线上交易的算法消费者自然可以适用该条。从解释论的角度,《消费者权益保护法》第8条和《电子商务法》第17条规定知情权的范围仅限于商品或服务的真实情况,均不涉及商品或服务外的情况,如在涉及算法介入的人工智能交易场景中,消费者似乎难以获得算法等自动化决策介入或个人信息被处理过程的各类信息。对此,算法消费者在个人信息方面的知情权只能寻求《个人信息保护法》的救济。《个人信息保护法》第44条规定了个人在个人信息处理的知情权、决定权,但该知情权的规定过于原则性,对于知情权的范围与程度需要进一步解释。一般而言,个人知情权与个人信息处理者的告知义务为一体两面。与个人的知情权原则性相比,《个人信息保护法》对于个人信息处理者的告知义务做了比较细致的规定,如第17、22、23、30条分别规定了个人信息处理者在处理个人信息前、转移个人信息、向其他个人信息处理者提供个人信息以及处理敏感个人信息等情形的告知义务。但上述个人的知情权和个人信息处理者的告知义务适用对象为《个人信息保护法》中的“个人”,并无区分不同主体在不同场景中或不同类型消费者(个体)的知情权,这将导致在法律适用上的僵硬性。

此外,结果保护的内涵主要是利用立法、行政资源规范个人信息处理行为,将个人信息处理过程中造成的可能损害与风险监管控制在可接受的程度之内。然而,结果保护模式的缺陷在于未能从正面打破个人参与乃至控制信息处理过程的意义。①参见蔡培如:《个人信息保护原理之辨:过程保护与结果保护》,第97页。笔者认为,无论个人信息保护中的过程保护模式,抑或结果保护模式,整体抽象人格的保护方式具有僵硬性。在数字经济社会中,个人信息的保护强度与个人信息流通、利用效率之间具有相关性。不区分具象人格和适用场景的一刀切式个人信息保护,会导致个人信息保护与数字经济发展之间处于失衡状态。简而言之,算法消费者是数字经济中的重要参与主体,如何在算法消费者个人信息保护与信息流通处理、利用效率之间保持利益平衡是算法消费者保护的一项重要议题。

三、算法消费者个人信息保护中过程保护的路径完善

(一)以算法消费者作为具象人格的个人信息保护新解

1.同意机制的多元化。前文已论及,同意机制已经陷入形式化的窠臼之中。法律经济学研究认为,强制性规则是保护消费者最有效,也是最冒险的监管方法;最冒险在于将产生提高价格、缩小市场规模或者征收消极的交叉补贴的后果,因此通过使用大数据,根据预期的个人需求为每个用户量身定制产品进行个性化规则,既能够提升有效性,又能降低风险性;个性化保护是一个新颖解决方案。②参见[美]欧姆瑞·本·沙哈尔、[以色列]阿瑞尔·博拉:《合同法中强制性规则的个性化》,刘颖、叶哲君译,《民商法论丛》2020年第2期,第133页。在互联网个人信息保护中的普遍免费模式有保护不足的问题,尤其是虚化了个人信息保护的“同意原则”。①参见张新宝:《“普遍免费+个别付费”:个人信息保护的一个新思维》,《比较法研究》2018年第5期,第3页。因此,个人信息保护需要引入个别付费模式加以矫正和补充,形成与“普遍免费”模式并行的“普遍免费+个别付费”双重模式。②参见张新宝:《“普遍免费+个别付费”:个人信息保护的一个新思维》,第12页。同时,在具体场景中,对信息主体的经济激励机制可以作为同意的促成机制,有益于个人信息保护和数据合理使用的平衡。③蔡培如、王锡锌:《论个人信息保护中的人格保护与经济激励机制》,《比较法研究》2020年第1期,第106页。

上述讨论为算法消费者在个人信息保护中的“同意”机制的多元化解释提供了方案。在比较法上,《加州消费者隐私法案》(California Consumer Privacy Act)中即对消费者主体进行区分,赋予企业通过差异化价格或费率向消费者提供个人信息经济激励计划;如第1798.125节(a)、(b)款分别规定了企业为了个人信息收集、出售、删除等向消费者提供经济激励,并在《加州消费者隐私法案条例》(California Consumer Privacy Act Regulation)第999.307节的“经济激励告知”中作出细致规定。有学者建议对同意机制的多元化有所回应,如“信息业者、政务部门处理个人信息,应当事先征得信息主体的同意,但法律、行政法规另有规定的除外”④张新宝、葛鑫:《个人信息保护法(专家建议稿)及立法理由书》,北京:中国人民大学出版社,2021年,第35页。。遗憾的是,《个人信息保护法》针对个人信息进行不区分主体的统一保护。但算法消费者与一般个人也有一定差异性,尤其需要考虑算法消费者与平台经营者之间在个人信息保护和信息流通、数据使用中的利益平衡。因此,为算法消费者提供“经济激励+普遍免费+个别付费”的个性化同意机制方案,可以满足不同类型算法消费者的同意机制需求,也可回避“同意”机制一刀切模式的形同虚设弊端。

2.算法应用下的个性化披露。从《消费者权益保护法》规定的消费者知情权和经营者告知义务观察,告知义务的范围并非漫无边际的全面披露,而是要实现有效的告知,信息披露的程度无限制地扩大不当然等于消费者获得有效保护。因为无限制地扩大告知义务范围不符合经营者和消费者的利益需求,甚至可能导致交易成本的边际递增。⑤刘颖:《经营者沉默欺诈认定的矫正与回归》,《华东政法大学学报》2020年第5期,第191页。基于此,以数字技术发展的角度考虑,通过算法和数据的应用实现个性化披露是另一个解决方案。从法律制度发展的脉络来看,立法一直在追求法律规则的个性化,但限制于技术条件,只能通过法律解释进行规则的类型化分析。个性化法律的关键目的是利用大数据、区块链等数字技术进行监管,这有利于作为数据主体的算法消费者,而不被个性化法律剥削或计算。随着大数据、预测算法(prediction algorithm)和即时通信(instantaneous communication)等有关技术的发展,法律为实现其目标而发现和传达相关个人背景的成本得以减少,因此,实现量身定制、准确且高度语境化的法律目标变得更加切实可行。⑥Anthony J.Casey,Anthony Niblett,“A Framework for the New Personalization of Law”,The University of Chicago Law Review,vol.86,no.2,2019,p.335.例如,经营者通过用户画像分析和个性化算法推荐向算法消费者进行精准推送广告或商业营销,此即为量身定制、准确的个性化方式的运用。

平台经营者对消费者了解得越多,就意味着向他们提供相关信息的责任越大,因为更细粒度的算法消费者数据画像意味着更细粒度的披露。⑦Christoph Busch,“Implementing Personalized Law:Personalized Disclosures in Consumer Law and Data Privacy Law”,The University of Chicago Law Review,vol.86,no.2,2019,pp.327-328.个性化披露的优势在于定制披露项目的显著性级别和信息披露的复杂程度,从而减少信息过载的风险。因为当前统一披露制度的关键问题是信息超载的风险,每条信息的同等权重加剧了这一风险;此时,每位消费者都得到了相同的信息,但并不是所有信息对每个人都同等重要。①Philipp,Hacker,Personalizing EU Private Law:From Disclosures to Nudges and Mandates,European Review of Private Law,vol.25,no.3,2017,p.667.因此,个性化披露的本质是由消费者自身的大数据画像决定其所能看见的信息披露内容。

基于此,在数字时代中算法的大规模应用下,应赋予算法消费者选择是否同意平台经营者利用个性化信息进行用户画像的权利,如果算法消费者选择进入隐私友好模式,那么平台经营者可按照传统统一披露的方式履行告知义务。但如果其选择个性化的用户画像,则课以平台经营者个性化披露的义务,通过个性化算法来约束平台经营者。

3.《民法典》视角中的算法消费者个人私密信息的保护。我国《民法典》采取了隐私权和个人信息二元化的架构,②参见许可、孙铭溪:《个人私密信息的再厘清》,《中国应用法学》2021年第1期,第3页。对隐私权和个人信息规定了不同的保护路径。但《民法典》1034条第3款规定“个人信息中的私密信息,适用有关隐私权的规定;没有规定的,适用有关个人信息保护的规定”,个人信息中的私密信息保护可以经由该条突破二元化架构。从解释上观察,将个人信息中的私密信息保护直接适用隐私权的规定,可见立法者对于私密信息突出保护的用意极其明显。如前述,算法消费者作为民事主体中的自然人,自然可以适用《民法典》关于个人信息保护的规则。因此,算法消费者的个人私密信息保护亦有隐私权保护的优先适用路径。

算法消费者的个人私密信息有别于传统消费者的个人私密信息。在传统条件下,由于受制于技术条件,经营者无法有效获取消费者有关消费需求、消费倾向等方面的信息。③黄薇主编:《中华人民共和国民法典人格权编解读》,北京:中国法制出版社,2020年,第203页。传统消费者的个人私密信息,更多是一些可通过物理方式获知具有身份特征且不愿被人知晓的隐私。但在数字社会中,算法消费者的网络行踪痕迹、消费偏好、消费需求等具有隐私性的信息,被平台经营者利用智能算法技术肆意地隐蔽性收集和分析从而形成用户画像。基于个人私密信息既需要满足可具识别性的客观特征,也应满足不愿被他人知晓的主观特征,其范围存在一定弹性空间,不能通过立法列举式的规定进行确定。因为不同行业、领域的消费者和不同类型的消费者,如算法消费者和传统消费者对于“不愿他人知晓”的主观感受程度截然不同。总之,个人私密信息应当根据社会正常交往、交易关系等各种动态变化的因素互相作用、影响形成的不同场景和对象予以确定。④参见冉克平:《论〈民法典〉视野下个人隐私信息的保护与利用》,《社会科学辑刊》2021年第5期,第109页。以算法消费者为例,在不同交易关系和类型中可能影响消费者选择或决定形成的消费偏好、网络浏览痕迹等可以被认定为私密信息。

再者,算法消费者的个人敏感信息与个人私密信息具有一定重叠部分。《民法典》中个人信息和个人私密信息主要是从私法保护路径上进行区分,《个人信息保护法》从个人信息处理规则的不同区分为个人信息和个人敏感信息,二者在分类的标准和目的上均不同。有学者在此基础上将私密信息分为敏感隐私信息和非敏感隐私信息。⑤参见冉克平:《论〈民法典〉视野下个人隐私信息的保护与利用》,第110页。对于算法消费者而言,其个人私密信息主要是指不想被经营者所知晓,或者一旦被知晓可能对用户画像产生影响的个人信息,例如读书记录、电影购票记录和购物订单记录等网络行踪轨迹等。但算法消费者的个人私密信息范围具有一定的个性化特征,因此可结合同意多元化机制认定不同算法消费者个人私密信息的场景。

最后,个人私密信息保护与个人信息非私密保护在法律效果上有明显差别。个人私密信息可基于《民法典》第1034条第3款的指引性规定,适用《民法典》第1033条及《民法典·侵权责任编》中关于侵害隐私权的请求权基础,并获得侵权责任的救济。必须指出的是,《民法典》第1033条处理他人的私密信息的例外要件是“除法律另有规定或者权利人明确同意”,此处的“权利人明确同意”与《个人信息保护法》第14条的“在充分知情的前提下自愿、明确作出同意”具有不同法律意义。前者是基于隐私权适用的授权,后者为个人信息保护法中的“告知+同意”机制的形式要件履行。

(二)算法消费者自动化决策拒绝权:从形式到实质控制

从平台自主利用算法进行商业化运作以来,消费者都是被动地或被默认地不自主地成为算法消费者,以至于算法消费者被算法悄无声息地“算计”和“剥削”。赋予算法消费者参与自动化决策的控制权意义在于,让消费者充分自主地评估算法介入场景的风险,并决定是否参与该场景的各类行为之中,本质上为自主选择权。

《个人信息保护法》第24条规定了个人的自动化决策的拒绝权,该规定是针对算法消费者的特殊规定,并赋予算法消费者参与自动化决策的拒绝权,也是第一次在法律中确认了以算法为核心的自动化决策可由个人决定是否参与的权利,具有重要历史意义。但该条赋予算法消费者参与自动化决策拒绝权也有不足之处,其根本问题在于该拒绝权仅有形式意义上的控制权,并且在适用范围上局限于“信息推送”和“商业营销”。对此,比较法上有关自动化决策拒绝权在适用条件、方式和适用范围上规定得更加明确具体。例如,欧盟《通用数据保护条例》第四节专门规定了拒绝权与自动化的个人自决,其中《通用数据保护条例》第21条规定了拒绝权的适用条件与方式;第22条规定了自动化的个人自决适用范围不限于识别分析,主要保护数据主体不受基于自动化处理得出决定的制约,避免对数据主体产生影响。我国《个人信息保护法》第24条规定的拒绝权在适用上具有一定的局限性,留给了法律解释的空间。我国互联网服务监管机构注意到了以算法为核心的自动化决策规制的不足,《互联网信息服务算法推荐管理规定》中的第17条赋予了用户关闭算法推荐服务的选择权。相比《个人信息保护法》第24条,该规定扩大了用户的算法推荐服务关闭权的适用范围,突破了“信息推送”和“商业营销”的范围,而是适用于所有算法推荐服务的场景。但该规定仅为部门规章,主要是用于监管机构规范互联网信息服务算法推荐活动,并非从法律、法规层面赋予算法消费者(用户)私法意义上的自主拒绝权(关闭权)。

从实证法分析,我国《消费者权益保护法》第9条第1款规定了消费者自主选择权,即消费者享有自主选择商品或者服务的权利;在该条第2款中进一步规定了自主选择权的范围。在传统商业消费模式中,为了降低信息不对称损害消费者权益的影响,消费者自主选择权的范围基本上包括经营者的选择、商品品种或者服务方式的选择以及自主订立合同等。然而,在现代互联网消费模式中,尤其是以算法和大数据共同嵌入的交易行为之中,经营者和算法消费者交易的除商品或服务本身的信息不对称外,还造成新型的技术信息不对称。基于此,笔者认为可对《消费者权益保护法》第9条第1款的消费者自主选择权进行扩大解释,将算法消费者算法(自动化决策)的自主选择权纳入作为消费者自主选择权范围之内。由此,构建算法消费者私法意义上的自动化决策的自主选择权,赋予消费者从自动化决策的形式拒绝到实质控制的权利。

(三)算法个人信息处理者的信息信义义务

在数字时代的消费场景中,算法消费者点击“同意”后即开启了信息被处理的大门。数字算法场景中信息处理具有复杂性、隐蔽性和技术性等特征,即使算法消费者在信息处理过程中可享有知情权、查阅权、删除权和可携带权等过程保护的权利。但不可改变的窘境是,个人信息或数据一旦经“同意”机制获得自由的通行证之后,算法消费者几乎完全失去了个人信息的控制力。此时,与其通过利益平衡赋予或规定各项权利、机制加剧双方的矛盾状态,还不如通过“信任”的粘合剂来黏合经营者与算法消费者之间的关系。

信息信义义务是传统信义义务向数字社会的延伸。信义义务的范围具有一定的开放性,并且随着社会经济的变化而不断发展。新型忠实关系之程序持续进行中,依服务条款内容、托付财产或权利之本质、交易成立之目的及诱因、被委任之个人或机构对委托人控制影响力之有无以及对受任人违背及滥用信任行为之诱惑等内容而定。①[美]Tamar Frankel:《忠实法》,林鼎钧、翁祖立译,台北:台湾新学林出版股份有限公司,2016年,第62页。忠实关系不仅是人与人之间信赖之基础,也是社会制度凭以建立之信赖基础。②[美]Tamar Frankel:《忠实法》,第91页。信任对于可持续的数字未来至关重要,促进信任的隐私规则可以创造个人和社会价值。③Neil Richards and Woodrow Hartzog,“Taking Trust Seriously in Privacy Law”,Stanford Technology Law Review,vol.19,2016,p.472.因此,在数字时代,以算法和大数据主导的网络服务提供商与用户(算法消费者)之间的关系具有类似性,信息信义义务可以作为一种新形态的信义义务。丹尼尔·沙勒夫(Daniel Solove)认为,在数字时代里数据企业收集了大量个人信息,数据企业和个人之间存在信义关系,需要通过信义法指导并制定完善的政策对此进行规制。④Daniel J.Solve,The Digital Person:Technology and Privacy in the Information Age,New York:New York University Press,2004,pp.102-105.巴尔金教授(Balkin)认为许多网络服务商以及收集、分析、使用、买卖和分配个人信息的云计算公司应视作顾客和用户的信息受托人。⑤Jack M.Balkin,“Information Fiduciaries and the First Amendment”,UC Davis Law Review,vol.49,no.4,2016,p.1185.信息信义义务受托人不能诱使终端用户(算法消费者)信任他们以获取个人信息,然后以背叛这种信任的方式使用这种信息,这不利于终端用户(算法消费者)的利益。⑥[美]杰克·巴尔金:《算法社会的三大法则》,刘颖、陈瑶瑶译,《法治现代化研究》2021年第2期,第193页。

关于信息信义义务的内涵和范围,有学者将信息隐私法中的信义义务内容列为谨慎义务(Discretion)、诚实守信义务(Honesty)、保护义务(Protection),并引入忠实义务(Loyalty)作为隐私的基本价值。⑦Neil Richards and Woodrow Hartzog,“Taking Trust Seriously in Privacy Law”,pp.458-465.也有学者从数据隐私与用户期待关系中提出信息信义义务的范围,即信息信义义务的标准可以确保在充分保护个人的同时,以数据为中心的业务模型可以继续运行。可见,信息信义义务与传统信义义务的内涵与特征基本一致,只是在每项内容中融入了信息和隐私保护的元素。在数字时代,值得信任意味着谨慎对待我们的数据、诚实对待数据实践的风险、保护我们的个人信息,最重要的是忠诚于我们这些数据主体。⑧Neil Richards and Woodrow Hartzog,“Taking Trust Seriously in Privacy Law”,p.501.信息信义义务在我国实证法上也有所回应,例如《个人信息保护法》第5条后句、《中华人民共和国数据安全法》第8条、《网络安全法》第9条以及《互联网信息服务算法推荐管理规定》第4条对信息信义义务作了大致的规定。综上,通过解释上述条文课以经营者信息信义义务,可以让算法消费者获得从个人信息收集、信息处理和信息应用的全过程的保护,以此弥补同意机制的缺陷。

四、算法消费者个人信息的公益诉讼保护

(一)基于个人信息保护公益诉讼的算法消费者个人信息保护

1.提起公益诉讼的主体。《个人信息保护法》第70条规定的公益诉讼提起主体范围为“人民检察院、法律规定的消费者组织和由国家网信部门确定的组织”。首先,市级人民检察院是个人信息公益诉讼保护的提起主体之一。根据《最高人民法院、最高人民检察院关于检察公益诉讼案件适用法律若干问题的解释》(以下简称为《公益诉讼司法解释》)第5条规定,检察机关的民事公益诉讼提起主体为市(分、州)人民检察院。其次,法律规定的消费者组织也是个人信息公益诉讼的提起主体,此处是《个人信息保护法(三审稿)》在《个人信息保护法(二审稿)》的基础上增加的内容。法律有广义上的法律和狭义上的法律之区分,此处需要进一步解释。一方面,根据立法资料解释,在草案三次审议稿第七十条中增加“法律规定的消费者组织”是为了与消费者权益保护法有关规定相衔接,似乎对“法律”应作狭义上解释,即仅包括全国人大或全国人大常委会制定的法律。另一方面,作为地方性法规的《深圳经济特区数据条例》也对数据公益诉讼作出相应的规定,例如在其第98条中将数据公益诉讼的提起主体限定为“法律、法规规定的组织可以依法提起民事公益诉讼”,此处的法律与法规作并列处理,也仅指狭义上的法律。故而,《个人信息保护法》所涉“法律规定的消费者组织”应解释为狭义上法律规定的消费者组织。根据现有法律规定的消费者组织,主要是指《消费者权益保护法》第47条规定的“中国消费者协会以及省级消费者协会”。最后,国家网信部门确定的组织也是个人信息保护的提起主体。网信部门是国家互联网信息管理的主体部门,《个人信息保护法》第70条将个人信息公益诉讼提起主体规定为“国家网信部门确定的组织”,一定程度上给予了网信部门自由度。此处的“国家网信部门”应作限定解释,仅指中华人民共和国国家互联网信息办公室,并不包括省级以下网信部门。

上述三类个人信息保护公益诉讼提起主体是否具有顺位,《个人信息保护法》第70条仅做了列举性规定,未做进一步规定。在学者建议稿中,张新宝教授认为人民检察院提起个人信息公益诉讼具有补充地位。①参见张新宝、葛鑫:《个人信息保护法(专家建议稿)及立法理由书》,第232页。另外,从《民事诉讼法》第55条的变迁来看,《民事诉讼法》第55条于2017年修正时增加了第2款。可见,检察院在公益诉讼中具有一定的谦抑性。对于消费者组织和国家网信部门的顺位上,需要在解释上进一步研究。基于前述全国人大宪法与法律委员会的修改意见报告,消费者个人信息公益诉讼应作为个人信息公益诉讼的一种类型。所以在算法消费者的个人信息公益诉讼问题上,应先由消费者组织提起,再由国家网信部门确定的组织作为诉讼提起主体。如果是除消费者外的个人信息保护公益诉讼,此时消费者组织并非诉讼提起主体,自然由国家网信部门确定的组织作为公益诉讼提起主体。

2.个人信息公益诉讼制度的其他要件。个人信息公益诉讼的适用范围,首先应为个人信息处理者违反个人信息保护法规定处理个人信息。在算法消费者个人信息保护场景,应为个人信息处理者(包括互联网平台经营者、平台内经营者)违反个人信息保护法规定处理算法消费者的个人信息时,可适用个人信息公益诉讼的保护。就文义解释上而言,似乎所有违反个人信息保护法规定处理算法消费者个人信息的,都可被提起公益诉讼。但是,基于公益诉讼是私益诉讼的补充,个人信息公益诉讼仍应从私法上的请求权基础向个人信息不法行为人主张承担相应的民事责任,因此需要《个人信息保护法》结合其他民事规范进行适用。

(二)基于消费者公益诉讼的算法消费者保护

《消费者权益保护法》第47条规定了消费者公益诉讼,但该条仅笼统地规定对“侵害众多消费者合法权益的行为”可提起诉讼。《最高人民法院关于审理消费民事公益诉讼案件适用法律若干问题的解释》(以下简称为《消费民事公益诉讼司法解释》)对于消费民事公益诉讼制度作出比较详细的规定,《公益诉讼司法解释》第1条回应了消费民事公益诉讼的适用范围限定于“经营者侵害众多不特定消费者合法权益……”,并在第2条对于适用《消费者权益保护法》第47条的范围做了列举,该条第5项规定“其他侵害众多不特定消费者合法权益或者具有危及消费者人身、财产安全危险等损害社会公共利益的行为”也可纳入消费民事公益诉讼的适用范围。前文的研究已经论及,从解释上可将《消费者权益保护法》中的知情权和自主选择权的主体扩大到算法消费者,即其在数据、算法主导的消费场景中对于算法等自动化决策、算法运行等情况的知情权和自主选择权。据此,经营者基于算法或数据等技术性手段侵害消费者的行为可解释为“其他侵害众多不特定消费者合法权益损害社会公共利益的行为”的一种类型。因此,算法消费者可以通过消费民事公益诉讼获得救济。

消费民事公益诉讼中的提起主体除了消费者协会组织外,还包括检察院。因为《消费民事公益诉讼司法解释》第1条第2款规定了法律规定或全国人大及其常委会授权的机关和社会组织提起的消费民事公益诉讼也适用该司法解释,《民事诉讼法》(2017年)第55条第2款明确规定了人民检察院有权提起消费公益诉讼。据此,人民检察院也可作为算法消费者民事公益诉讼的提起主体。

结论

在数字经济社会,传统消费者与经营者的模式向算法消费者和平台经营者模式转变,消费者保护框架亦从传统消费者到算法消费者过渡。现行《民法典》《消费者权益保护法》《电子商务法》《个人信息保护法》所构造的消费者个人信息保护体系,均以传统消费者保护场景作为参照物,不能很好地应对数字经济社会复杂的智能算法技术恣意侵害算法消费者的情况。算法消费者的保护问题,将是数字经济社会中的重要课题之一。算法消费者不仅是民事主体中的自然人,也是消费者的一种新类型,还是电子商务的重要参与者。因此,算法消费者个人信息保护体系的构建,需要在《民法典》《个人信息保护法》《消费者权益保护法》《电子商务法》等法律的基础上进行法律衔接与适用空间的解释或立法构造。

猜你喜欢

保护法经营者个人信息
我国将加快制定耕地保护法
个人信息保护进入“法时代”
《经营者》征稿启事
未成年人保护法 大幅修订亮点多
警惕个人信息泄露
我为《英雄烈士保护法》尽了绵薄之力
做一名聪明的集团医院经营者
计算营业额
阿特拉斯·科普柯空压机——精明采石场经营者的不二选择