数字时代隐私权保护的立法因应
2024-05-01李姝卉
●李姝卉
在报纸、广播、电视作为传播媒介的时代,人们接收信息并将其记录于纸面,信息获取的速度相对较慢,自然人隐私泄露的范围和扩散程度相对较小。在计算机和数字技术出现后,人类接受服务、线上线下消费、浏览网站等行为均被数字化,言行基本有数据可查。〔1〕参见[美]布鲁斯·施奈尔:《数据与监控:信息安全的隐形之战》,李先奇、黎秋玲译,金城出版社2018 年版,第16 页。由此带来了隐私权保护的诸多难题:部分个人信息处理者以保障安全和发展数字经济的名义,滥用数字技术侵犯自然人隐私权;传统隐私权保护机制被数字技术逐渐瓦解;数字时代的自然人隐私权被数字技术压缩。立法作为规制社会实践的重要手段,理应预防、评价和保护数字时代的隐私权。当前,我国采用了隐私、个人信息和数据三分的立法模式。其中,个人信息和未匿名化的数据可能包含隐私,数据和个人信息处理者应承担保护隐私权的更多义务和责任。目前,我国学界对数字时代隐私权立法保护问题的研究大致集中在三个层面:一是在数字时代隐私权保护的制度构建层面,学界提出了以社会本位保护数字时代的隐私权、将隐私作为限制公共权力和保护弱势群体的法律义务、探索隐私权保护的市场路径和伦理原则等制度建构方案。〔2〕参见余成峰:《数字时代隐私权的社会理论重构》,载《中国法学》2023 年第2 期,第184 页;邱遥堃:《作为义务的隐私:数字时代下的挑战与应对》,载《现代法学》2023 年第6 期,第85 页;郑志峰:《人工智能时代的隐私保护》,载《法律科学》2019 年第2 期,第51 页。二是在利益平衡层面,数字时代的隐私权保护需要协调好数据共享与隐私权保护、数据流转与人格利益排他性、保护人格尊严与维护公共利益等关系。〔3〕参见任颖:《数字时代隐私权保护的法理构造与规则重塑》,载《东方法学》2022 年第2 期,第192-195 页;吴晓丹:《私密信息合理使用的规范体系及其限制》,载《华东政法大学学报》2023 年第5 期,第69 页。三是在隐私与个人信息的关系层面,有学者提出应以隐私利益为基础,建立个人信息保护制度;建立保护较严格的隐私权、兼具防御与利用价值的信息人格权和数据所有权的数字权利体系;区分适用隐私权与个人信息权益规则等观点。〔4〕参见李忠夏:《数字时代隐私权的宪法建构》,载《华东政法大学学报》2021 年第3 期,第42、48 页;申卫星:《数字权利体系再造:迈向隐私、信息与数据的差序格局》,载《政法论坛》2022 年第3 期,第89 页;王利明:《和而不同:隐私权与个人信息的规则界分和适用》,载《法学评论》2021 年第2 期,第15 页;丁晓东:《隐私权保护与个人信息保护关系的法理——兼论〈民法典〉与〈个人信息保护法〉的适用》,载《法商研究》2023 年第6 期,第73 页。但是,现有研究存在隐私与个人信息界分不清晰、数字时代隐私权法律救济讨论不完善、数字时代隐私权保护国际规则不全面、尚未针对我国数字时代隐私权保护立法问题作出较全面的回应等不足。在上述关于数字时代隐私权立法保护问题的研究基础上,本文认为,数字时代隐私权保护的制度完善,应厘清数字技术带来的隐私权消解风险和制度建构难题,借鉴司法实践中提炼出的数字时代隐私权保护方案,以期为中国数字时代隐私权法律保护体系的完善提供一定思路。需要说明的是,本文以数字时代为背景,不是逐一论述传统时代隐私权保护涉及的肖像权、名誉权、言论与出版自由权、刑事司法中的隐私权等问题,而是结合数字技术实践,分析在个人信息和数据的收集、处理等活动中产生的隐私权保护问题,并从制度完善层面提出可能的解决方案。
一、数字时代隐私权保护中的权利消解风险
在数字时代,收集人们行为与生物识别特征数据的数字监控和人脸识别设备无处不在,由此引发的以保障社会秩序和安全、促进生活便利和经济发展为借口滥用数字技术侵犯人们的隐私权的情况越来越多,这些都存在潜在的权利消解风险。
(一)以保障安全为名对隐私权的潜在威胁
自“9·11 事件”后,美国对信息隐私的讨论逐步偏向安全领域,在国家安全与自然人隐私权保护的利益衡量上,倾向通过遏制自然人对私密信息、隐私空间和活动的控制权,换取国家和社会的安全与稳定,这一点从《美国爱国者法案》(USA Patriot Act)扩大其情报机构权力的规定便可窥知一二。〔5〕See Lee A.Bygrave, Privacy and Data Protection in an International Perspective, Scandinavian Studies in Law, Vol.56, 2010, p.177.在此背景下,用户相对于数据收集和使用主体处于劣势地位,用户的自主选择权和知情权较难得到保护,企业隐私权保护的成本与回报不匹配,亦增加了其滥用技术侵犯自然人隐私权的可能。
数字监控和人脸识别技术以事前风险预防为目的,但平台企业和其他个人信息处理者滥用技术的行为会侵犯自然人控制其隐私的权利。公共场所设置的人脸识别监控可帮助公安机关快速寻找犯罪嫌疑人,更好地预防可能存在的公共安全风险。但是,学界对该技术应用的正当性和隐私权保护的实际效果不无疑问。
第一,数字监控以事前广泛的数据收集行为为基础,将私密信息用于预测未来可能存在的不法行为或在发生犯罪后追查嫌疑人行踪,具有“预测性、广泛性和前置性”的特征。〔6〕参见张衠:《大数据监控社会中的隐私权保护——基于美欧实践的观察》,上海人民出版社2021 年版,第52-53 页。“安全的建立存在于对行为自由的限制之中”,〔7〕[德]阿明·格伦瓦尔德主编:《技术伦理学手册》,吴宁译,社会科学文献出版社2017 年版,第625 页。但无休止的人脸识别监控和无限期的数据存储,加之不同来源的数据相互综合,可形成对个人行为方式、爱好、习惯等特征的数据画像,使自然人的私密信息随时处于被他人利用、泄露的危险状态。
第二,数字监控和人脸识别技术的广泛使用,打破了以划分公共空间和私人空间为基础的隐私合理期待理论,公权力机关干预私人生活的界限趋于模糊,而数字监控对隐私权的侵蚀无法逆转。〔8〕参见张衠:《大数据监控社会中的隐私权保护——基于美欧实践的观察》,上海人民出版社2021 年版,第48 页。有关部门在公共场合设置人脸检测、人脸识别、人脸检索等系统,用于监控、防止和事后追查违法和犯罪行为,但这是否默认在公共场合人们放弃隐私期待?当公共安全与隐私自由发生冲突时,立法应如何衡量二者的价值位阶?
第三,部分主体在储存和处理自然人的人脸识别信息时,存在私密信息保护不当的隐患。我国小区和园区的物业管理公司收集人脸识别信息大多以提供门禁、入园便利和进行安全审查为由,但管理者缺乏对该类私密信息安全、自然人隐私权的合理保护措施,部分个人信息处理者以保障安全等名义采取的某些措施可能威胁到自然人私密信息安全。
(二)数字经济发展对隐私权保护机制的冲击
数字平台企业收集和利用用户的私密信息,可为用户提供个性化和精准化的产品与服务,提升数字经济发展水平和社会生活的便利性。与此同时,部分平台企业滥用用户隐私以强化自身优势地位,并以此干扰用户自主行使隐私权,从而对隐私权保护机制形成冲击。
第一,在数字时代,人们想获得个性化、定制化的使用体验和更多便利,就需要让渡更多的隐私。〔9〕See Lee Rainie & Janna Anderson, The Future of Privacy, Pew Research Center (18 December 2014), https://www.pewresearch.org/internet/2014/12/18/future-of-privacy/.对平台企业而言,私密信息意味着商业价值,用户数据信息是企业“市场营销的原材料”,〔10〕[美]弗兰克·帕斯奎尔:《黑箱社会:控制金钱和信息的数据法则》,赵亚男译,中信出版社2015 年版,第95 页。但数据和信息收集者对自然人私密信息的收集、分析和预测的行为可能侵犯自然人的隐私权。部分主体通过收集用户在网上发布的图片、文字等数字足迹,分析这些数据与个人喜好的相关性,形成对用户性格、情绪、心智等个人特征的准确预测和数据画像。〔11〕参见[美]特雷莎·M·佩顿、西奥多·克莱普尔:《大数据时代的隐私》,郑淑红译,上海科学技术出版社2017 年版,第96 页。具备预测性特征的数字技术、算法决策技术和机器学习技术,有助于商家精准获取用户的需求和喜好,提升数字经济发展水平。但是,公私主体借助数字技术扩大了其权力或权利,技术黑箱和不透明性亦给公私主体滥用数字技术提供了更多空间。自然人私密活动属于“动态隐私”,可能随时空变化而变化,〔12〕参见黄薇主编:《中华人民共和国民法典人格权编释义》,法律出版社2020 年版,第180 页。但在数字技术下,自然人的私密活动和私密信息可更轻易地被他人获取。数据分析者仅使用看似无害、不敏感的数据,就可以触及人们生活中敏感或私密的方面。
第二,在数字时代,人们放弃部分隐私权换取便利,促进经济发展,但在实践中并未形成有效保护用户隐私权的机制。隐私权人无法预测同意平台隐私政策的成本,也无法控制自己的私密信息与他人数据结合的后果,用户实质上陷入通过理性自主放弃隐私的悖论,用户同意机制在数字时代可能面临失效危机。〔13〕参见余成峰:《数字时代隐私权的社会理论重构》,载《中国法学》2023 年第2 期,第173 页。在一般情况下,权力与信息资源不可分割,但在数字时代,传统的“权力决定信息分配”已转向“信息决定权力分配”状态,〔14〕参见蔡文之:《网络:21 世纪的权力与挑战》,上海人民出版社2007 年版,第101 页。数字平台企业掌握着数字技术和大量的用户数据,并利用其与客户信息资源不对称的优势,提高对用户私密信息的控制能力。数字平台企业不断利用默认隐私政策和设计,引导用户提供部分私密信息,强化自身优势地位,并以此侵蚀用户的隐私权保护意识,实现对用户潜移默化和难以察觉的“改造”,逐渐让用户习惯用隐私换取便利,最终用户只能被迫以牺牲隐私为代价换取数字时代基本的生活和生存资源。从表面上看,是用户自主放弃了隐私权,实际上很多用户是在不知事物全貌和无法选择的境况下作出了决定,并未实质地行使隐私权。从用户体验角度看,以强化个人选择的方式保护隐私权,目的在于引导用户在充分理解隐私政策的基础上作出更审慎的选择,但这可能会让部分用户对频繁的“弹窗+选择加入”的通知方式感到麻烦和厌倦,此举不仅加重了用户的负担,而且未能使用户完整、准确地理解隐私权保护规则。〔15〕参见丁晓东:《个人信息保护:原理与实践》,法律出版社2021 年版,第95 页。
(三)数字时代隐私伦理的缺失
互联网中的数据泄露、技术漏洞、黑客攻击等问题反映出数字时代隐私权保护伦理的缺失。
第一,部分平台企业过分注重商业利益,通过牺牲对个人信息和数据的安全保障和隐私权保护,换取大规模私密信息收集和分析的利好。这反映出部分平台企业缺少责任伦理观念,为商业私益损害公益的数字伦理缺失现状。无论是杀毒软件McAfee 的创始人约翰·迈克菲在逃期间,因手机照片暴露其精确的位置数据被捕入狱,还是Facebook 多次遭黑客攻击,均反映出部分平台企业存在一定的隐私安全管理漏洞,该类伦理缺失的行为会对数字时代的自然人隐私权保护造成较大威胁。〔16〕参见[美]特雷莎·M·佩顿、西奥多·克莱普尔:《大数据时代的隐私》,郑淑红译,上海科学技术出版社2017 年版,第105-110 页。
第二,囿于技术限制和信息资源不平等的现状,国家公权力很难有效限制平台企业等主体的权利扩张,自然人隐私权保护面临隐忧。面对数字平台企业对“个人信息的过度采集、过度挖掘、算法驱动的自动化决策、个人信息泄露及非法流通利用”等滥用权利的行为,〔17〕参见王锡锌:《国家保护视野中的个人信息权利束》,载《中国社会科学》2021 年第11 期,第116 页。如果仅依靠行业自治和用户主张权利的途径治理,那么国家就会陷入强制性和威慑性不足的治理困境,故而隐私权的保护还需要依赖国家公权力。在实践中,平台企业垄断了丰富的数字技术和资源,与用户直接互动和接触,已成为影响社会和公众的“支配力量”。〔18〕参见范晓宇:《数据秩序的法律治理》,法律出版社2022 年版,第64-71 页。然而,囿于算法黑箱等问题,国家对其进行技术监管的难度较大,平台企业具有数据资源优势,国家公权力机关与平台企业存在信息资源不对等的问题,且平台内生态系统自我规制的空间较大,给国家监管和治理带来了较多技术与伦理难题。
二、数字时代隐私权消解风险的立法原因
在数字时代隐私权存在不断消解风险的情况下,立法应积极发挥其对隐私权保护的引导、强制、评价等作用,分析并解决数字时代的隐私权保护问题。我国以平衡数字时代隐私权保护与数据流动的价值冲突为立法目的,确立了以保护隐私权和个人信息权益、保障数据安全并立的立法模式。但是,我国现有的隐私权保护立法体系还存在问题。
(一)中国数字时代隐私权保护立法的既有模式
1.数字时代隐私、个人信息与数据三分的立法模式
在数字时代,我国并无专门的隐私权保护立法,而是围绕隐私权的保护,基于《数据安全法》《个人信息保护法》《民法典》采取了数据、个人信息和隐私并列的立法模式。其中,《数据安全法》注重保护数据安全,《个人信息保护法》侧重规制个人信息处理活动,《民法典》关注保护自然人隐私权。从利益衡量角度平衡个人信息、数据、隐私承载的数据利用和信息安全等价值冲突的做法,在我国司法实践中早已有之,〔19〕参见洪学军主编:《互联网案件审判研究》(第1 辑),法律出版社2022 年版,第165-166 页。且存在三种观点。第一种观点是,应对不同的个人信息作责任上的区分。个人信息包含私密信息、身份信息(如身份证号、账户信息、电话号)、已脱敏的个人信息(通过加工、处理后,与个人信息无关的数据)三类。其中,私密信息属于隐私,身份信息属于个人信息,已脱敏的个人信息属于数据,对上述三类信息应区分保护。第二种观点是,不应以侵害个人信息的类别为区分责任的标准,任何类型的个人信息均受法律同等保护。第三种观点是,应在个案中平衡信息利用和安全保障的关系,按照“先保护,再合理利用及共享发展”的基本原则,兼顾促进信息利用与权益保障的立法目的。〔20〕同上注,第165 页。第三种观点更为合理,因为个人信息、数据和隐私的互动关系会随着司法实践的不同而变化,立法受限于其滞后性而缺乏事先规制的可能,更合理的解决方式是风险预防与法律规制并行,辅之司法裁判有针对性地处理实践中个人信息、数据和隐私引发的具体价值冲突。
2.数字经济制度中的隐私权保护规范
第一,数据开放和再利用环节中的自然人隐私权保护制度。我国立法在促进数字经济发展时平衡了数据安全与隐私权保护的关系,“要建立合规高效的数据要素流通和交易制度,完善数据全流程合规和监管规则体系,建设规范的数据交易市场”;〔21〕《加快构建数据基础制度 加强和改进行政区划工作》,载《人民日报》2022 年6 月23 日,第1 版。在“保障用户隐私的前提下,调动行业协会、科研院所、企业等多方参与数据价值开发”;〔22〕《“十四五”数字经济发展规划》。数据资源的利用应确保“安全保护”和“开发利用”并行。〔23〕参见《北京市数字经济促进条例》第15 条。我国“开展政府数据授权运营试点,鼓励第三方深化对公共数据的挖掘利用”。〔24〕《中华人民共和国国民经济和社会发展第十四个五年规划和2035 年远景目标纲要》第17 章第1 节。例如,深圳市出台了《公共数据安全要求》,要求在数据收集、存储、传输、使用、加工、开放共享、交易、出境、销毁与删除活动中,保护网络安全和用户隐私;采用数据隐私计算技术实现数据共享的安全性等。〔25〕参见广东省深圳市《公共数据安全要求》(DB4403/T 271—2022)第7.3.1、9.6.2 条。《数据安全法》中规定“政务数据安全与开放”,要求国家机关应保护政务数据开放中的自然人隐私,在国家机关与第三方合作时须按照合同处理数据。该规定与地方立法共同形成了我国公共数据开发利用的隐私权保护体系,即数据流动、开发、处理活动须注重秩序、效益和隐私价值。
第二,数据跨境流动中的隐私权保护与数字经济发展的平衡。我国设立个人信息保护认证制度,要求个人信息跨境应与境内实施同等保护规则,并以境内方、接收方在境内的机构为责任主体,要求个人信息跨境处理活动符合正当、必要、诚信、公开、透明等原则;认证机构应对境内外主体的个人信息类型和数量、个人信息处理活动范围等进行技术验证,获证后持续合理地监督,鼓励企业提高个人信息处理能力和水平;境外接收方应接受个人信息认证机构的监督,遵守我国个人信息保护法律规范。〔26〕参见《个人信息保护法》第38 条;《个人信息保护认证实施规则》《个人信息跨境处理活动安全认证规范》(TC260-PG-20222A)。因而,我国遵循平衡数字经济与权利保护的立法理念,在促进数字经济规范发展的前提下,合理保护我国个人信息的跨境传输。
(二)中国数字时代隐私权保护立法体系存在的不足
1.立法对个人信息和隐私的界分不明确
第一,我国立法中存在难以区分私密信息与敏感个人信息的问题。根据我国《民法典》第1034 条、《个人信息保护法》第28 条的规定,私密信息同属隐私和个人信息,敏感个人信息仅属个人信息,而私密信息与敏感个人信息的范围实质上重叠;且根据《个人信息保护法》和《信息安全技术个人信息安全规范》(GB/T 35273—2020)关于敏感个人信息的规定,敏感个人信息与隐私权的内涵基本重合。矛盾在于,个人信息权益与隐私权的立法保护模式差异甚大。个人信息保护制度兼具保护信息人格权益和促进信息安全流动的立法目的,而隐私权立法包括保护不受他人干扰的安宁权和维护人格尊严的立法目的,并不以促进数字经济发展和信息流动为目的。
第二,由于个人信息权益与隐私权立法理念的差异,导致学界对敏感个人信息与私密信息的划分争议较大。第一种观点认为,敏感个人信息的分类侧重对信息流动和信息处理活动的规制,对其认定客观明确,可参照法律,而私密信息的分类侧重维护自然人隐私自由,对其分类是主观的,主要依照具体场景进行。〔27〕参见程啸:《个人信息保护中的敏感个人信息与私密信息》,载《人民法院报》2020 年11 月19 日,第5 版;商希雪:《个人信息隐私利益与自决利益的权利实现路径》,载《法律科学》2020 年第3 期,第72 页。第二种观点认为,应依靠法定规范兼采场景理论,将敏感个人信息区分为私密信息和非私密信息。〔28〕参见王利明:《敏感个人信息保护的基本问题——以〈民法典〉和〈个人信息保护法〉的解释为背景》,载《当代法学》2022年第1 期,第8 页。第一种观点侧重价值分析,但还应与司法裁判规则相结合,才能保护隐私权规则的有效适用;第二种观点实质上认为,个人信息可以包含作为私密信息的隐私,这可能会在一定程度上缩小数字时代隐私权的生存空间,削弱人们以隐私权利对抗公权力的能力。实质上,个人信息包含私密和非私密信息,用户的某些非私密信息可能与其他个人信息结合后构成私密信息。有案例提出,个人位置信息若未与个人的其他信息相关联,就不具备识别性,不构成私密信息。〔29〕参见北京市第一中级人民法院(2020)京01 民终8911 号民事判决书。但是,如果个人信息处理者掌握了除个人位置信息以外的其他信息(如电话号码、唯一设备标识符、浏览记录、使用时间、时长等),那么该组合信息具备可识别性。〔30〕参见湖北省黄冈市中级人民法院(2021)鄂11 民终3136 号民事判决书。当具备“可识别性”的用户组合信息与特定用户的“属性、记录、位置”相联系时,就有可能构成私密信息。〔31〕参见冯登国等编著:《大数据安全与隐私保护》,清华大学出版社2018 年版,第11 页。一般来说,应从“社会公众的一般认知和价值衡量”角度考虑该信息对维护人格尊严、社会正常交往、信息自由的意义及一般公众的隐私期待等因素,判断其是否构成私密信息。〔32〕参见湖北省黄冈市中级人民法院(2021)鄂11 民终3136 号民事判决书。但我国立法依然缺乏依据场景、社群等界定数字时代隐私权私密价值的标准,一定程度上阻碍了法律保护隐私权效力的发挥。
2.立法缺少流动场景下对隐私权社会属性的保护
我国数字时代隐私权利的立法保护制度以适用民法隐私权保护规则为优先,以个人信息权益保护规则为补充。但是隐私权的社会属性是其与个人信息权益的区别所在,数字时代的个人信息保护规则不能完全替代隐私权的法律保护。
第一,个人信息与隐私的竞合仅在敏感个人信息和私密信息部分,对隐私权涵摄的私密活动和私密空间等内容,个人信息保护规则不能给予有效保护。针对自然人私密活动和空间的隐私权保护,我国规定人脸识别技术应用应以“充分的必要性”为标准,在公共场所安装人脸识别设备应设置显著标识,物业等建筑管理人应设置人脸识别的替代方式等,〔33〕参见《人脸识别技术应用安全管理规定(试行)(征求意见稿)》第4、6、7、9、14 条。以保护自然人使用人脸识别技术的自愿性。人脸在熟人社会具备较强的社交属性,综合了私密信息、私密活动和私密空间三个隐私权保护的客体,用户应当有权决定对人脸识别信息进行分享的范围,但目前我国立法较少关注人脸识别信息及隐私权的社会交往属性。
第二,在数字社会中,“私的领域将会被公的领域、公共领域进一步挤压”,公域与私域的界限将逐渐消失,〔34〕参见齐延平:《数智化社会的法律调控》,载《中国法学》2022 年第1 期,第90-91 页。隐私权的保护需要在数据共享中实现。区分私域与公域是人类“自身的存在”的需要,人们对其身心和行为有需要隐藏的部分,也有需要在公开场合展露的部分。〔35〕参见[德]汉娜·阿伦特:《公共领域和私人领域》,刘锋译,载汪晖、陈燕谷主编:《文化与公共性》,生活·读书·新知三联书店2005 年版,第102 页。隐私权保护的逻辑在于,将信息流动、与人交互和分享的权利交由自然人,其可根据自身需要,在私人领域享受独处的权利。
3.数字时代隐私权的法律救济缺失
第一,我国立法对侵犯隐私权的行为仅适用传统侵权法的过错责任原则,难以实现对隐私权的有效救济。在数字时代,侵犯隐私权的成因复杂且涉及主体较多,可能是数据收集者、分析者、处理者和平台等违法出售、泄露用户私密信息,也可能是黑客攻击或其他网民违法行为导致他人隐私泄露,致使侵权行为和侵权后果的因果关系较难证明。〔36〕参见任颖:《数字时代隐私权保护的法理构造与规则重塑》,载《东方法学》2022 年第2 期,第191-192 页。在算法技术应用领域,已有法院认为隐私权人仅初步证明“搜索浏览行为与广告推送间存在因果关系的高度可能性”即可,且平台企业等“证据的实际控制者”如举证不能,应承担法律后果。〔37〕参见湖北省黄冈市中级人民法院(2021)鄂11 民终3136 号民事判决书。但是,立法对该类裁判标准未予明确,未能从根本上解决举证问题。例如,有当事人主张,刺探他人私密信息侵犯的是隐私权,泄露或散布他人私密信息侵犯的是名誉权。〔38〕参见天津市第二中级人民法院(2022)津02 民终7710 号民事判决书。这反映出在法律规则不明晰的情形下,当事人可能会区分侵犯隐私权的方式,自行降低或者提高侵犯隐私权的证明标准。因而,在司法实践中继续适用侵权法确立的隐私权救济制度,可能会加重隐私权人的证明责任。
面对数字时代侵犯隐私权的行为,自然人处于天然的弱势地位。一是数字技术的复杂性、互联网“信息茧房”的存在,导致自然人难以通过自身力量识别数字时代侵犯隐私权的行为和主体。二是自然人控制和保护自身私密信息的能力较弱,难以通过保护隐私权限制平台企业等主体的权利。三是侵犯隐私权的行为多发生于互联网,隐私权人较难寻找和固定证据,往往需要通过平台等后台力量才能获得证据。〔39〕参见周汉华:《平行还是交叉:个人信息保护与隐私权的关系》,载《中外法学》2021 年第5 期,第1172 页。然而,数字时代的隐私权人仅凭个体的薄弱力量,几乎不可能确切证立此种损害后果。因而,仅适用过错责任原则救济隐私权,可能较难应对数字时代复杂的侵权状况。
在实践中,立法未对隐私权和个人信息保护纠纷竞合的问题予以明确,导致我国司法裁判的相应处理出现了不同模式。一种模式是依赖传统侵权法的过错责任原则,由当事人承担举证不能的后果。另一种模式是将隐私等同于敏感个人信息,适用过错推定原则,由个人信息处理者承担举证不能的后果。这两种模式均在实质上剥夺了当事人通过隐私权规则实现权利保护和司法救济的可能性。例如,在天津人脸识别第一案中,一审法院将该案定性为隐私权之诉,适用过错责任原则,要求原告提供被告物业公司侵权的证据,因原告无法证明被告具有过错,而判定原告败诉。〔40〕参见天津市和平区人民法院(2021)津0101 民初10334 号民事判决书。该案较为典型地反映出,诸如人脸识别信息等既属于隐私又属于敏感个人信息,如果仅适用过错责任原则,那么权利人基于举证、获取信息的弱势地位,基本都会败诉。该案二审法院将其定性为个人信息保护纠纷,适用过错推定责任原则,较妥善地保护了隐私权人的个人信息权益。〔41〕参见天津市第一中级人民法院(2022)津01 民终349 号民事判决书。如果立法未明确界定隐私权和个人信息权益的内涵,也未明确规定隐私权规则和个人信息保护规则的适用范围,那么人们就难以通过隐私权规则获得保护和救济,久而久之,人们对隐私权保护的人格尊严、自由、平等等价值的追求可能会逐渐淡化,亦会加速数字时代隐私权的消解。
第二,我国数字时代隐私权保护立法的责任规制和追究机制不健全,较难威慑追求私益的数字平台企业,用户亦难与平台建立信任关系,加大了数字治理的难度。在数字时代,我国对隐私权保护的义务和责任的规定散见于《个人信息保护法》《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(法释〔2020〕17 号)等法律和司法解释中。但是,我国立法责任追究机制中对数字平台企业、个人信息处理者等主体只追求私益、不顾自然人隐私权利保护的问题,还未给予更多的重视。
4.数字时代隐私权保护规则与域外立法的衔接不足
数据的收集、存储、处理等活动常常跨境,境外势力通过互联网攻击和窃取数据并侵犯自然人隐私和国家安全的事件时有发生。〔42〕例如,2022 年6 月,西北工业大学称遭受境外网络攻击,我国技术团队分析发现攻击活动源自美国国家安全局“特定入侵行动办公室”,其使用四十余种网络攻击武器,窃取我国关键网络设备配置、网管数据、运维数据等核心技术数据共140GB。参见《西北工业大学遭美国NSA 网络攻击事件调查报告(之一)》,载国家计算机病毒应急处理中心网站,https://www.cverc.org.cn/head/zhaiyao/news20220905-NPU.htm,2024 年1 月30 日访问。因此,数字时代隐私权保护问题的解决需要各国共筑安全屏障,合力防控自然人的隐私泄露。但是,欧美等国隐私权保护的规则不同,给数字时代全球隐私权保护带来了更多困难。
通过立法,欧美等国不断扩大其数字治理规则的适用范围,以此提升国际地位和争夺数字领域的国际话语权。依据欧盟GDPR 第2、3 条的字面含义,其管辖范围以“接入欧盟数字市场的跨国企业为接触点”来划分,〔43〕个人信息保护课题组:《个人信息保护国际比较研究》(第2 版),中国金融出版社2021 年版,第361 页。扩大了GDPR 的适用范围。这与美国民事诉讼领域的长臂管辖权类似,均期望利用管辖制度来掌握全球数字治理的方向。美国亦通过贸易掣肘宣示美方在数字技术及其治理领域的主权。
相比而言,我国立法对国际数字贸易中隐私权保护的回应稍显不足。我国提出,应“加快数字贸易发展”“加强服务贸易国际合作,打造‘中国服务’国家品牌”。〔44〕《中共中央、国务院关于推进贸易高质量发展的指导意见》。《个人信息保护法》第38 条规定,向境外提供个人信息需要依法进行安全评估、个人信息保护认证程序,并按国家网信部门制定的标准合同与境外方订立合同。党的二十大报告指出:“强化经济、重大基础设施、金融、网络、数据、生物、资源、核、太空、海洋等安全保障体系建设。健全反制裁、反干涉、反‘长臂管辖’机制。完善国家安全力量布局,构建全域联动、立体高效的国家安全防护体系。”〔45〕习近平:《高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告》(2022 年10 月16 日),载《人民日报》2022 年10 月26 日,第1 版。可以看出,我国立法还未对国外“长臂管辖”形成有效和具体的应对机制,我国数字贸易机制中对隐私权的保护还未成体系,立法更注重数字贸易发展,相对欠缺对隐私价值的维护。
综上,中国数字时代的隐私权保护立法采取隐私、个人信息和数据三分的模式,在数字经济、数据利用、数据跨境流动立法中设立隐私权保护的具体制度,以平衡数据流动中的秩序、效益与隐私价值。但在数字时代,中国隐私权保护的立法制度中存在对个人信息和隐私的界分不明确、缺乏流动场景下对隐私权社会属性的保护、隐私权法律救济和责任规制缺失、隐私权保护规则与域外立法衔接不足等问题。为解决上述问题,应以隐私权的社会性和群体性、信息的流动性为基础,通过完善数字时代隐私权的法律保护制度应对数字时代隐私权的消解风险。
三、数字时代隐私权保护的立法方案
数字时代自然人的隐私权面临一系列消解风险。但是,个人信息和数据难以替代隐私“沟通社会”的属性。〔46〕参见周维栋:《个人数据权利的宪法体系化展开》,载《法学》2023 年第1 期,第35 页。隐私作为伦理价值,具有保护人格尊严、自由、社会交往、个人自主和发展自由的内生动力,“数字隐私问题是整个数字技术发展中的根本性制度”,应将“隐私保护理念贯穿于整个数字技术发展全过程和数据法律制度的全部立法中”。〔47〕杨建军:《数字治理的法治进路》,载《比较法研究》2023 年第5 期,第16 页。因此,立法应充分利用个人信息中非私密信息的经济和流通价值,赋予自然人更多隐私权,赋予国家、数字平台企业更多义务和责任,以公私法结合的方式实现对隐私权的有效保护。
(一)建立界分个人信息权益与隐私权利的制度保护体系
1.敏感个人信息和私密信息的法理界分
我国立法对个人信息权益与隐私权的区分,关键在于如何界分私密信息与敏感个人信息。一般来说,隐私难以经个人同意被使用,具有纯粹的人格尊严价值,而个人信息可以经个人同意被使用,兼具保护信息流动和信息人格权益的价值。在数字时代,对个人信息中私密部分的控制权应属于隐私权与个人信息权益的竞合。从民法角度看,对私密信息的控制,意味着个人对其私密信息的权利应具有绝对性和排他性,能够排除他人对该类信息的使用、支配和收益。从个人信息保护法角度看,个人信息权益兼具人格和财产属性,而隐私权仅具备人格属性,对其保护应属绝对保护,不能简单认定自然人在虚拟和物理的公共空间中一定没有隐私期待。敏感个人信息保护规则应是对私密性、敏感性个人信息权益予以公法保护和规制,规避他人数据处理不当或泄露等风险,私密信息的保护规则应是从私法角度排除他人非经正当程序的信息处理活动。从风险规制和调整方法角度看,敏感个人信息的保护规则遵循《个人信息保护法》的事前风险预防原则,通过较为严格的保护措施,预防敏感个人信息在收集、使用和存储中可能存在的风险。私密信息侧重对侵犯隐私权行为的事后救济,从事后补救和侵权责任追究的角度规制侵犯隐私权的行为。〔48〕参见程啸:《论〈民法典〉与〈个人信息保护法〉的关系》,载《法律科学》2022 年第3 期,第21 页。
2.敏感个人信息和私密信息的实践规则界分
立法如果仅从价值上区分敏感个人信息和私密信息,那么该方法不仅在实践中较难操作,而且可能会因个人信息权益具备更强的可诉性而架空隐私权。基于私密信息和敏感个人信息的竞合关系,立法应以权利人主动公开或明示同意他人获取与否为界分二者的实践标准。私密信息一旦被权利人主动公开,就不属于隐私,但依然属于敏感个人信息。〔49〕参见任颖:《数字时代隐私权保护的法理构造与规则重塑》,载《东方法学》2022 年第2 期,第197 页。
第一,当事人对其私密信息和敏感个人信息享有控制权,如果未获本人许可,那么他人擅自采取的信息收集、存储或公开等行为应属于侵犯隐私权与个人信息权益的竞合,当事人可以择一请求保护。例如,法先生公司违法收集和使用麦某某的相关信息,用于提升服务质量等,这既侵犯了麦某某的姓名权、名誉权等一般人格权益,又侵犯了其个人信息权益,是一般人格权与个人信息权益的请求权竞合问题,法院在该案中认为适用《个人信息保护法》更有利于平衡个人信息的保护与利用价值。〔50〕参见广东省广州互联网法院(2022)粤0192 民初20966 号民事判决书。
第二,在当事人私密信息未公开、未经明示同意予以收集、使用和存储,或当事人在被侵权后未主张其权益保护时,对该类信息的保护仍应遵循敏感个人信息的规则,严格限制对该类信息的收集、使用和存储等活动。
第三,在当事人主动公开私密信息,或明示同意他人收集和使用其私密信息时,该类信息尽管不属于隐私权保护范畴,但仍属于敏感个人信息,应依据敏感个人信息保护规则予以保护。例如,孙某某自行将其身份证照片上传社交网络,法院认定该信息虽不属于私密信息,但仍然属于可“积极使用的个人信息”,〔51〕参见北京互联网法院(2019)京0491 民初10989 号民事判决书。应遵循敏感个人信息的保护规则。
(二)依群体分类保护数字时代的隐私权
数字时代的隐私权保护制度可将“关系理论”与场景分析、隐私权保护的特殊性相结合,考虑权利人所处团体的特殊性、分享信息时的场景和动机、公开隐私的意愿的范畴和程度等因素,并根据经验、社会规则和具体场景来推断权利人对相对方的信任程度,通过网络架构赋予用户对不同信息的访问权和流动控制权,在流动中保护自然人隐私权。〔52〕参见胡凌:《数字时代隐私的终结》,载《文化纵横》2014年第2期,第113页;[美]阿里·埃斯拉·瓦尔德曼:《隐私即信任——大数据时代的信息隐私》,张璐译,法律出版社2022 年版,第140-141 页。
1.权利人应有在网络社交圈内展示个人身份和形象的自主控制权
隐私权是“身份权和个人发展的权利”。〔53〕[英]雷蒙德·瓦克斯:《隐私》,谭宇生译,译林出版社2020 年版,第85 页。个人身份的独特性、自我可控性是人存在的基础和标志,社会关系均以人的身份属性、形象特征等独特属性得以维系。身份是人的本性的外在反映,人的内心具备多面性,其外在的身份表现也应具备多样性特征。浅层次的身份多样性,包括多元的职业、经历、社会角色;深层次的身份多样性,表现在不同场景下人可能需要以不同的心理和认知状态,寻求不同层面的心理上的获得感。隐私的私密性引申出的身份权与个人发展的权利应相辅相成,用户既享有在互联网平台对个人身份和形象的塑造权、修改权、可见对象的选择权,也有明示和默示的放弃权,还有在社会中塑造良好形象及凭借该良好形象在社会中获得发展的权利。
2.不同群体隐私文化在数字时代的不同表达
不同群体的分享观念不甚相同,对私密性的认知亦不同,这些区分本质上是各群体隐私文化于数字时代的不同表达,以下划分三组进行对比分析。
第一组对比是在数字时代成长起来的年轻一代群体,与未经数字技术培养和熏陶成长起来的年长一代群体。前者对分享私密信息的开放和包容程度,一般大于不适应数字技术或适应力相对较弱、无条件享受数字技术等相对弱势的群体。这可能是由于前者的价值观形成初期已接触或使用互联网、计算机等技术,在网络上分享和展示隐私并进行交流互动的欲望相对较高。但后者可能相对谨慎,对网络平台的信任程度较低,对隐私和个人信息保护的要求更高。
第二组对比为性取向正常与特殊的群体。相对而言,性取向正常的群体可能不太介意在社交平台上发布情侣照片,而性取向特殊的群体可能更倾向保护隐私,或者不希望伴侣与其同事、同学的交互过多。根据用户通过平台吸引交往对象的意愿的强烈程度来看,交往意愿较强的群体,对隐私的定义可能相对“开放”。
第三组对比是从事社会影响力较大职业的群体与普通职业群体。前者包括公务员、教师、医生、明星等,其言行举止有一定社会影响力,因而其在非工作时间和非公共场合产生的各类信息,应根据其意愿判定是否属于私密信息,但违反法律和社会公德、影响该类职业群体应有形象的情况除外。相比而言,从事社会影响力较大职业的群体对隐私的要求以法律和道德为限,而不纯粹依赖本人明示或默示的意思表示。
3.平台企业可构建用户自选的隐私权保护机制
第一,平台企业应采用默认保护隐私权的设置,以强制方式保护自然人的隐私权。立法应要求个人信息处理者、数字技术设计者将数据收集最小化、限制目的必要性原则,不得歧视自然人、不得利用自然人行为漏洞的公平原则,及时匿名化、及时删除数据的原则,公开私密信息的收集、使用和共享的透明原则等,嵌入具体的技术设计环节。并且,立法应对设计和默认保护隐私权规则的落实情况设置独立的监管程序。监管部门应对平台企业是否向用户公开个人数据分析结果、用户画像等隐私数据,是否履行隐私保护的技术标准进行监管,并定期评估和考核。
第二,立法可参照不同群体的特征、工作性质、行为折射的开放意愿等标准,将平台企业隐私权保护的强制制度与用户选择机制相结合,确定私密性及隐私权范畴的具体判断标准,并采用定制化的隐私权保护方式。用户可自主选择归属或退出何种群体,是否认同该群体的隐私文化或接受该类隐私保护政策等。当然,群体划分是相对的,权利人可能虽属“千禧一代”,但依旧有保守的隐私观念,应当由其自主决定其事务中牵涉隐私的范畴。并且,平台可在确保数据和个人信息安全、保护隐私的前提下,通过后台收集不同群体对隐私范畴的认知变化,由用户自选隐私保护政策和修改其隐私范围。当然,立法需要对平台反馈进行适时的伦理监管和伦理责任规制,要求平台企业管理人员不得滥用用户群体分类进行算法歧视和操纵,也不得违反法律与伦理泄露、出售用户加入的隐私群体信息等。
(三)健全数字时代隐私权保护的救济机制
1.完善侵犯数字时代私密信息的救济规则
可基于侵权主体的不同,区分适用过错责任原则与过错推定责任原则,以立法方式有效化解隐私权纠纷的司法适用难题。
第一,对个人信息处理者违法处理私密信息的行为,应适用《个人信息保护法》第69 条确立的过错推定责任原则。虽然从形式上看,根据我国《民法典》第1034 条第3 款的规定,对私密信息的救济应优先适用作为隐私权救济规则的过错责任原则,《个人信息保护法》第69 条作为准用性规定,并不具备优先适用的形式正当性,但是对个人信息处理者违法处理私密信息的行为适用过错推定责任原则具有实质正当性。从利益衡量角度看,功利和效率原则“试图阻止总之对社会来说是种浪费的、产生意外事故的行为”,而“损害大于好处、浪费公共资源”的行为具备道德不正当性。〔54〕参见[美]戴维·G.欧文主编:《侵权法的哲学基础》,张金海等译,北京大学出版社2016 年版,第216 页。在数字时代,对违法处理私密信息的个人信息处理者适用过错推定责任原则,有助于形成对个人信息处理者的有效威慑,督促其履行对私密信息的严格保护义务,从长远看或许可减少隐私权诉讼,解决自然人隐私权诉讼的取证难题,促进社会形成保护个人发展空间的良好社会风尚。违法处理私密信息的行为既可适用过错责任原则,又可适用过错推定责任原则,而适用责任较重的过错推定责任原则,与我国《个人信息保护法》的立法目的一致。根据《个人信息保护法》第69 条的规定,在一般情况下,个人信息处理者作为控制和处理个人信息的主体,应适用责任较重的过错推定责任原则。私密信息作为隐私权的客体之一,与敏感个人信息存在竞合关系,对私密信息适用更为严格的过错推定责任原则,并未加重个人信息处理者的责任,也符合“强化个人信息保护的特别目的”。〔55〕参见王道发:《个人信息处理者过错推定责任研究》,载《中国法学》2022 年第5 期,第112 页。并且,个人信息权益保护“源自人格尊严、人身权利”,对私密信息适用更严格的保护规则,也符合个人信息保护法将“维护人的尊严和自主性”放置首位的立法目的。〔56〕参见龙卫球主编:《中华人民共和国个人信息保护法释义》,中国法制出版社2021 年版,第6 页。在个人信息处理者违法处理私密信息的情形下,违反私密信息保护规定的主体和侵犯隐私权主体一致,且侵犯私密信息产生的违法处理后果为侵权之诉,与侵犯隐私权产生实际侵害引发的侵权之诉实质上一致。〔57〕参见贺彤:《私密信息的概念构成与规则体系》,载《华东政法大学学报》2023 年第3 期,第31 页。基于上述三点原因,对违法处理私密信息的个人信息处理者适用过错推定责任原则具有实质正当性。
第二,对个人或其他非个人信息处理者未经允许在互联网上泄露、公开他人私密信息的行为,仍应遵循一般侵权法的过错责任原则。立法应适当降低隐私权人对过错要件的证明标准,不能要求其对侵权行为和侵权后果的因果关系进行证明,或只需要证明他人实施侵犯隐私权的行为,且对权利人造成精神和财产损失即可。经隐私权人向法院申请,个人信息处理者和控制者应为隐私权人提供证据收集和固定上的便利,以证明个人信息处理者或其他主体实施了侵害自然人隐私权的行为。此外,数字时代的“法律责任呈现为结构性分散的状态”,应根据主体的“网络份额、利益与控制能力”等标准,“比例化地分配”主体的法律责任。〔58〕参见余成峰:《数字时代隐私权的社会理论重构》,载《中国法学》2023 年第2 期,第186 页。当然,在分配各主体的连带责任时,平台、技术研发主体、个人信息处理者等主体只按比例承担其违反个人信息保护义务的“公正份额”侵权责任,〔59〕参见[澳]彼得·凯恩:《侵权法解剖》,汪志刚译,北京大学出版社2010 年版,第146 页。不对其施加过于严格的责任,从而保护数字技术发展的创新动力与活力。
第三,侵犯隐私权的损害后果与过错的证明标准。在实践中,应结合侵犯隐私权的行为,确定对侵犯隐私权损害后果的证明标准。部分法院对行为人泄露敏感个人信息的损害后果的认定,以损害行为“导致个人对人身、财产权益未来遭受不可逆的风险而产生焦虑与不安全感”为标准。〔60〕参见浙江省杭州互联网法院(2022)浙0192 民初4259 号民事判决书。该判定标准结合了数字时代信息扩散范围广、侵犯隐私权的危害后果大等特征,在一定程度上起到了续造隐私权保护规则、更好地保护自然人私密信息的作用。但在一般案件中,侵犯隐私权损害后果的判定需要与损害行为相结合。应以理性第三人标准,评估侵犯隐私权行为的具体规模、涉及范围、所处场景、隐私权人的职业和生活背景等,推断侵犯隐私权损害后果的有无及程度。对于非个人信息处理者侵犯隐私权的过错证明标准问题,当非个人信息处理者作为侵权主体时,权利人要按照一般侵权规则,证明非个人信息处理者主观上具有过错。此时,权利人依旧存在举证困难的难题,权利人甚至无从知晓真正的“被告”究竟是谁,可能直到法院调查才发现,泄露权利人隐私的可能另有其人。〔61〕经法院调查,并非淘宝公司侵犯薛某某的隐私权,可能是快递在转运中泄露了薛某某的私密信息。因而,可尝试以社会捐助、国家划拨资金等方式,建立专门的社会救助基金,在法院判决当事人隐私权受到侵犯但无从寻找侵权主体时,为隐私权人提供补偿性救济。在被侵权主体众多时,权利人还可通过民事公益诉讼进行救济。
2.强化侵犯隐私权的责任伦理引导和法律责任
应发挥法律保障社会秩序、惩治违法行为、保护人类权利的底线作用,加大部分重点场景下对侵犯自然人隐私权利行为的规制力度。同时,立法也应注重在数字技术设计中注入责任伦理的观念,督促技术设计者为技术设计公平、保护自然人隐私权负责。
第一,应发挥责任伦理观念的引导作用,加大软法和行业自治规则的辐射力度。数字时代的治理应结合平台企业自治。平台企业的大数据预测、分析技术、算法设计应包含责任伦理,在数据收集最小化、数据加密最大化、尽快删除无用的私密信息等层面贯彻审慎原则。同时,应提升技术责任在技术设计中的比重,将最新技术引入隐私设计的理论规范化、制度化,以最新技术保护隐私权,督促设计者为数字产品的隐私设计负责。
第二,应强化数字平台企业和政府在重点场景、重点行业中保护隐私权的法律责任,加大对服务和管理行业的隐私权保护的法律监管和责任规制力度。据统计,我国物业、超市、医院等行业,收集和存储了大量自然人手机号码、人脸识别、家庭住址等私密信息,但其对个人信息的安全保障和隐私权保护制度不够健全,常因此被处罚。〔62〕参见樊文扬:《未对信息加密被罚整改,超市快递点如何保护顾客个人隐私?》,载《南方都市报》2023 年9 月2 日,第GA12 版。针对收集私密信息较多、安全保障能力较弱的个人信息处理者,执法机关应加强对其安全保障和隐私权保护的技能培训,借鉴规模较大、隐私权保护政策较完善主体的数据保护经验,由隐私权保护政策较完善的主体帮扶规模较小、能力较弱的主体,全面保护自然人隐私和数据安全。同时,立法应加强对规模小但属于生活服务和管理等重点行业的数字平台企业的规制。该类主体可能因收集数据量小而容易被立法者忽视,但其所属行业与人们日常生活关联度高,数据泄露对自然人隐私权影响较大,需要立法重点关注。立法应强化人脸识别信息的社会属性,制定对各场所影响评估的具体细则,有效保护人脸识别信息。例如,上海市《公共场所人脸识别分级分类应用规范(征求意见稿)》第5.2 条、附录A 等内容,要求对人脸识别技术应用的影响风险因素、是否涉及公共利益等使用目的进行评估,分别设立了禁止使用人脸识别技术、设置替代技术、可强制实施技术等具体的人脸识别技术应用方案,体现出审慎治理的立法理念。立法还应强化对用户在社交网络上发布的人脸信息的保护,加大对人脸信息造假和深度合成等滥用人脸信息行为的规制力度。人脸在数字时代的社会属性,不仅体现在人们出入各场所的“刷脸”活动,而且体现于网络社交的互动之中。立法保护社交网络中人脸信息的安全和隐私价值,即为维护人脸信息作为社交工具的特征与属性。
(四)建立公平公正的数字贸易与隐私权保护国际规则
国际规则代表着国际贸易未来的发展趋势,中国应积极参与国际规则的制定,提升中国在数字贸易领域的国际话语权。国际社会还应建立关于隐私权保护的区域性或全球性多边保护机制,以完善的隐私权保护机制促进数字贸易发展。
数字时代的技术治理应处理好科技发展、安全保障与伦理治理,经济发展与权利保护,国内科技法治与全球技术治理体系建设三组关系。建立隐私权保护、信任和开放的国际数字贸易体系,是对平衡三组关系的最佳回应。从治理方式和手段上看,隐私、信任、开放、共享的数字治理模式对隐私权保护技术、伦理政策和法律监管的要求较高,各国应结合技术、法律和伦理等方式进行综合治理。在数字时代贸易全球化进一步加强的背景下,各国多元的隐私文化和隐私政策对数字立法平衡经济、自由、平等、尊严等价值提出了更高的要求,数字时代更应平衡好技术、伦理、安全、法治的关系。从协调对象上看,数字平台企业提供的服务贸易是数字贸易的核心,更容易受到各国监管政策的影响,因而,数字平台企业的隐私权保护规范应作为数字贸易协调领域立法的重点。〔63〕参见张锋、李凯:《全球数字贸易规则与中国实践》,中国商务出版社2021 年版,第135 页。此外,国际社会还应建立不依赖各国政府、打破国界和国别限制的隐私权保护行业规范;鼓励行业内利益互惠,有偿分享和运用保护隐私权的最先进技术;鼓励行业内协调相关利益方需求,共同商谈并设立平衡隐私权保护和贸易的软法和自律规则。从协调方式上看,应提升各国隐私设计的互操作性,各企业应提升隐私权保护技术设计的能力,将隐私权保护和安全保障理念内化为技术设计方案,数字软件和服务应强制采用默认保护隐私的设置。
(五)强化自然人参与的隐私权保护机制
1.提升自然人保护隐私权的意识
平台企业收集个人数据、信息,建立庞大的数据库,记录着个人的对话、信息和轨迹,这些信息更容易被回溯或在未来被参考,或被不法分子利用实施盗窃和敲诈勒索。〔64〕参见[美]特雷莎·M·佩顿、西奥多·克莱普尔:《大数据时代的隐私》,郑淑红译,上海科学技术出版社2017 年版,第101-102 页。如果个人不重视保护自身隐私,应尽量减少数字痕迹,单凭平台和国家保护隐私权义务与责任的制度,很难完成遏制私密信息泄露和滥用的任务。政府应培养数字时代自然人的隐私权保护意识,引导人们在境内外网站交易、消费、浏览和使用应用程序前认真阅读其隐私政策,及时关闭应用程序打开摄像头、共享相册、跟踪定位等设置;引导人们不在互联网上展示过多私密信息,要求商家提示消费者部分商家优惠是以交付私密信息为代价的,以提醒部分用户识别或拒绝此类交易行为。
2.完善用户参与技术标准制定与监管的程序
用户作为使用主体,对平台企业的活动所提的意见和建议更具体和真实。立法应完善用户参与平台企业合规标准制定的机制,鼓励用户有序参与互联网的监管程序,这有助于平台企业更有针对性地改进其隐私权保护规则。
目前,我国已经建立了互联网信息服务投诉平台、中央网信办违法和不良信息举报中心等机构,对线上发布违法和不良信息、数字平台企业个人信息保护服务提供举报和投诉入口。但是,投诉平台属于互联网行业自律组织,仅将投诉转交给平台企业处理,且不提供监督或进一步处理的服务,未设置用户不满意处理结果或投诉失败的处理方式。因而,立法应规定平台外部的投诉监督方式,赋予公权力机构及时处理或者督促处理用户投诉平台侵犯自然人隐私权行为的义务。在具体程序上,可由平台企业先处理相关投诉,用户对处理结果不满意的,可向公权力机关投诉,公权力机关可及时处理或者督促平台进一步处理,并可督促企业、平台改进相关保护隐私权的制度。
四、结语
在数字时代,中国设立隐私、个人信息和数据三元立法制度,分别采取“保护、规制和利用”三种价值建构规则体系。但在中国数字时代隐私权保护的立法体系中,存在个人信息与隐私界分不明确、隐私权利的法律救济机制不健全、立法缺少信息流动背景下对隐私权利社会属性的保护、国内隐私权保护立法与国外立法衔接不足等问题。未来中国隐私权保护立法应正视数字时代侵犯隐私权的主体、成因、行为及后果的复杂性,将强制保护自然人隐私权的制度与自然人的自主选择机制相结合,平衡隐私价值与数字经济发展价值,完善隐私权救济和责任机制,引导自然人提升隐私权保护意识,以技术、伦理、法治相结合的方式,化解数字时代隐私权保护立法的中国问题。在数字时代,隐私权利保护体系正在经历保护方式、救济途径的多重变革,隐私权利正面临以保障安全、发展经济为名的多重消解风险。保护数字时代自然人的隐私权,实质上是贯彻以人为本的人文立法精神、构建保护个人基本权利的良法的体现,这不仅符合数字时代技术发展规律,而且有助于平衡数字技术创新、经济发展和权利保护的关系。当然,数字社会的国际化、高度互联化和智能化等特征,决定了数字时代的权利保护方式应具有复合性和多元性。立法囿于其滞后性和稳定性而难以全面地化解隐私权利的消解难题,故而,数字时代的隐私权保护还应加强数字技术应用整体环境的安全与伦理治理,妥善运用基层自治、公益诉讼等多元化的纠纷解决方式,以多种方式构筑数字时代的人类权利保护体系。