信息隐私和个人信息功能定位的再区分
2022-01-25张慧
张 慧
一、引言
人工智能时代,算法潜藏在每一位智能用户的生活之中。算法威胁用户的隐私权应如何被侵权行为规范救济,尤其是隐私判断标准应如何适用于算法场景中,值得重视及思考。
随着《民法总则》《民法典》和《个人信息保护法》的先后出台,我国就用户的数据信息分别规定了隐私权和个人信息两种民事权益。李永军指出,不同于美国将隐私与个人信息合并保护的“一元制”模式,我国采取的是隐私权和个人信息保护两类请求权并行的立法模式,应称为“二元制”保护模式。但在“二元制”模式下,隐私权与个人信息的边界不够清楚。根据《民法典》第1032条,我国隐私的保护范围非常广泛,包括私人生活、私密空间、私密活动和私密信息等四种类型,其中私密信息和个人信息的保护范围存在交叉。这导致在司法实践中,法官常常将隐私权和个人信息混淆处理,出现法律适用标准分散、不够体系的局面。
实际上,学界已对隐私和个人信息的区别进行了探讨。如李永军指出,应采用“三类型区分法”区分隐私和个人信息,即分为纯粹的个人隐私、隐私性信息、纯粹的个人信息。王利明认为,隐私主要是私密性的信息和个人活动,而个人信息注重的是身份识别性。学者在区分隐私和个人信息时,着重点多放在个人信息,即判断哪些信息可被认定为个人信息并构建了“敏感性”标准,对个人信息的保护程度进行了区分。
与个人信息的细分相比,我国学者基本上将隐私视为一个内部标准统一的概念,将不同类型隐私的价值和标准等同,较少围绕隐私之中的“信息隐私”进行梳理和考察。此外,由于19世纪末塞缪尔·沃伦和路易斯·布兰代斯发表的《隐私权》一文影响深远,加之受欧盟《一般数据保护条例》的启发,虽然我国在进行隐私权的比较法研究时有全球化的倾向,但对不同国家和地区间的差异化分析较少。
上述研究成果对厘清隐私和个人信息的关系确有裨益,但具体到算法隐私的界定时,仍有进一步研究的空间。首先,从研究内容上,算法隐私的载体是数据信息,算法隐私实际上是信息隐私的一种。为了清楚界定算法隐私的边界,有必要从其上位概念“信息隐私”出发,将信息隐私而非隐私作为与个人信息进行对比的研究对象,并仔细辨别信息隐私内部的不同类型是否存在判断标准的差异。
其次,从研究视角上,王泽鉴指出“法学的研究应具备历史与体系两个层面”。上述区分标准多从横向的民法体系内部,采用法教义学的方法进行分析,但较少从纵向的历史维度展开。而我国信息隐私的表现形式,体现出一个变迁的过程,即从名誉隐私到网络信息隐私再到算法隐私。为了使研究成果能够体现出该变迁趋势,采取历史梳理的观察视角非常必要。
此外,隐私不仅是法律上的概念,更具有社会文化的属性。“讲法者,是在讲权利、正义,但同时,也要进入到任何社会的价值之中……与法律不同的共同体规则仍然根深蒂固地存在于社会底层。”进行比较法研究时,在法教义学的基础上,完善社会文化视角的分析,将促使中外隐私概念的区分更加具体且符合实际。
不同权利的功能定位不尽相同。相较于纯粹的概念区分即“形式理性”,明确不同类型的信息隐私及个人信息对当事人的救济功能是什么即“实质理性”更具实践意义。因此,在进行纵向的历史分析时,结合社会文化的研究成果,着重于功能分析是本文的研究视角。其根本目的在于通过分析不同时期、不同类型的信息隐私及个人信息的功能价值之异同,以清楚界定我国信息隐私的边界。
二、信息隐私及个人信息的功能变迁
在信息技术的发展未进入到算法时代前,信息隐私的表现形式经历了名誉隐私和网络信息隐私两个发展阶段。这两种信息隐私承担的功能均较为单一,相应地,隐私的边界也具有清晰的可判断性。进入算法时代后,我国制定实施了《个人信息保护法》,对个人信息提供更全面的法律保护。鉴于名誉隐私、网络信息隐私及个人信息均有明确的法律定位,下文逐一分析三者的功能特征。
(一)名誉隐私的基础功能
根据《侵权责任法》《民法典》等民事立法的修正,名誉权和隐私权被列为不同的权利加以保护,因此名誉隐私并不是严格意义上的法律概念。但我国最高人民法院在2001年发布《关于确定民事侵权精神损害赔偿责任若干问题的解释》,将隐私权的保护归入人格尊严权之前,先后出台了《关于贯彻执行〈民法通则〉若干问题的意见(试行)》(1988年4月2日,以下简称《意见》)、《关于审理名誉权案件若干问题的解答》(1993年)、《关于审理名誉权案件若干问题的解释》(1998年)等若干文件,体现出通过名誉权制度来保护个人隐私权的司法模式,因此将该时期的隐私称为名誉隐私。
将隐私权和名誉权混为一谈的保护方式,反映了当时对权利区分的模糊化,从法律技术上确无讨论及借鉴的必要。但若仔细分析司法实践中当事人的权利诉求,对探明该时代信息隐私的功能意义,仍有裨益。
在北大法宝司法案例数据库中,以“名誉 隐私”为全文关键词,以“1988年4月2日至2001年2月26日”为检索日期,共检索到19件民事判决书。除去两个重复案例,分析样本共有17件判决书。
根据《意见》第140条规定,侵害名誉权的行为方式有三种:宣扬隐私,捏造事实,侮辱诽谤。其中宣扬他人隐私属于本文的研究范围。捏造事实与诽谤的区别采取主客观相一致的原则:仅具有行为上的捏造事实,但无主观故意,为捏造事实;若有主观故意,则认定为侮辱诽谤。按照该三种方式,将17件判决书进行分类,共查找到与宣扬隐私相关的判决为5件。这5件判决为与本文相关的有效样本,其余12件判决为非有效样本(表1)。
表1 与名誉隐私相关的民事纠纷之特征概览
以上纠纷体现出四个特征:
特征1:在5件有效样本中,诉讼双方仅体现为一种类型,即个人与新闻媒体。而在12件非有效样本中,诉讼双方主要体现为两种类型,一种是个人与个人,如案件9、10、11、12、13、14、15,另一种是个人与新闻媒体(包含记者),如案件6、7、8、16、17。
特征2:在个人与个人的纠纷中,纠纷双方均为熟人。根据案件事实,大部分纠纷所体现的行为方式确实为侮辱诽谤。亦有案件,被告的行为方式也符合宣扬隐私的特点,如案件9和11中,被告将原告的私人纠纷写成小报进行张贴,或写成信件进行散发;但原告在主张名誉权救济时,只强调了侮辱诽谤的行为方式,并未试图将被告的行为主张为宣扬隐私,以达到权利保护的目的。
特征3:在与新闻媒体相关的5件有效判决中,新闻媒体所撰写文章的主要内容在报道之前,均已存在不同程度的公开。如:案例1中,内容来源于非向社会公开的信访局文件;案例2中,内容细节源自病历,但事件本身已被其他媒体报道;案例3中,照片及内容源于公开的婚礼;案例4中,内容源自一审尚未生效判决;案例5中,内容源自市公证处的内部资料。
特征4:关于隐名和化名的司法认定存在差异。案例5中,报道是在公开的新闻媒体上,作者在报道时采用了化名处理,法院认为不存在侵权行为。而案例12中,被告雷某在村里通过广播言语时,虽未提及原告姓名,但村民公认其针对的是原告,法院认为存在侵权行为。
综合以上四个特征,可以看出,该阶段当事人诉诸隐私保护的、朴素的法追求更多体现为人格的尊严性,而非人格的自由性。人格的自由性是指当且仅当个人主动公开隐私时,该相关内容便不再受隐私权保护,强调的是个人的自由意志。但结合特征3,已被个人主动公开的内容,原告仍诉诸隐私名誉保护,可以看出,原告内心真实意思并不是因为感到个人的自由意志受到了侵犯,而是感到个人的形象和尊严受到了侵犯。
该尊严性主要体现为个人形象及人格在公共场合的道德性和名誉性。换言之,隐私的核心要义是与个人人格相关的形象、名称和名誉,而隐私权的本质则体现出大陆法系的“领域控制论”,即控制个人的公共形象的权利,以确保人们按照个人所希望的样貌得到评价和认可。
结合特征1和2,此时破坏个人公共形象的敌人至少有两个,一个是新闻媒体,另一个是熟人。但原告方往往只将新闻媒体诉诸法庭,并不将熟人作为宣扬隐私的加害者。容易理解的是,将媒体视为敌人,是为了避免不受控制的公共曝光及不必要的尴尬或屈辱。此时媒体对隐私的威胁及压迫感源于不道德的、负面的信息。而正面的、道德的宣传报道即使未得到本人同意,也不会让人感到个人隐私受到冒犯。因此,在信息还较多依赖于口口相传和书面媒介时,隐私以“使个人免受公共侮辱”为重心,保护个人尊严是该阶段着重关注的实质问题。
而之所以不将熟人视为敌人,这涉及当事人对“自我”及“人与人关系”的人际状态的认知。许烺光将中国人的基本人际状态归纳为“伦人模式”。在人与人的关系中,个体的交往圈子,由内向外分别为亲人圈、熟人圈和生人圈,费孝通称之为“差序格局”。个人与圈子中的其他个体的权利义务强度遵循不同的规则。在亲人圈和熟人圈中,个人将自我融入到亲密关系中,以得到心理上的归属感,“自我”的概念并不清晰。自我对与人格相关的存在、独特性、意愿等均没有很强的自觉,而作为个体的衍生物,隐私、自由、个性等观念均不发达,并十分在乎他人的评价。这可以用来解释为何特征4中,即使未指出真实姓名,判决仍肯定受害人的存在。
此时,隐私可以理解为不愿为“他人”知悉的事项。“他人”除了在“私”的层面受人际关系圈层的影响,结合特征3,还应在“公私”层面有所区分。拥有公权力的集体在中国并不被视为侵犯隐私权的主体。有学者认为,这说明隐私保护的法律意识相对薄弱,体现了家长干预子女、上级干预下级、组织干预个人的文化弊端。实际上,与其说是隐私观念淡薄,不如说是因为“个人”的概念在集体之中是不存在的。在“私”的层面上构成的隐私,在“公”的层面上并不被同等视之。如案例1、4、5,虽内容已被信访局、法院、公证处等部门知悉,但原告却不认为其丧失了隐私的属性并可被来自陌生人圈层的媒体记者公开报道。
概言之,名誉隐私的内核是人格尊严,与社会性的评价息息相关。随着“私装摄像头偷窥”等社会热点的频繁爆出,最高人民法院在2001年明确将隐私权与名誉权区分为不同的民事权利。该区分扩大了隐私权的保护范围,即从信息扩大到了行为、空间等。但其本质功能保护的还是个人的一种尊严状态,保护个人在一定的生活空间中的行为和信息,尤其是可能受到社会一般性的否定评价或者影响个人公众形象的事项,使其不受侵害。
(二)网络信息隐私的功能变化
2014年8月21日,最高人民法院施行《关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(以下简称《规定》),意味着我国参照德国的信息自主权原则,首次明确了网络信息隐私的判断标准。依据该《规定》第12条,构成网络信息隐私需满足5项原则。在北大法宝司法案例数据库中,以“隐私 自主决定”为全文关键词,以“隐私”为标题关键词,以“2014年8月21日至2020年5月28日”为检索日期,共检索到5件民事纠纷案件。除去与网络隐私无关及重复的案例,有效样本共为3件。结合《规定》12条中的5项原则,梳理为表2。
表2 与网络信息隐私相关的民事纠纷之隐私特征概览
结合上述判决及《规定》第12条,网络信息隐私的判断标准突出了当事人的同意和约定等个人意愿,强调信息收集和使用的自主决定权。这表明,当事人诉诸法院保护隐私权时,人格尊严的功能需求在减弱,人格自由的功能性在增强。
这一方面是因为,从个人的社会圈层来看,网络社会已脱离了熟人社会,人和人之间是完全陌生的。相应地,人的权利意识和个人意识也在增强。个体依赖周遭及其社会性评价的情感需求减弱。加之法律的调整功能主动介入,网络隐私的功能定位从注重保护人格尊严转换到注重保护人格自由,具有相当合理性。另一方面,网络隐私纠纷与线下的信息隐私纠纷有相似之处。陷入隐私纠纷的大部分信息,都来自于当事人自身的先行披露,所以“收集”信息的行为较少被权利人认为侵犯了其隐私权。
而二者的不同之处在于私人空间与公共空间的界限感不同。在线下纠纷中,当事人的自行公开通常只依赖于报纸、杂志等纸质媒介,公开性的特征十分明显,因此法院的判决多支持媒体方。而在网络纠纷中,当事人信息的主动披露,除了绝对的私人空间和绝对的公共空间之外,还存在朋友圈等半私人半公开的空间。因此需要在个人尊严和个人自由的保护上,以及个人隐私权保护和他人言论自由之间取得平衡。这种平衡通过赋予权利人“自由决定权”来实现。
至此,信息隐私的保护范围已扩大为传统的名誉隐私和网络隐私两部分。虽然这两部分信息隐私承担的功能不尽相同,名誉隐私的功能强调人格尊严的维护,即控制尊严形象,而网络信息隐私更强调人格自由的实现,即信息的自由决定。但由于线上和线下的空间相对独立,不存在交叉,实践中并不容易造成法律适用和价值判断的混淆。
(三)我国网络信息隐私与个人信息的功能关系
首先,网络信息隐私与个人信息存在交叉。《个人信息保护法》第4条规定,我国对个人信息的保护范围较大,既包括“已识别”自然人的信息,也包括“可识别”自然人的信息。前者为实然说,后者为应然说。而网络信息隐私的判断标准是“足以识别”自然人。无论是从字面解释,还是依据隐私与个人信息在《民法典》中的体系解释,该“足以识别”亦应包含“已识别”与“可识别”。而且,根据《民法典》第1033条和第1035条,网络信息隐私和个人信息受侵害的行为方式都表现为收集和处理。当满足个人同意、具有公开的必要性、在法定及约定的范围内等条件时,个人信息的收集和处理也具有正当性。该标准与网络信息隐私的判断具有一致性,都体现了个人的信息自主权。
其次,网络信息隐私和个人信息的共性在弱化,差别被凸显,共同适用的信息自主原则难以满足不同的功能需求。如黄某诉腾讯公司等纠纷案中,法官先适用信息自主权原则,确定微信好友列表和读书信息属于个人信息。但在判断是否构成隐私时,法官却又采取了传统名誉隐私的判断标准,即判断其是否属于“不愿为他人知悉的内容”。判决认为难以认定该信息属于“不愿知悉的内容”,无法确定构成隐私。在区别该好友关系属于隐私或是个人信息时,判决突出强调了二者的差异,即隐私维护的是精神利益,而个人信息维护的是财产利益。法官的判决理由表明,隐私和个人信息应承担不同的法律救济功能。
根据《民法典》第1032条,网络信息隐私和个人信息的区分点在于私密性。王利明指出,“隐私权制度的重心在于防范个人秘密不被非法披露,而并不在于保护这种秘密的控制与利用。个人信息权主要是指对个人信息的支配和自主决定”。同时其认为“隐私权主要是一种精神性的人格权,个人信息既包括了精神价值,也包括了财产价值”。
该区分的重要意义在于指出了隐私和个人信息的功能不尽相同。个人信息的保护主要针对“信息的使用和处理”,信息的收集、储存和使用均需正当化和合法化。个人信息是平衡个人控制信息的利益需求和信息流动共享的商业价值之间关系的政策调整工具,确保信息能够满足“动态平衡”的使用价值。相比于使用价值,隐私更涉及对一个人的根本尊重。如果说个人信息只是法律概念,仅受法律的激励,那么,隐私则受法律和文化的双重激励,承载着某国家或地区的道德价值。
三、算法隐私的功能冲突与中美差异
“快速发展的算法技术和全球化扩张的云计算能力不仅深刻地改变了世界”,其将不同的价值立场融合为一体的技术模式给信息隐私保护也带来了新的挑战:名誉隐私和网络信息隐私这两种不同功能的信息隐私在算法的自我学习过程中,发生了融合。
(一)信息隐私的内部冲突
网络算法的出现,打破了名誉隐私与网络信息隐私之间相对独立的平衡状态。
一是名誉隐私和网络信息隐私的边界逐渐被打破,人格尊严和信息自主的价值立场发生冲突。在算法的世界,用户隐私权所面临的威胁往往不来自真实的他人,而来自算法本身。算法凌驾于人之上,代替人进行信息决策,把本来与隐私无关的独立信息组合成较为真实的“人格图像”。判断网络信息隐私时适用的信息自主原则,已无法对抗拥有自主学习能力的算法的入侵,尤其是不受控制的高阶算法。
如朱某诉百度的隐私权纠纷案中,朱某在百度网站上留下了“减肥”“丰胸”“流产”等搜索记录,百度网站依据该搜索记录向朱某推送相关广告。法院采纳信息自主权原则,认定百度收集使用的信息未侵害朱某的隐私权;而朱某诉诸司法救济的目的并不是为了保护个人对信息的自主决定权,而是因为“减肥”“丰胸”“人工流产”等词语使其精神层面感到不安,其力图维护的是个人尊严。两种价值立场交织在一起,不可避免地造成了算法场景中信息隐私保护的功能冲突。
二是人和人之间的边界被打破,亲人圈、熟人圈和生人圈的人际状态已被隐藏。名誉隐私和网络信息隐私的威胁来自真实存在的自然人等民事主体;法律可以结合各自的人际关系圈层,制定不同价值取向的规则。而人为设计的算法并非绝对中立的技术,承载的程序实际上是有道德感的。在不同的算法世界中,算法计算、学习、分析信息时所遵循的价值判断也体现着隐性的社会文化价值。因此,确定隐私是否存在时,不能直接采用陌生人圈层中的信息自主决定的标准。
此外,云计算允许模块化的外包服务,实现了全球范围内数据处理的巨大灵活性。数据传输不再是一个国家内的点对点交易,越来越具有国际性。用户与算法的设计人员可能来自不同的文化社会,对圈层的亲疏远近关系有不同的定义。所以算法隐私的界定不仅无法适用全球化的统一标准,也无法适用熟人圈的规则。
(二)隐私功能的国际冲突
我国《民法典》试图将不同功能定位的隐私类型放置到一个条文中进行规定,或许在国内可以通过法官、学者等法律共同体的努力解释,在理论上形成较为一致的理解共识。但我国规定的“私密性”标准涉及价值判断,难以应对国际社会的价值差异。如TikTok使用的同一种算法,在中美两国陷入了截然不同的法律处境。
TikTok是抖音的海外版,该应用通过“个性化推荐算法”,根据用户偏好,向其推荐内容。其算法机制在美国主要受到三方面质疑:一是数据收集。TikTok绕过谷歌、安卓系统的隐私保护措施,收集 “允许应用程序在线跟踪用户”的唯一标识符。二是数据存储。TikTok存储用户信息的服务器被位于美国之外的主体所控制。三是数据分享。TikTok的用户数据信息可以与中国的母公司共享。
美国社会之所以产生以上质疑,在于:根据中国《网络安全法》,在线活动受到严格监管,政府可以依法对计算机网络进行现场和远程检查;当符合法律规定的情形时,一旦政府情报部门介入,可获取任何在中国的公司所收集的用户数据。美国担心若TikTok属于中国法律的管辖范围,将对美国人的个人信息造成威胁。为此,美国政府甚至在2020年8月6日及12日签署两份行政令,要求TikTok所属公司尽快出售在美业务。而美国国防部和富国银行等也已禁止或阻止使用TikTok。此外,在TikTok发布的史上第一份“透明报告”中,详细说明了“用户对信息的法律要求”和“政府对内容删除的请求”。值得注意的是,美国以86%的比例成了申请用户数量最多的国家,而在中国没有收到任何用户对个人信息的法律请求。
美国最核心的利益关切点是,美国人的数据信息是否与中国政府共享并受到中国政府的监管。从公法的角度,这涉及某国政府是否可以访问本国公司存储于海外的用户信息;从私法的角度,这涉及某用户的数据信息一旦被某应用程序收集记录,是否意味着该信息可以被海外或者不特定的主体访问。
与强烈抵制TikTok的动机相反,美国政府却多次要求网络公司披露其储存在国外的数据信息。其法律依据是1986年颁布的《存储通信法》(Stored Communications Act,简称SCA)。SCA规定了政府如何从诸如因特网服务提供商之类的实体访问被存储的用户信息。涉及访问国外信息的是SCA的第2703 条,该条规定了是否只能访问存储于美国国内的信息。此外,为了实现海外数据访问权的合法化,2018年美国颁布了《澄清境外数据的合法使用法案》(Clarify Lawful Overseas Use of Data,简称CLOUD),这套框架指导执法部门依据合法的搜查令来直接访问境外的数据。
以我国的《民法典》为参照系,在理解上述隐私权争议时,容易发生概念上的混乱:美国抨击的究竟是TikTok的隐私风险还是个人信息保护漏洞?从单纯的概念上来看,美国隐私权的保护范围包括我国的隐私和个人信息——美国的信息隐私与我国的个人信息重合度较为一致。
根据哈里斯民意调查结果,92%的互联网用户对网站与其他网站共享个人信息表示不满。对美国人来说,隐私权意味着有权控制个人信息在何种情况下被收集和使用,以防止他人未经自己许可而获取。因此,可以看出美国隐私的核心价值是人格自由,保护的是自由而独立的状态。如在Mount v. PulsePoint, Inc.案中,法官认为侵害隐私权的损害甚至不需体现为有形的、可识别的、可用金钱评价的伤害,只需影响到受害人的真实存在即可。
许烺光看来,该价值追求反映了美国人在处理人际关系时的个人主义色彩。其人际状态的生命包中缺乏稳定、亲密的内容。个体有较为清晰的“自我”意识,独立、个人、自由是表述这种自我的关键词。个体对自己的存在、独特性、意愿、情感等均有较强的自决。即,我是世界的中心,世界围绕我而动。
(三)中美信息隐私判断标准的差异
对比我国黄某诉腾讯公司等纠纷案与美国TikTok隐私争议,可以发现中美信息隐私权的保护标准完全不同。在我国,需通过判断数据组合的结果是否构成“人格图像”以确定算法场景中是否存在信息隐私。信息隐私的“私密性”涉及人格图像,保护隐私权要特别保护用户个人控制个人人格图像的权利。而在美国,相当看重的隐私风险是数据是否被他人共享。相较于我国更重视“数据组合的结果”,美国更注重保护“数据的获取”。此外,由于美国个人主义的文化特征,强调个人意志的表达和保护,个人容易对政府产生强烈的不信任感。当不信任的对象来自海外的中国政府时,这种不信任感会更加强烈。
两国对隐私权保护的区别还在于义务的强制性不同。在我国,隐私权是人格权。我妻荣指出,从“侵害利益的种类”和“侵害行为的样态”之间的关系来看,人格权作为绝对权,一经侵犯即得保护。因此,在我国,算法应用与用户签订的隐私协议,有法律强制规定的基本义务,不允许通过双方合意将保护个人隐私权的基本义务拒之门外。而在美国,信息隐私的保护在很大程度上是契约性的,各州的隐私保护规定严厉程度不一,联邦法律的要求也很有限。算法应用与用户往往是用合同的语言搭建双方的隐私框架,权利义务关系依赖于双方的合意。
四、我国个人信息和算法隐私的标准完善
要解决算法隐私面临的内外冲突,至少需要平衡三方面关系:其一,算法隐私融合了不同类型的信息隐私,怎样协调这些类型?其二,信息隐私与个人信息功能定位不同,怎样界定两者的判断逻辑?其三,怎样应对中美隐私保护存在差异?
(一)个人信息和信息隐私的再区分
1. 个人信息的保护更直观,而信息隐私的保护更具有隐秘性。当今数据信息流动的趋势是“购买数据”而非“制造数据”。算法开发者和使用者不仅可以购买数据,还可以直接购买计算能力。这使得个人数据不再是排他性的私有数据。但个人数据信息的买卖可以追溯,一旦个人信息的国际标准建立起来,将对本国用户的权益带来更大程度的保护。而由于算法的复杂性和专业性,其描画的隐私图像常常难以解释,容易陷入法律适用困境。
2. 侵犯个人信息的目的以获得信息为必要,而侵犯信息隐私的首要目的并不是为了获得信息,主要体现为对一个人的监测、窥视与分析。从个人信息保护的角度,任何利用用户信息的增值服务都可以被认为是“监测、窥视与分析”。例如,跟踪个人数据使用以提供额外存储容量的服务。通过对个人信息增值服务进行规范,可以间接达到信息隐私保护的目的。
3. 个人信息的保护标准应与国际接轨,而信息隐私的保护应采用本土化标准。个人信息保护的是一种数据权利,强调个人对自己的信息可以自由处分。通过云计算,算法更容易提供远程服务并在线处理个人数据,且很难确定使用个人数据的设备位置。随着技术民族主义的涌动,通过个人信息回应中外信息隐私保护的差异,既可以避免文化价值的内在冲突,还可以大大扩展我国《个人信息保护法》对域外信息平台的管辖范围。由于人格性既可以体现为人格自由,也可以体现为人格尊严,隐私的保护标准无法实现国际统一。若将信息隐私变成统一的技术标准,将失掉中国传统文化的内核,因此我国信息隐私的保护标准应坚持本土化立场。
(二)个人信息标准的国际化
要拓展我国《个人信息保护法》的国际管辖范围,个人信息的保护应努力实现全程化,既要重视信息的纳入,也要重视信息的访问,还要重视信息的审查、使用和处理。所以,不仅要从立法层面对不同阶段的规范加以完善,还应在司法实践中分别对照个人信息的纳入、访问、审查和管理等过程逐一检视。
首先是信息的纳入,这涉及信息访问与使用的授权来源。具体内容包括:第一,与谁有关的信息——是用户个人或者其他人?第二,谁是信息来源——是政府机构、使用人、用户个人或者其他人?
其次是信息的访问。这涉及权利滥用的问题。即使信息平台获得了用户的授权,具有行使权利的外在形式,但信息平台若为了追求不当利益,其行为在社会观念上违反了授权的目的,超出了权利的功能范围,仍需进一步判断其行为是否构成权利滥用。具体内容包括:第一,谁有权访问?第二,如何确定该访问权限?信息平台是否有权访问所有信息?第三,是否是访问权限受到限制的信息?第四,采取了什么措施来防止信息平台的权利滥用?第五,该信息平台是否与其他信息平台建立接口,共享信息?如果是,如何共享信息?哪一个信息平台负有确保该共享信息合理流动的义务?第六,该共享信息是否得到了用户的授权?履行了哪些控制义务来确保共享信息的访问不违背法律等强制性规范和当事人的意思自治?
再次是信息的审查。具体内容为是否仔细审查了拟使用的信息?例如:与信息平台收集信息及所针对的业务目的是否相关且必要?由于信息聚合而创建新的信息,如何验证新信息的准确性和相关性?采取哪些控制措施防止未经授权访问并使用新信息?信息平台使用的自动化决策算法是否影响权利的正常行使?
最后是信息的使用及处理。例如:信息平台如何确保对个人信息的公平和平等对待?信息的保留期限是多久?实施哪些程序来处理信息?我国的《个人信息保护法》着重解决本部分的内容。
(三)算法隐私的判断逻辑
根据算法“收集数据、挖掘数据、分析数据、应用数据”的行为阶段,要证成算法中的数据信息构成“人格图像”,就必须要证成算法行为的结果构成“人格图像”。因此,在判断算法隐私是否成立时,需分阶段探讨。
只要获得了用户的同意,一般不宜认为用户自行输入的数据信息构成算法隐私。问题的关键是如何理解“同意”。在收集阶段,只要该信息不属于法律法规明令禁止的隐私信息,如基因信息等,且由用户个人主动输入,那么该信息的收集一般宜认为获得了用户的同意。
在挖掘阶段,所面向的数据包括三种:本应用自行收集的数据信息且符合该信息的使用范围;本应用自行收集的数据信息但不符合该信息的使用范围;其他应用收集的未公开的数据信息,通过自行抓取、买卖等方式使用。第一种一般不构成隐私。第二种一般也不构成隐私,但其使用范围超出了当事人约定,可诉诸个人信息保护加以救济。第三种又包括独立的、未经加工分析的数据信息和已经被加工分析、具有人格图像的组合信息。前一种一般不构成隐私,同样可诉诸个人信息保护加以救济。而组合信息可构成隐私,受隐私权保护。
判断数据信息是否构成隐私应重点关注此阶段,需判断“算法的分析结果”是否构成“人格图像”。在算法中,该人格图像主要表现为个人偏好,由用户的轨迹信息组合而成。
在数据收集阶段,只要用户主动输入信息就视为用户同意了该信息的收集。数据分析阶段则与之不同,算法要获得用户的同意,可通过两种方式实现:一种是概括同意,即算法将某几类信息的组合行为及可能组合出来的结果提前告知用户并获得用户同意;另一种是个别同意,即在需要组合某几类特殊的信息时单独提醒用户并获得用户同意。无论是哪种方式,当用户偏好信息的使用获得了用户本人的同意时,便不宜被认定为信息隐私;反之,则可构成信息隐私。
判断用户信息是否构成信息隐私时,主要依据同意原则。除了用户的同意,出于公益目的、合法性授权等也可赋予算法行为正当性。概言之,上述判断仍以信息自主原则为基础。在此基础上,再针对算法“分析数据”的阶段,证明其分析行为的结果组合出了用户的人格图像,从而形成了判断算法隐私的逻辑标准:“信息自主决定+控制人格图像”。该标准的建立既可以摆脱算法在融合名誉隐私和网络信息隐私时所面临的功能冲突困境,又与以“信息自主决定”为保护原则的个人信息区分开来。
五、结论
我国《民法典》对不同类型的信息隐私及信息隐私与个人信息的区分方式较为抽象。由于其各自功能定位存在差异,融合到算法中时,容易造成算法隐私的功能冲突,并陷入信息隐私和个人信息关系的解释困境。为了便于实践操作,界定算法场景中的数据信息是否构成信息隐私时,应采“信息自主决定+控制人格图像”的判断标准。由于个人信息本身不涉及价值判断,为了扩展我国法律的管辖范围并解决中外个人信息保护的差异,宜从信息的纳入、访问、审查、处理等方面进一步完善我国《个人信息保护法》的规范内容,构建与国际接轨的信息保护规范。
① 信息自主权最初是由德国联邦宪法法院在人口普查案中提出,主要指个人可以自行决定与本人相关的生活事实于何种范围、何种程度公开。
② 13 Civ. 6592 (NRB).