APP下载

人脸识别规制中公共利益的限度

2021-11-21

对外经贸 2021年6期
关键词:公共利益人脸识别人脸

郭 杨

(上海政法学院,上海 201701)

随着“大数据”时代的来临,人脸识别的应用场景愈发广泛。在刑事侦查领域,前有人脸识别技术在某演唱会中抓捕逃犯,后有利用机场人脸识别系统抓获嫌疑人;商业应用从“刷脸支付”“刷脸打卡”再到公厕的“刷脸取纸”,人脸识别早已遍布各类公共场所。与人脸识别的广泛场景不相称的是,我国相关规制的显著不足。在使用的主体上,无论是政府、社区还是商家,似乎均可任意运用人脸识别技术。在常见的适用情境中,如机场录入人像与数据库中数据进行匹配以验证身份,人脸识别技术的自动识别和实时分析功能也极大侵扰了个人信息的安全。商业应用中现行法要求商家明确告知风险并在信息主体“知情同意”后方可进行人脸识别;而对于以公共利益为由使用人脸识别的情形相对而言受到的关注和质疑较少。但这并非意味着“公共利益”就是无节制使用人脸识别的理由,被誉为“国内人脸识别第一案”的“郭某诉某公司”即为一个规制不力导致的恶果。由于公共利益本身具有抽象性,学界至今尚未形成一个公认的权威概念,这也是导致现实中公共利益虚化、弱化、泛化的一个重要原因。因此,设定公共利益的适当限度就成为了当下亟待解决的问题。

一、我国对公共空间中人脸识别的规制

(一)现行法律对人脸识别领域公共利益的限定不足

我国目前对于人脸识别并没有出台专门性的法律予以规制,相关权益的保护散落于《民法典》《网络信息安全法》以及各类规范和指南中。《民法典》对于人脸信息的保护路径依附于个人信息保护举措,并没有对人脸识别领域中的公共利益进行特殊的保护。人脸信息的公共社会性和私人性的双重属性决定了其并不能作为现有隐私权的客体,故在现行法律框架下对其适用的是个人信息保护的规定,并未对既具公开性,又具有敏感性的人脸信息予以特别保护。人脸信息界定上的模棱两可导致了该领域中公共利益范围的模糊性和不确定性,由此给人脸识别在公共场所中应用的必要性认定带来了难题。

此外《民法典》第 1036 条还规定了收集使用自然人个人信息不承担民事责任的情形,其中就包括“合理处理自然人自行公开或其他已经合法公开的信息”。作为社会交往中一环,人脸信息的展露被无可争议地视为个人信息而对外公开。那么,在公共空间中经过公布的个人信息是否仍受保护?

我国现行法律对人脸信息进行了初步的规制。

(二)目的限制原则与“公共利益”的滥用

目前实践中在公共场所能否适用人脸识别的判断一般是基于目的限制原则。目的限制原则(Principle of Purpose Limitation)源自目的规范原则和兼容性使用原则(Principle of Compatible Use),要求数据收集的目的应“具体、明确、合法”,不应以“与原始收集目的不相容”的方式进一步处理数据,以促进法的透明度、确定性以及可预测性。

目的规范原则要求收集的初始目的都需要符合具体、明确和合法三个标准。需要明确的一点是,在政府部门主导的或为了国家安全而进行人脸识别的情况下,可预见性并不意味着个人应当能够预见到将要进行的检查,而是要求法律以适当的方式表明在何种情况下允许采取此类措施。[1]兼容性使用原则,要求为特定目的收集的面部信息应在随后的使用中限于该目的,不应以相悖于最初目的之方式进行更深层次的加工。值得注意的是,不相关的目的不一定不兼容。

目的限制原则看似为公共利益在人脸识别的应用问题划定了明晰的边界,其实该原则本身仍处于概括性表达的层面,两个子原则的深化解释并不足以完全解释母原则实际含义。举一实例可见:2019 年,法国马赛地区的一所高中被允许使用面部识别系统进行管理,提高学生入校速度,并帮助管理人员发现未经授权甚至伪造身份进入学校的无关人员。作为人脸识别适用的两个目的——提高入校速度和管理效率,经过有关部门允许后应被认定符合目的规范要求,同时也无相关证据表明超出了兼容性使用的必要,应当被认定为符合目的限制原则。然而,该举措却引发了民众的广泛质疑,他们认为在保障校园安全的前提下提高学生入校速度有侵入性更低的可替代方法,对于该目的概括性的解释不足以构成使用人脸识别的理由。

实践证明,目的限制原则并不足以划定公共利益在人脸识别中的边界,甚至对其表述的概括性可能会增加以公共利益为由滥用人脸识别的风险。在社会联系愈发紧密的今天,任何使用人脸识别的目的最终都可能被解释为是出于对公共利益的考量,因此,目的限制原则看似必要,实则空泛虚化,亟需完善,并与其他理论衔接,如此方能够划定人脸识别中公共利益的合理边界。

(三)个人隐私保护路径的不足

当面对地位上具有显著优势的数据收集者时,现有的隐私理论体系对公共空间中的隐私保护问题显然力不从心。迪恩将传统上被认为是“不受打扰”的隐私权扩展至四类,被美国超过一半的州通过法规或判例的形式予以采纳。然而,迪恩所提出的隐私侵权理论只适用于在公众视野之外发生的行为,排除了对在公众场合中对人脸的获取与进一步加工使用。几乎所有美国法院都坚定地认为,当被捕获的行为发生在公共空间时,原告无法维持隐私主张。[2]

将人脸信息划入到隐私权的保护领域,借此抗衡公共利益的做法,既不可行又缺乏实际意义。与专享性的个人利益相区别的是,公共利益是一个非排他性的概念。这就意味着公共利益和个人隐私并不是非此即彼、相互排斥的状态。对于公共空间中应用的人脸识别,人们在多数情况下并不介意,甚至也不认为侵犯了自己的隐私,故泛泛而谈公共空间中人脸识别的应用是否侵犯了隐私权并无多大意义。基于预防违法犯罪或治理社会等公共利益而进行的此种部署虽对个体具有一定的侵入性,但限制人脸信息流通或使用的做法也体现了对隐私权的尊重。因此,与其说人脸识别直接侵犯了隐私权,不如说是该技术的滥用增加了隐私权被滥用的风险。[3]人们对于人脸识别的担忧并非该技术本身的使用,而是在于被收集后人脸信息可能被不当使用,以及对随之而来的个人信息尤其是隐私信息泄露的问题。

在风险社会背景下,个人隐私与公共利益不再具有堡垒分明的划分,人们更关注于如何实现二者的共生共存。维护公共利益是人脸识别应用的首要价值基础,实现个体利益的最大化则是社会进步的主要推动力,一味追求公共安全忽视个人隐私的保护则会对个体权利造成不公,从而催生个体的不满和怨愤。越是处于风险社会,越应当强调对个人隐私的保护,不能以公共利益为代价增加隐私权受侵犯的风险。

二、域外有关人脸识别中公共利益的法律规制

(一)欧盟——“统领引导”模式下的人脸信息保护机制

1.欧盟关于人脸识别的法律规制框架

在个人信息保护层面,欧盟采用“统领+各成员国立法”的模式。通过制定欧盟统领性的规则,引导各成员国建立各自的个人信息保护法律体制。此类规则,主要指欧盟保护人脸识别数据的核心法律——《通用数据保护条例》(General Data Protection Regulation,以下简称“GDPR”)。GDPR 作为一项一般性文书与欧盟第2016/680 号指令组成了欧盟数据保护的新框架。

在实现公共利益的过程中,GDPR 考虑到数据处理过程中相关的风险,规定了必要的保护性举措,主要包括风险评估和数据保护官等。第35 条特别规定,“进行大规模系统性监控”的数据控制者在处理数据之前,必须结合处理的性质、范围、语境与目的,对可能给个人数据带来的影响进行评估,并建立和公开评估处理列表。第37 条则规定,核心涉及大规模系统性监控的处理活动中,数据控制者和处理者应当委任数据保护官来提供咨询建议。

虽然尊重数据主体的基本权利与自由是GDPR 的立法宗旨,但这并不意味着数据主体的权利不受任何的限制。GDPR 将生物特征信息归入个人数据的“特殊类别”,一般情况下禁止处理此类信息,但也规定了例外情形。GDPR 第23 条列举了欧盟或其成员国可以通过立法手段限制数据主体权利的情形,其中大部分是出于对公共利益的考量;并规定此类限制性的立法条文中应当包括的具体内容,如处理措施的目的和类型、限制的范围、防止滥用或非法访问的措施等。这意味着GDPR对于个人数据保护并不是绝对的,需要做到与其他基本人权、基本自由相协调,不能妨碍信息自由和公众知情权等基本权利。[4]

欧盟第2016/680 号指令是关于主管当局为预防、调查、侦查或起诉刑事犯罪或执行刑事处罚目的,而处理个人数据以及此类数据的自由流通方面的规定。出于对公共利益的考量,第13 条、15 条、16 条中均出现了基于公共安全而限制数据主体的部分权利的规定。指令第19 条还规定了执法机关的问责制,以使其能够遵守数据保护的义务。虽然该条款的规定较为含糊,但它将问责义务与执行的技术和组织的措施联系起来,例如规定执法机关具有“保护数据”的义务,并应进行相称性评估,说明处理数据的合法性、必要性以及对数据主体的影响。

2.欧盟对人脸识别的监管机制

虽然GDPR 的效力层级在欧盟是“条例”,仅次于具有“宪法性”的《里斯本条约》,但部分企业与欧盟成员国仍未对其实施做好准备。为了确保GDPR 的顺利进行,欧盟采用了“行政-司法”救济机制解决数据主体的权利保护问题。数据主体有向监管部门申诉的权利,由监管机构对于被申诉的行为进行相关调查,判定是否违反GDPR。如果监管机构不受理或者三个月内没有告知申诉的进展和结果,数据主体可以向相关法院进行申诉,获得进一步的司法救济。

除了政府监管渠道外,民间数据保护组织也发挥着重要的监管作用。德国汉堡数据保护和信息自由协会(DPA)曾指令警方删除面部信息储存处理的一个数据库。该数据库由视频监控材料、公民上传的私人录像以及从媒体来源获取的视频和图像等内容所组成。警局对此有一个专门软件用于识别图像上的人脸,计算其特征,并创建和存储以这种方式捕获的人脸的数学模型。汉堡DPA 认为尽管高效的刑事起诉非常重要,但在一个法治国家中,并非任何技术性事物都可能被法律所容许,创建该数据库的行为是对大部分人的权利和自由的非法侵犯。然而法院认为,汉堡DPA 应审查警方处理数据的具体形式,并就违反GDPR 的情况进行调查并得出结论,而非侧重于警方数据库的建立及其结构问题,因此其要求删除数据库的指令无效。此外,汉堡DPA没有考虑到警方作出赔偿的可能性,故该指令在行使酌处权时存有缺陷。汉堡参议院认为,协会应提出申诉或发出警告,而无权下达命令。[5]从本案的判决中可以看出,对于数据保护协会,法院和立法机关倾向于将民间数据保护协会作为数据主体,认为其不能具有裁决权,但具有一定的调查权。

因此,欧盟在公共领域中人脸识别规制监管问题上,实则是采用“机构——行政——司法”多层监督方式促进人脸识别技术的合理使用。

(二)美国——严格限制面部识别技术的使用

在美国,许多公民权利组织已经对面部识别技术的使用敲响了警钟,呼吁政府采取紧急政策和监管行动限制其使用。美国的加利福尼亚州、华盛顿州、爱达荷州、德克萨斯州和伊利诺斯州等州已经在通过协调运动,带头规范或彻底禁止使用人脸识别技术。

美国参议院提出的《算法问责法案》要求商业公司需要对做出自动决策的高风险系统进行评估。高风险的自动决策系统中就包括可能引起安全或隐私方面的顾虑,涉及大规模监控公众物理位置的人脸识别技术。评估必须详细描述该系统,确定个人信息的隐私和安全风险,并说明为减少这些风险而采取的步骤。对高风险信息系统,还需要评估该系统对隐私的保护措施和安全程度。

作为联邦制国家,美国各州在面部信息保护方面也进行了具体的立法管控。其中最具参考性的当属伊利诺伊州的《生物信息隐私法案》。但该法并不规定生物信息能否使用,而是将重点放在规制使用生物信息的方式,如需要告知自然人主体的内容、企业保留生物信息的时间限制等内容。该法要求私人实体必须符合“所在行业内的合理注意标准”,而对于标准的判断,不同行业也不尽相同,需要法院在作出判决时具体考量。旧金山市通过的《停止秘密监视条例》,全面禁止当地政府部门使用人脸识别技术,主要原因是该技术本身可能带有的算法歧视,在保障公民权利和自由方面得不偿失。因此,该条例将人脸识别的直接使用以及通过该技术获取某些信息都视为违法行为。这意味着既不能在公共场所安装人脸识别的摄像头,也不能利用该技术锁定嫌疑犯。

2020 年3 月12 日,华盛顿州通过了第 6280 号《人脸识别服务法》。该法案中建立了人工审查、测试等机制来规范人脸识别技术的服务和使用。法案要求使用人脸识别服务的州或地方政府机构做出对个人产生法律效力或具有类似重大影响的决定时,必须确保该等决定遵守“实质性人工审查”的要求。所谓的“实质性人工审查”是指由政府机构中经过培训的一人或多人进行审查或监管。采取类似措施的还有加利福尼亚州的《人脸识别技术法》(草案),该草案同样对人脸识别的应用要求进行人工审查。此外,该草案还规定“在不威胁自由民主的情况下,允许州政府建立以某种方式适用人脸识别的保障措施。州政府可出于保护公共安全的目的,使用人脸识别定位、鉴别失踪人员和犯罪受害者。”

从民间组织、联邦政府,再到各州,美国对于人脸识别技术目前仍采取较为谨慎的态度,严格限制或禁止该技术的使用。即便是出于公共利益的考量而使用该技术,也要详尽进行介绍,经过实质性的审查,并采取周密的风险防控举措。与美国的严格管控相比,国内人脸识别技术使用仍处于一个比较宽松的环境中。

(三)波兰——详尽规定了人脸信息数据的处理和储存

波兰政府在疫情期间推出了一款名为“家庭隔离”的应用,强制公众使用该应用发送照片以证明遵守了隔离规则。并且政府在未经有关数据主体同意的情况下,能够直接从电信服务提供商获取患病或被隔离人员终端设备的位置数据。

在处理数据的地点上,考虑到在单个设备上窃取数据要比在安全服务器上容易得多,波兰数字化部选择了集中式的分析方案,将收集的人脸信息等数据统一在服务端进行验证。但也有学者提出,从隐私的角度出发,数据收集者最好在设备上执行人脸兼容性分析,创建生物特征的本地模型,再将这种模型的校验和存储在服务器上,以验证模型是否随时间变化。在请求验证位置和面部时,仅将本地图片与模型进行比对,确定是否发生更改。在用户数据的存储期限上,从停止使用之时算起,该应用对于用户的个人数据储存期限为六年,与《波兰民法典》对索赔的限制期限相符。

三、基于公共利益应用人脸识别管控建议

人脸识别技术作为一个新生领域,问世至今已得到各行业广泛的青睐。然而,由于法的滞后性,目前并无有效的法律规制该技术随意收集和滥用人脸信息。政府虽然不能对市场进行绝对的管控,但可以通过制定相应的法律法规对公共利益和私人利益进行权衡,从而保障弱势群体的信息自主权。

(一)引入“场景导向”和安全审查

由于目前法律规制不足与监管约束不力,加之相关主体在信息收集与使用等方面缺少社会责任感,人脸信息泄露的可能性大大增加。因此,将人脸识别放置于“场景”下讨论其使用的合理性,并引入严格的安全审查程序是保障其安全应用的前提性条件。

所谓的“场景导向”是要将个人信息的保护程度置于其所处的具体环境中进行审视,综合多方面对判断处理个人信息的合理程度。人脸信息的处理是否合理的关键在于是否符合用户的“合理预期”。有学者提出,通过实质性界定的方式将公共利益分为基于安全保障、法律执行、社会福利、经济发展四种类型。一般情况下它们所体现的利益大小依次减弱,但也要根据具体情况进行判断。基于公共利益限制数据主体的权益属于法律的适用,应当通过法律方法的方式判断公共利益的具体内容。[6]但在取得相关经验之前,确定人脸识别领域中限制个人自主权的场景是一项困难的任务。除了根据事实性质判断场景是属于公共领域还是私人领域,立法者还有必要对应用的具体场景进一步加以区分,详细地列明适用的场景和理由。

不同场景的审查严格程度,取决于该场景下可能遭遇的风险程度。针对可能发生的风险目前存在着强风险和弱风险预防理论。强风险预防理论认为一项行为只有在被确认没有任何危害的情况后方可进行;弱风险理论认为对于可能的风险不能以其发生欠缺充分性而延迟采取预防危害的措施。[7]上文中美国各州对人脸识别的严格限制做法体现了强风险预防理论。虽然不乏有学者提出,出于商业主体技术的领先优势和政府技术的相对落后地位的考量,政府使用人脸识别应以事前规制为主,非政府部门的使用行为则应关注于事中事后规制。[8]这则是从弱风险理论的角度侧重于对非政府行为导致风险的预防。目前政府的人脸识别设施的安装和监控大多与第三方公司进行合作,共同开展和监管,并不存在技术信息过分迟延滞后的情形,所以笔者认为以技术滞后为由对政府进行事后监管的提议有待考量。

对于存在较强风险的人脸识别使用场景,美国华盛顿州和加利福尼亚州上述中两部法案所提出的实质性人工审查对我国是可资借鉴。由公安机关作为人脸识别技术使用的安全审查的专门机关进行管理,在专门机关进行审查之下,可以设置经过培训的专职的监管员或者专职的审查小组具体负责人脸识别技术的审查。例如,商场、企业等单位及公园、学校等应用人脸识别都应该提前审批,公安部门负责依法审核其使用的合法性、正当性和必要性,具体的审查的工作则由专职的监管员进行负责。有关机关应当制定明确的审查标准和程序,提高使用者责任的同时也要设立相应审查标准及程序,加强人脸生物识别信息数据的管理和协作。

此外,学界可以探索“场景理论”在人脸识别领域的发展,并且对于不同的场景设置差异化的保障机制,根据不同的具体场景采取差异化的保障措施,进而对信息使用中的风险进行规制,从而完成由“动态合规”向“动态风险规制的转变”。通过多样化、情景化的权益安排,满足人脸信息在不同场景下的需求的同时,也有助于监管部门对于有关合同进行分散审查与裁判。

(二)分阶段控制

1.收集

人脸识别技术在诸多领域都得到了广泛的应用,从现实生活中来看,人脸识别技术的应用大致分为以下几个方面:一是政府等公共机构基于社会公共目的而收集与利用人脸信息,例如机场、高铁安检时使用的人脸识别技术。二是商业主体对于交易主体进行人脸信息的收集和应用,如支付宝、微信等支付平台。三是某些特定的机构基于其他的需要对人脸信息进行收集,如进入特定场所或者使用某些特定的软件而被要求刷脸认证等。统观上述情形,收集人脸信息的行为可以划分为基于公共利益目的的需要与非公共利益目的两种类型。

第一,基于公共利益目的收集人脸信息。

国家在人脸识别技术应用的领域中扮演了多种角色。从现实情况来看,国家已然成为人脸信息最大的收集、处理和利用方。国家对人脸信息的收集可以有效地保障公共利益与社会秩序,从而极大地发挥个人生物识别信息的作用。但人脸识别技术的应用带来收益的同时也存在着巨大的安全风险。因此,政府机关收集人脸信息必须基于公共利益的目的需要,且符合比例原则的要求。公共机构在利用人脸识别技术收集个人生物信息时必须遵守以下规则:其一,政府等公共机构必须以公共利益为目的收集人脸信息。例如,政府为了疫情防控收集个人面部信息,公安机关在刑事侦查等情形下收集并利用人脸信息。其二,有明确法律依据或经授权的主体才可收集。政府等公共机构收集人脸信息之前必须具有明确的授权,且必须在职权范围内收集。

第二,基于非公共利益目的收集人脸信息。

对于非政府部门使用人脸识别的做法,目前的立法和实践多体现了弱风险预防理论。商业主体使用人脸识别技术并且收集人脸信息通常并非基于公共利益的目的。近年来,各商业公司收集个人生物信息的趋势呈迅速上升的趋势,实践中判定个人信息是否收集过度也是基于“必要性”而非公共利益的考量。此类情形大多为商业主体为了提高自身的服务、商品质量甚至是仅仅满足自身的管理便利而使用人脸识别。

此外,学校、公园等非商业主体的日常管理中也时常出现人脸识别的影子。在公法上,学校的管理行为长期被界定为“内部管理行为”,无法通过诉讼途径救济。但并非一切管理行为都完全自治,人脸识别引入到学校进行日常的管理虽然在一定程度上提高了管理效率,但此类行为显然不符合比例原则。以面部数据被捕获为代价换取有其他可提供渠道的商品、服务,对于理性主体无疑是不合比例的。因此,基于非公益目的使用人脸识别的情形设定应当更为严苛,收集前应当确保被收集人实质知情和同意。这必须通过制度设计来令当事人真正知晓所面对的风险、成本和收集,在此基础上作出同意与否的结论。[9]

2.保存

在人脸信息储存的经验中,波兰政府的相关举措值得我国参考借鉴。我国目前的商业应用中,对于人脸数据收集后一般是传输到服务器中进行分析和处理,采用统一集中式的分析方法,此种做法是考虑到数据处理的安全性,但在隐私保护层面有待考虑。

此外我国目前法律规范对于面部信息存储的期限并没有作出规定。从商业领域来看,面部信息的使用存储一般以实现特定目的为期限,诸如“美颜相机”在用户协议中承诺“服务完成后系统将自动删除相关图像。”

虽然在商业领域中,限制数据保留的期间是一种常规做法。但在公共空间中设置的人脸信息识别装置,是一种可大规模收集敏感数据的管理控制工具,管理目的一旦达到,这种手段方法就应该立即停止,以免造成不必要的个人数据面临的风险。基于特殊目的进行的数据收集、使用后应当及时予以删除,不应超出实现特定目的所需要的期限;若有其他目的需要进一步使用该数据并延长存储期限的,则应当经过严格明确的审批流程,确保面部信息的合目的性使用。

3.使用

由于信息技术的快速发展,政府部门之间或者政府部分与商业公司之间共享数据变得十分常见。为了避免在此过程中个人信息的泄露,必须要构建一套数据使用和交换标准。商业公司在处理、利用人脸识别技术收集到的人脸信息时,不能超出规定的目的。公共场合隐私的“非隐私化处理”符合理性法则,但在公共场合中个人隐私处于难以控制或暂时丧失控制状态,这时就需要考虑对公共场合中涉私信息进行隐私化处理。

此外,立法机关应当提高该技术使用领域的透明度,为该技术的使用提供充分合理的理由,如存在对监控主体参与犯罪或犯罪威胁的合理怀疑。而执法机关在对人脸信息进行收集使用前,应当事先对其的必要性和影响进行评估。有关监督当局也要向个人充分通报其人脸信息数据的处理情况,并使其有机会行使权利,特别是通过向法院和监管机构提出申诉来纠正、获取、删除和质疑处理相关业务。

(三)事后追责机制

当政府及相关部门作为人脸信息的收集主体时,大多数情况下其收集行为对于公民具有强制性。此时,政府所承担的责任不仅是维护公共利益,更要重视个人的信息权益。除了对于人脸信息的收集和使用情况及时进行公布,采取必要的保护措施外,有关部门还应当建立起明确、具体的责任机制,对于面部信息泄露后的追责机制进行详尽的说明,以确保公众相信权力不会被滥用。对于那些人脸信息被收集后不合理的使用或泄露,但未对其提起诉讼的个人,至少在事后获得相关信息以及适当的补救。

对于人脸识别技术的开发者或合作者,有必要规制其公开信息的范围、方式,增加公众对于采取人脸识别的了解,进而确保技术符合知情权、程序性权利以及其他基本权利和自由,以便对侵犯基本权利的使用提出质疑。对于人们不理性的行为,也需要通过强化信息掌控者的责任对知情同意进行柔韧化处理。数据保护机关应当对人脸信息的收集进行合法性审查,尤其是为“公共安全”目的而采取的措施,更应当根据严格必要性的要求进行审查。

(四)隐私权路径及程序性追责的改进方案

相较于保护人脸面部图像,规制人脸识别更侧重于保护面部信息所隐含的其他信息,如个人习惯、偏好等可以作为隐私权保护对象的信息。保护个人著作和任何其他智力或情感作品是出于对维护隐私权的考虑,当需要将这种保护扩展到个人外表、言语、行为和家庭等方面,而法律又没有相关规定时,我们不妨从维护这些私人身份的最终目的——防止出现公共画像进行考虑,从而能够将隐私权扩张行使。

在私人领域,目前一个侵权保护的诱人方案是法院或立法机构将“隐私”扩大到公共场所。为了避免滥诉,需要严格限制获得隐私保护的资格:只保护“那些受到严重的公共入侵的人”。作为一种替代办法,法院可以放宽对侵权和公共信息权的解释,以便使申诉适用于人脸识别搜索系统。需要注意的是,隐私权并不是绝对的权利,它的行使要受到追求合法目标的限制。此类限制在适用前应通过合法性的测试,并在真正必要时按照比例原则予以适用。

目前我国民法中并未对“违反程序”的个人信息处理行为规定其民事责任。由此,程序性违法行为的民事责任,特别是民事损害赔偿责任的认定就变成了一个未解的疑惑。《民法典》中看似可援引的责任承担方式——“损害赔偿”,以人身、财产、严重精神损害等实质性损害为基础。而人脸识别是程序性的行为,违法特征突出表现为“程序性违法”,[10]可能并没有出现实质性损害,由此便对民事诉讼救济的实现造成了阻碍。确定“程序性违法”中损害的认定标准并且规定责任承担问题,就成了解决侵犯人脸信息救济途径中亟待解决的一环。

四、结语

大数据时期的到来对个人信息保护提出了史无前例的巨大挑战,将相关制度推向改革的风口。除了正确理解并借鉴国际社会中已然形成的保护规则外,我国还要根据自身的国情和实际,凝练出社会的共同认知,兼顾个人尊严和公共利益,制定有力的、有保障的人脸识别规制制度。面对现如今人脸信息被滥用的问题,解决方案不能仅仅寄托于普通个体身上,因为理性主体的数据安全意识培养并非一蹴而就。故对于行业自律的要求愈发严苛,对与外部的法律、行政监管也要求更加严密。而想要明晰各方的权责,只有对人脸识别使用的核心目的——公共利益,进行相应使用限度的分析划界,才能够实现。

猜你喜欢

公共利益人脸识别人脸
谈谈个人信息保护和公共利益维护的合理界限
人脸识别 等
有特点的人脸
揭开人脸识别的神秘面纱
三国漫——人脸解锁
论专利行政执法对公共利益的保护
基于类独立核稀疏表示的鲁棒人脸识别
马面部与人脸相似度惊人
长得象人脸的十种动物
基于K-L变换和平均近邻法的人脸识别