人脸识别技术中个人信息保护的法律规制*
2022-03-29◎倪楠王敏
人脸识别技术是生物识别技术在人工智能时代的一种全新的表现形式,从1964年布莱索开启真正意义上的自动人脸识别技术到2020年后3D算法的广泛应用,人脸识别技术在经历了半机械式识别阶段、人机交互式识别阶段后,凭借以算法和大数据为代表的基础科学的重大突破进入自动识别阶段,成了强人工智能时代的重要技术代表。具体来说,人脸识别技术是在计算机识别技术和光学成像技术不断发展成熟下产生的一项新型智能技术,其基于人的脸部特征信息进行识别、匹配和检索,我们早期也称其为人像识别或者面部识别技术。从人脸识别技术获取个人信息的运行原理看,具体应用场景分为“人脸监控”与“人脸验证”两种模式。“人脸监控”模式是将摄像头现场抓取到的人脸特征信息与数据库中的大量信息进行比对,判断是否有指定人员存在。该模式主要是政府及公安机关基于公共利益和社会治安需要,在车站、体育场、商场等公共场所进行安防布控和追踪,抓捕犯罪分子或者寻找解救失踪人员。“人脸验证”模式是将摄像头现场抓取到的人脸特征信息与数据库中已注册或登记的某一对象进行比对,核实是否是同一人员。该模式主要是企业基于经济利益的需要,应用在车站、机场等交通运输场所的取票、移动客户端的“刷脸”支付以及“刷脸”门禁等需要实名认证的场景,以确保个人身份信息的真实有效。
人脸识别技术较之以往指纹、眼角膜、虹膜等生物识别技术最大的法律风险并不是技术本身,而是通过预先存储的生物信息,在算法和数据分析的帮助下能够直接或间接的指认、匹配信息主体,进而通过数据深度检索或共享最终形成因人脸识别技术而产生的由私密信息与非私密信息组成的个人信息集合。人脸识别技术下所获取的个人信息在智能时代更多地表现出了一种复合性,这种复合性使人脸识别技术依托单一生物信息能够合成个人信息集合,单一生物信息成了连接私密信息和非私密信息的钥匙。但进入互联网社会后,非秘密信息在大数据下成为生产要素,市场正在通过各种方式精准地获取非秘密信息,人脸识别技术的出现,让这种需求轻而易举地实现。但目前尚未形成一套完备的网络治理模式,这种因人脸识别技术而产生的信息集合一旦被泄露或滥用,将造成巨大且不可逆转的损害后果,这成为目前人脸识别技术下个人信息保护的核心问题。
清孔质量验收后,在4小时内完成导管配置、导管安装、计量系统校验、泥浆质量校验、泵送系统安装等混凝土浇筑准备工作。
一、人脸识别技术中个人信息保护的特殊性分析
人脸识别技术的广泛应用,是智能技术与传统生活方式相结合的产物,但其作为一项技术,其本身并不能游走于法律之外,一旦被滥用,人工智能算法将异化为“赛维坦”(Seviathan),
大数据将异化为“数字利维坦”(digital Leviatha),
集两者为一体的人脸识别技术,会在智能进化、数据误判和非法指令下,给数据所有人、社会乃至国家利益带来更大挑战和严重危害。
人脸识别技术主要涉及数据收集、保管和使用三个环节,目前正被广泛应用于金融支付、解锁工具和现场比对等政府管理及市场交易活动中。人脸识别技术中的个人信息作为法律关系中的一种特殊客体,不仅包括原识别信息(生物信息)还包括再识别信息。原识别信息是人脸识别技术收集的直接信息,在性质上属于个人信息中的私密信息,再识别信息是人脸识别技术匹配上述私密信息后借助数据检索和数据共享生成的间接信息,在内容上包括新获取的私密信息和非私密信息。
这两类信息除了具有较强的经济性外,也突出地表现出了较强的秘密性和保密性。秘密性也被称为非公知性,即该信息应不为公众所知悉,但这并不是说法律要求人脸识别技术中的个人信息处于绝对的、安全的保密状态。
个人信息作为“生产要素”,特别是在数据检索和数据共享的算法设置下,个人信息在使用和管理过程中进行一定范围和一定程度的公开已成为必然。在这个过程中只要权利人采取了一定的保密措施,就应当认为人脸识别技术中的个人信息处在一定的秘密状态。同时,权利人采取保密措施的过程也就使其具有了保密性。人脸识别技术涉及大量的个人信息,这些信息具有一定的经济属性和人身属性,一旦泄露将无法修复,这促使权利人必须采取一定的保密措施防止个人信息的泄露,以维护其在技术上的领先,保有经济上的优势地位。从人脸识别技术的不同环节来看:在数据收集环节中,人脸具有较强的社交属性,极易被“无感识别”。
生活中具有极高辨识度的人脸直接暴露于客观世界,任何一个高清摄像头都可以在非接触且无意识的情景下,无须用户配合自主抓取人脸图片,甚至可以长时间、大规模地收集人脸面部信息。在数据保管环节中,缺乏完善的保密机制,容易发生数据泄露。人脸信息与人身关系紧密,技术控制者在收集人脸信息后,往往对数据库系统进行开放管理,或者因低强度保密措施而遭受黑客攻击,发生数据泄露,破坏人脸信息的唯一性,造成不可逆的人身损失和财产损失。在数据使用环节中,人脸识别技术的应用边界并不清晰,这使得技术功能常常异化,产生社会歧视。技术控制者作为追逐自身利益最大化的“经济人”,超出使用范围和目的滥用人脸识别技术,过度采集数据进行人物识别和身份追踪,会产生额外的、无法预期的其他后果。同时,基于人脸识别技术的准确率和人为操作偏差等问题,识别出的数据结果可能与真实情况不符,导致数据运用时产生偏见或歧视现象。
秘密性和保密性是人脸识别技术中个人信息具备的独有特点,考虑到该类型个人信息所具有的强烈经济价值,其秘密性是与生俱来的。为了保持这种经济价值,经营者就必然会采取相应的保密措施来维护这种秘密状态,这也要求法律对其采取比其他类型个人信息更加严格的措施进行保护。
二、人脸识别技术中个人信息保护的域外实践
各上级水行政主管部门应加强对巡查人员的监督指导与管理工作,通过组织专项检查、定期检查、明察暗访等形式,不断加强对入海水道巡查制度落实情况的监督检查;建立巡查人员资格管理档案,加强抽查考核力度,通过警告、罚款、吊销证书、解除劳动合同等措施加大处罚力度,充分发挥主管部门的职能作用和对巡查员的震慑作用,从而提高巡查质量,确保消除隐患。
综上所述,在中小企业的建设和发展过程中,财务会计管理工作中存在明显的问题,极大限制了企业经济效益的提高,不利于企业实现持续稳定发展的目标。因此中小企业在逐步推进现代化建设的过程中,要重点对财务会计管理工作进行分析,结合现代管理理念的应用构建更加科学的管理模式,突出综合管理成效,在综合维护企业财务管理安全的前提下,使中小企业在建设和发展过程中逐步实现持续稳定发展的目标。
1.美国模式——个人信息保护下的分类监管
3.12 易腐食品。蛋白质或碳水化合物含量较高(通常酸碱度(pH)大于4.6且水分活度(Aw)大于0.85),常温下容易腐败变质的食品。
美国模式以自由市场和行业监管为基础,联邦和各州均有自己的立法系统。在联邦层面,美国有近40部关于个人信息保护的法律,这些法律确定了美国在个人信息保护中的基本原则,如公平信息实践法则,并在该法则下进一步明确了知情权、同意权和更正权。
在各州层面,以《加州消费者隐私法》为代表各州更加注重对于个人隐私权的保护,树立起了以隐私权保护为中心的个人信息保护价值体系。在行业自律层面,美国政府也制定了如《金融隐私法》(1978年)、《健康保险携带及责任法》(1996年)、《电子通讯隐私权法》(1986年)、《公平信用报告法》(1970年)、《家庭教育权力及隐私权法》(1974年)、《儿童网上隐私权法》(1998年)等一系列专门针对私人领域的个人信息保护的行业规则。对于人脸识别技术的规制,在联邦层面目前尚未设定统一的专门性法律规范,而由各州独立进行立法管理,现阶段已有七个州(参见表1)制定了与生物识别信息有关的法案。2008年,伊利诺伊州颁布的《生物信息隐私法案》(简称BIPA)是美国境内颁布的第一部规范“生物识别符”
和“生物识别信息”
的收集、保管、使用、销毁的专门性法律文件。
美国对人脸识别技术采用较为严格的准则和限制条件,先后在2019年、2020年颁布的《停止秘密监视条例》《监视及社区安全法令》《萨默维尔禁止人脸技术监控条例》《面部识别禁令》中都禁止了政府部门占有、使用人脸识别技术和通过该技术获取相关信息的权利。在《加州消费者隐私法》确立的原则下,美国形成了较为统一的个人信息保护标准,明确了企业在个人信息使用中的义务和责任,并赋予个人针对企业违反该义务的行为提起相应的民事诉讼的权利,人脸识别下的个人信息保护也适用这一标准。
目前测绘档案的数字化整理利用工作有很大的挑战,因为数字测绘档案的数据量大、专业性强、数据格式多样化。目前数字测绘档案管理不能满足数字测绘档案的需求,因为其现在缺乏统一的标准和规范,整个整理组卷工作还需要继续探索。管理时混杂保管数字测绘档案和传统载体测绘档案也降低了数据管理的安全性,不能保障载体的安全。测绘档案的馆藏保管环境与保管需求有一定差距,存储载体划痕、病毒、损坏情况严重,很多数据的入库工作不到位,没有在资料入库前进行必要的数据检查,这都与人力物力投入不足、数据专业性太强等原因有关。
2.欧盟模式——统一市场下的全流程监管
1995年,欧洲议会及欧盟理事会通过了《关于个人数据处理及自由流通个人保护指令》(95/46/EC)(95指令),为欧盟对数据市场进行统一监管提供了标准和行动指南。2018年5月25日,欧盟制定《通用数据保护条例》(下文简称《条例》)通行全境,并赋予各成员国一定的自由裁量权,这标志着欧盟正式形成了统一的数据保护规则。《条例》以一般信息和特殊类型的信息为保护对象,包括人脸图像数据在内的个人生物识别数据被列入特殊类型的信息。
为解决肖像权与隐私权的冲突问题,《条例》规定只有通过特定技术处理、能够识别特定自然人的图片才能够被认为是生物识别数据。对于被监控摄像头拍摄的视频影像,实践中则依据“通过特定技术处理识别自然人”的标准,类推适用于照片相同的规则。在欧盟立法中,采取了统一立法、集中监管和全流程治理的模式,将个人信息权上升为公民人格权和人权的一部分,最终形成了较为严格的统一的个人信息保护机制。《条例》还赋予了公民较多的信息权利并畅通救济途径。在对生物识别数据的处理中,欧盟采用一般禁止、特别例外的原则,依据数据应用领域不同实施区分管理:在私人领域,只有在获得被收集主体的明确同意(自由、明确、具体、不含混的给予)后才可以处理生物识别数据;在涉及违法犯罪等的公共领域,必须得到法律的授权且采取适当保护措施后才可以处理生物识别数据。
此外,《条例》还通过赋予信息提供者被遗忘权的方式,建立了用户服务的彻底退出机制并可以法定情形下主张清除所有储存的个人信息。
首先,建立个人信息保护监测平台,实现精准监管。人脸识别技术能够持续性、规模性地收集人脸数据,并对数据进行深度分析,传统的监管模式难以进行有效监管。在技术监管模式下,通过在国家网信办下建立个人信息保护监测平台,并设定与之相适应的算法,对实行核准制和审批制的数据实际控制人的数据收集和存储系统的运行状态进行监测。且监测平台只拥有观测数据实际控制者的数据收集和存储系统运行是否正常和限制数据向第三方主体迁移两项权能,无权对数据进行下载、备份和存储等操作。如果基于公共利益或者数据安全的需要必须向第三方迁移数据时,在事先获得有关部门批准后,数据监测平台可以解禁限制技术。此外,在遇到危害国家信息安全的重大社会事件时,各监管主体可以依据相关法律的授权,通过该监测平台向数据实际控制者调取数据,以有效保护社会公共利益。
其次,在存储过程中,应明确存储级别和措施。在2014年修订实施的《消费者权益保护法》中,笼统地规定了经营者应当采取技术措施和其他必要措施,确保信息安全,防止消费者个人信息泄露、丢失,但没有具体说明应采取什么样的措施、达到什么样的级别。对于人脸识别中的个人信息保护,单靠密码保护在智能时代就显得过于单一,不利于保护公民的个人信息权益。在具体标准设置中,应将拥有控制私密信息、非私密信息、信息集合的单位与专业存储机构进行分级、分类管理。对于只拥有非私密信息的机构采取备案制以方便生产生活;对于仅拥有私密信息或者同时拥有私密信息和非私密信息集合的单位采取核准制,以审核技术控制者是否具备存储的条件;对于专业存储机构应实行审批制,同时考虑到数据存储规模巨大,每年还需对其进行风险评估,以防危及个人、社会甚至是国家信息安全。同时,同一单位拥有私密信息或者拥有私密信息和非私密信息集合的,原则上应禁止其将该信息存储于第三方平台,除非征得当事人的同意。这种情况在实践中比较常见,例如淘宝平台因为人脸支付拥有了消费者私密信息,又因为消费记录和浏览痕迹拥有了消费者行为信息,在这种情况下信息控制者应对信息负有储存责任,但数据时代第三方存储已将成为一种必然,会有大量企业不可避免地将信息交由有资质的第三方存储,在这个过程中应该充分落实知情同意规则,应设置第三方存储的“知情同意”条款,将第三方存储权限及相应的风险及时告知当事人。
三、我国人脸识别技术中个人信息保护现状及存在的问题
从2015年开始,国务院先后出台了一系列旨在推动人工智能产业发展的政策文件,法学界也高度关注人工智能发展给现有法律带来的冲击并主动做出调整以应对人工智能时代的需求。在民商事层面:2014年,《消费者权益保护法》首次在法律上规定了经营者在经营过程中收集、使用消费者个人信息时应履行的义务。2017年,《网络安全法》将个人信息列入保护对象,确立了收集个人信息应遵循的原则,原则性地规定了个人信息的收集、保管和使用方式,并强调用户对个人信息的自决权和处分权。2020年5月28日通过的《民法典》作为现代科技中以人为本理念的典范,在人格权编加入了个人信息保护的内容,并将生物识别信息列入个人信息,明确了处理个人信息应坚持的“合法、必要、正当”原则、知情同意原则以及传输限制原则,架构起了个人信息保护的新机制。
在刑事层面:1997年修订的《刑法》,规定了破坏计算机系统罪,对于侵入他人计算机删除、修改、增加数据信息的行为应予以刑事处罚。2009年2月,《刑法修正案(七)》正式实施,回应了社会大众对个人信息领域犯罪的关注,增设了出售、非法提供公民个人信息罪和非法获取计算机信息系统数据罪。此后,《刑法修正案(九)》为更好地应对不断攀升的窃取、出售个人信息行为,放宽了对犯罪主体的限制并加重了处罚。2017年6月,最高院、最高检联合发布的《关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》,对于侵犯公民个人信息罪进行了系统梳理。
在国家标准层面:从2013年开始,国家市场监管总局和国家标准化委员会开始关注智能领域的标准化问题。2013年颁布的《信息安全技术 公共及商用服务信息系统个人信息保护指南》,是我国首个关于个人信息保护的国家标准。2020年新修订的《信息安全技术 个人信息安全规范》,首次区分了个人信息和个人敏感信息,明确了个人信息的判定方法和类型,将包括面部识别特征在内的个人生物识别信息列为个人敏感信息,规定了收集、保管和使用个人敏感信息应遵循的知情同意原则、最小够用原则和再次转让明确授权原则。
但是,该《规范》从性质上属于国家标准中的推荐标准,不具有法律上的强制力。2019年5月公布的《数据安全管理办法(征求意见稿)》规定,网络运营者以经营为目的收集重要数据或个人私密信息时,应将收集使用规则、目的、模式、方式、类型、范围、期限等向所在地网信部门备案,但是数据内容本身除外。
目前,我国在人工智能领域尚处于起步阶段,缺乏统领性的法律,更多地表现为技术操作标准,大多以法规和规范性文件呈现,且较为松散、体系性不强,具体表现如下:
1.区分应用场景,分环节规范信息处理
技术本身是中性的,面对风险不应该阻止技术的发展,而应该通过厘清法律边界来规制技术的滥用,以解决个人数据权利、信息泄露与技术发展的矛盾。进入互联网社会,智能科技的出现使得信息的收集和使用体现出了技术上的隐蔽性和发展上的产业化。从国际经验看,主要发达经济体纷纷将人脸识别技术纳入数据保护法律关系进行规制,其中以美国和欧盟最具代表性,美国属于个人信息保护下的分类监管模式,欧盟则为统一市场下的全流程监管模式。
第一,人脸识别技术能够收集的个人信息边界不清。《民法典》和刚刚通过的《个人信息保护法》是保护个人信息的基础法律,但两者并不是一般法和特别法的关系。作为社会生活百科全书的《民法典》是典型的私法,而《个人信息保护法》作为个人信息领域的专门性法律,兼具公法和私法、实体法和程序法的属性,更多地表现为经济法的范畴。同时,《民法典》在第六章人格权篇中规定了隐私权和个人信息的保护,第1034条将个人信息分为私密信息和非私密信息,私密信息首先适用隐私权的规定,非秘密信息和隐私权未规定的私密信息适用有关个人信息保护的规定。但《个人信息法》第二章采用了敏感信息和非敏感信息的称谓,这就出现了《民法典》与《个人信息保护法》的衔接问题,其中敏感信息与私密信息是否对等、是否存在交叉关系以及应如何适用成为关键。
第二,人脸识别技术中信息收集体系权限配置不清。《民法典》第1035条仅是原则性规定,对于是否可以在人工智能技术下通过生物信息进行收集、分析和共享私密信息和非私密信息并没有明确规定。如果同意收集,对于是否任意主体均有权收集、收集前是否需要审批、收集后采取何种级别的保存措施以及能否有权委托第三方保存等问题也未作出进一步说明。现阶段,普遍采取“知情同意”原则,那么在人脸识别技术下的“同意”,是否有范围界定,是对整体的同意还是对部分同意,是否包含同意信息控制者再次检索和共享,这些都需要具体明确。在实践中,人脸识别技术不仅被应用于支付、保管等重要领域,同时也被应用于门禁、签到等一般生活场景,这些不同场景下信息实际控制者的权利和义务是否相同也缺乏相关规定。
第三,尚缺乏完备的个人信息保护体系,需要构建一体共治的预防和处罚体系。现阶段我们已经处于以数据为载体的信息时代,人的一举一动都将转化为可量化的数据信息,这些数据信息经过预设算法的分析,就会形成对不同主体有价值的“人体画像”。数据时代,不再可能割裂数据的流转,但利用数据和规制数据并不矛盾。从《民法典》的规定我们就可以看出,民法典并没有把个人信息上升为人格权,民法典强调了个人信息的有用性,鼓励对于个人信息的利用。但人脸识别技术收集的信息首先是私密信息中的生物信息,属于隐私权,通过生物信息可以实现对个人信息进行准确的匹配和指认。匹配和指认的个人信息既有私密信息也有非私密信息。但是《民法典》作为统筹全局的法典,对于专项问题不会进行具体规定,这意味着需要由《个人信息保护法》为个人信息提供完整和针对性保护,并需要与《网络安全法》等相关法律相互衔接。同时,应注意将国家互联网信息办公室、工信部等部门发布的规范性文件进行统合,以解决与其他法律相对接和碎片化的问题。
四、人脸识别技术中个人信息保护的法律逻辑
在事实与规范的“二元区分”框架下,人脸识别技术是一种社会事实,逻辑上需要将事实问题转化为规范问题,才可纳入法律适用的轨道。
因此,在“主体—行为—责任”框架下,探究人脸识别技术背后的法律逻辑才是解决个人数据保护的关键。
1.人脸识别技术中个人信息监管关系的宏观构造
在人脸识别技术中对个人信息的保护有其特殊性,这也使得在信息收集、储存、处理和使用等数据活动中形成了一个较为特殊的法律关系。国家作为一方主体与其他各方主体之间形成权利和义务关系,该法律关系应由《个人信息保护法》调整。在人脸识别技术的个人信息保护法律关系中按照主体在该法律关系中的地位,可以分为个人信息规制主体和个人信息活动主体。个人信息规制主体主要指依据宪法和行政组织法设立的国家机关,按照《网络安全法》和《个人信息保护法》依法行政,国家网信部门负责统筹协调个人信息保护和监管工作。根据《个人信息保护法》,我国实行的个人信息监管体制是在国务院网信办(其中国务院网络信息办公室与中央网络安全和信息化委员办公室是一个机构两块牌子)统筹下的分散监管模式,国务院网信办负责协调各监管机构关于数据监管的相关事项,并协调相关部门制定有关个人信息保护的相关规则和标准。其他具体监管部门主要涉及工信部、公安部和市场监管总局和相关行业主管部门如教育部、人民银行、宗教事务局等。个人信息活动主体包括从事数据收集、储存、处理、使用、共享、传输及交易等的自然人和依法设立的组织。如果按照个人信息在人脸识别技术中流动的环节也可以将主体分为信息主体、信息收集主体、信息处理主体和信息使用主体。人脸识别技术中个人信息保护关系的客体包括直接信息和间接信息。直接信息主要是私密信息中的生物信息,间接信息主要是因检索而生成的私密信息和非私密信息。
按照规制主体和活动主体的划分,人脸识别技术涉及监管机构、人脸面部信息提供者(个人)和技术控制者(企业或政府)三方主体(参见图1)。具体包括:第一,监管机构和信息提供者之间的权益保护关系;第二,监管机构与技术控制者之间的技术监管关系;第三,信息提供者与技术控制者之间的数字服务关系。其中,处在上位的是信息监管机构,其对人脸识别中的个人信息提供者实施保护,对人脸识别技术中的技术控制者进行监管。处于下方平行位置的是人脸识别中个人信息的提供者和人脸识别技术的控制者,两者之间是民事关系,主要是因其他合同内容而相应产生的数字服务条款,即信息提供者需要完成其合同规定的事项而相应赋予了人脸识别技术控制者获取其个人信息的权利,这属于数字服务条款。
2.人脸识别技术获取个人信息运行的法律基础
涡轮流量计属于速度式流量计,在管道中安装一台自由转动、轴与管道同心的叶轮,当被测气体流过传感器时,在气流作用下,叶轮受力旋转,其转速与管道平均流速成正比,叶轮转动会周期地改变磁电转换器的磁阻值,使检测线圈中磁通随之发生周期性变化,产生周期性的感应电势,即电脉冲信号。该信号经放大器放大后,送至显示仪表显示,涡轮流量计工作原理如图1所示。
(1)人脸识别技术中个人信息保护的基本原则
人脸识别技术中个人信息保护的基本原则是保障和监督个人信息的基础性法律准则,也是形成人脸识别技术中个人信息保护理论的法理基础,充分体现了信息保护的主导思想和核心价值。第一,分类监管原则,是指依据技术使用目的对人脸识别技术实行分级别管理,不同的技术目的对应不同的技术级别,分类分级确定个人信息采集和保护的范围。第二,知情同意原则,是指信息提供者在是否同意使用人脸识别技术、是否同意个人信息采集的范围、是否同意信息共享等方面具有事先知情并同意的权力。第三,适当性使用原则,是指应当适当、科学、合理地使用人脸识别技术,不得超过识别目的的使用限度,滥用该技术。第四,安全性原则,是指在存储、保存和使用个人信息过程中要保证信息安全,具体要求采取相应的保密措施予以保护,并配有补救措施。第五,权责一致原则,是指人脸识别技术的控制者根据分级监管获得相应的权利,同时应承担信息泄露后产生的相应责任,做到权责一致。
首先,在收集过程中,国家标准委应对可以收集生物信息的应用场景进行分类,对不同场景需要采集的生物信息予以标准化管理。在商业应用中,出台采集生物信息的通用标准,该标准主要是针对人脸识别技术本身。人脸识别技术运行的原理是将预先采集的生物信息储存于数据库并在具体使用中与之进行信息匹配,以实现钥匙或密码通行的作用。在目前的人脸识别技术中,大多数应用场景只需收集人脸面部信息而无须获取其他私密或非私密信息。对此应通过设置一般禁止性条款,禁止在人脸识别技术中收集面部生物信息以外的其他信息,如需收集,需要经过当事人另行同意,并告知存在的相应风险和法律责任。同时,收集包括人脸面部信息在内的私密信息的信息控制者要依法获得授权,具有相应的资质即技术手段和条件,并获得监管机构的审批许可。这样的设置将从法律上杜绝类似于因门禁系统这样简单的人脸识别技术而过度采集和分析个人信息的情况。而在公共事务中,并不涉及收集的问题,因为绝大多数公共识别系统是对生物信息的全方位采集,主要是要规范其存储和使用环节。
“昆北”阳平声字“双”的唱调(《南柯记·瑶台》【梁州第七】“臂鞲双抬”,765),该单字唱调的过腔是。其中的是第一个乐汇型级音性过腔,是第二个乐汇型级音性过腔,是第三个乐汇型级音性过腔。这个过腔也是由“级音+级音+级音”同一种音乐材料组成的多节型过腔。
依据技术控制者的不同,人脸识别技术的应用可以分为“公共应用”和“私人应用”两种模式。在公共领域的应用中,政府基于公共利益的需要,坚守社会本位原则,只有在获得法律授权的情况下,才能合理使用人脸识别技术并依法获取因人脸识别而产生的相关个人信息,例如发现重大疫情传播者,政府就可依《中华人民共和国传染病防治法》(修订稿)对其进行识别,并检索流调信息和个人踪迹。政府基于公共利益合理使用人脸识别技术具有法律上的正当性,无须事前取得当事人的同意。但是,以政府为代表的公权力机构在使用人脸识别技术时同样应坚持人脸识别中个人信息保护的基本原则,做到权责一致、适当使用,以防止公权力对私权利的过度侵犯,兼顾个人利益与社会利益的平衡,且不得随意深度分析和共享数据。在私人领域的应用中,技术控制者应遵守宪法、法律和行政法规的规定并获得当事人的有效同意,充分尊重信息提供者的意思自由,不得违背法律的规定或与当事人的约定,不得损害当事人合法权益。在面对信息共享、第三方储存和信息检索等问题时,不仅应遵循“知情同意”原则,还应该明确告知风险等级和危害。无论是“公共应用”还是“商业应用”,都应遵守人脸识别技术中个人信息保护的原则。技术控制者在收集、处理、使用人脸面部信息时都应遵守行为上的合法性和正当性要求,公开信息处理规则,明示信息处理的目的、方式和范围,进行数据传输时确保第三方具有所需的风险防控能力,以保护个人面部信息的秘密性、完整性以及可用性。同时,技术控制者应始终坚持权责相统一的原则,只要有对个人合法权益造成损害的行为,就应当承担相应的法律责任。
五、人脸识别技术中个人信息保护的路径选择
人脸识别技术发展对法律规制提出了现实需求,从规制内容的角度看,需要解决技术滥用与信息泄露的问题,实现人脸识别技术使用与个人信息保护的平衡;从规制方式的角度看,需要通过法治与自治相结合的手段,坚持顶层设计与具体规制措施并行,实现法律与技术发展的良性互动。
H3:政府职责对新疆农产品品牌竞争力有正向影响,即政府部门对农业产业发展的监管作用、协调作用、奖惩作用越显著,新疆农产品区域品牌竞争力越强。
与高速发展的现代科技相比,法律规范显得相对滞后,这也是由法律本身的滞后性所决定的,只是在数字时代表现得更为突出。因此,法律除了要对个人信息进行顶层设计外,更要针对不同应用场景实施特殊治理。人脸识别技术应用场景的多元性以及该技术下个人信息的复杂性与复合性,决定了在构建个人信息保护体系时应设置专章进行规制,并将分类监管原则贯穿于个人信息的收集、储存和使用全过程。
(2)人脸识别技术中个人信息保护的法律逻辑基础
总体来看,比较欧美这两种保护模式,发现他们都秉持个人权益保护优先于数据流通变现的价值取向。美国通过《生物信息隐私法案》等专门性法律规范,详细且严格地规定了生物识别数据的收集、保管、使用及销毁的方式和流程。欧盟以《通用数据保护条例》为基础,在寻求个人信息保护最大化的同时,附限制条件地允许个人数据的合理流通。我们认为无论哪种模式,其对于人脸识别技术下的个人信息保护所坚持的指导原则及关联信息检索规则都值得借鉴和进一步研究。
最后,在使用过程中,禁止对利用人脸识别技术所获取的信息进行深度检索或在数据库之间进行信息共享。人脸识别技术导致的最大风险不在于收集信息,而在于因深度检索、数据共享或信息泄露导致的自然人在隐私权和财产权上无法挽回的损失。因此,对于商业活动而言,应禁止商业机构深度检索和共享私密信息和非私密信息,商业机构不应具有在已完成人脸识别目的下再次利用以获取信息深度检索和共享个人信息的权利,这也是由于人脸识别中个人信息的特殊属性所决定的。对于公共事务而言,数据管理、智能管理是国家治理体系和治理能力现代化的体现,数据治理也是未来发展的趋势,但这绝不意味着政府可以滥用数据权限。政府机构之间共享私密信息和深度分析个人数据的情形应由法律规定,并依据严格的审批程序进行,我们认为非因国家安全和重大紧急事件不得启动。
2.转变监管思维,实现由监管技术转向技术监管
技术本身是双向的,监管也是双向的,从监管技术向技术监管转变,不仅是监管理念的深刻变化,更是国家治理体系和治理能力现代化的需要。在大数据时代,法律作为一种传统技术,需要现代科技的辅助,“法律+技术”的监管模式将有助于强化数据分析和数据应用能力,进而实现精准监管和智慧监管。
绿色科技创新突破了传统科技创新的内涵,是紧紧围绕可持续发展的思想,充分考虑科技创新所带来的经济效益、社会效益、生态效益,会使绿色科技创新成为农业可持续发展的核心依托。
其次,建立人工智能风险预警机制,增强监管部门的预先研判能力。人脸识别技术应用导致的损害后果具有不可逆性,事后救济往往显得微不足道。通过个人信息保护监测平台的算法设置,建立人工智能风险预警机制,对数据实际控制者的信息收集或存储系统出现的技术漏洞或遭受攻击的情况、数据共享及数据迁移情况,实施风险防控和风险预警。一旦出现预设风险或者自主发现风险环节及风险节点,该预警机制会在第一时间向数据实际控制者及监管机构作出风险提示,并主动设置防火墙,暂时切断数据迁移和设备接入,将数据安全风险降到最低。
最后,引入个人数据去身份化技术,提升数据指认和链接难度。之前我们已经通过各种机制去限制人脸识别技术中个人信息的共享、再检索及第三方存储等权能。上述机制均是针对数据使用环节,而在之前的数据收集及保管环节我们可以通过去身份化技术减弱数据信息的直接指向性。个人数据去身份化包括匿名化和去识别化,具体根据人脸信息的应用场景和安全强度的不同,可以采用数据脱敏、数据加密、病毒防护等特殊措施。
无论采取哪种措施都是将私密信息变成一组数字或符号,不直接对应和指向特定主体。当然,也有技术专家会说通过反向工程可以进行破解。在人工智能时代没有一项技术是绝对安全的,因此才需要形成立体式的数据保护体系,而去身份化技术是构建立体化保护中的一项技术支撑。
3.信用监管与企业自律实现社会共治
进入互联网时代后,经济法在应对复杂的经济现象时,往往采取社会共治的治理方式来应对单一监管的不足,充分落实共建、共治和共享的社会治理理念。人脸识别技术作为智能技术的代表,在共享互联网经济成果的背景下也需要实现共同治理,这主要表现在国家治理、行业治理和社会治理三个方面。
由定义3、4知,对任意的属性子集B⊆A和任意的U, (x)B是与对象x关于B有共同或是相似知识的对象组成的集合。若(x)B看作一个概念的外延,则(x)B的内涵即为x关于B的知识的描述,因此,(x)B可以看作是对象x生成的关于属性子集B的基本知识粒。此外,若(x)B,则(y)B⊆(x)B。
首先,引入信用监管,实现事后监管向事前监管转变。信用监管是市场监管部门根据企业的市场行为是否合法、合规对其进行信用评级,进而实施分类监管的总称。
信用监管是市场监管部门进入新时代后为应对复杂的市场环境,由事后监管向事前监管转变的新型监管方式,是经济法通过非强制性经济手段规制市场活动主体行为的新选择。市场监管部门通过公示企业信用信息后,负面信息将使企业存在商誉减损的可能,这不仅会对公民个人的交易活动发挥警示作用,也会促使市场监管部门按照信用评级对于信用较低的企业实施重点巡查。在人工智能时代,人脸识别技术已成为人们生活中广泛应用的工具,越来越多的企业通过人脸识别技术使自身的应用场景更加优化和快捷。但现实情况也说明,并不是使用该技术的企业都会是规范化和规模化经营,这也给监管部门的日常监管活动造成了沉重的行政负担。市场监管部门通过信用监管,对于具有违规行为或者保障机制达不到推荐标准(GB/T)的企业给予负面信用评分或较低的分数评级。这种监管方式可以反向激励违规企业主动提高人脸识别信息保护的级别,以不断调高企业信用评级;可以帮助消费者更好地落实知情同意原则,也为知情同意的落实提供了参考依据,让消费者更好地认知哪一级别的企业更加让人放心;可以改变以举报和行政约谈为主要手段的监管方式,实现从事后监管向事前监管的转变。
从图5~图8可以看出,本文提出的差分隐私保护算法DPTrustSVD仍可以较好地缓解冷启动问题,特别是当ε∈[2,10]时,隐私保护力度和预测准确率达到了比较合理的折中,即一方面实现了对原始数据的差分隐私保护,另一方面算法的预测准确率更接近未做隐私保护的TrustSVD算法.对于SVD++算法来说,由于自身未考虑信任关系而不擅长改善冷启动问题,当做了差分隐私保护后,预测准确率在两个数据集上的表现均弱于DPTrustSVD.
其次,健全行业治理,实现企业自治。在人工智能技术中算法是核心,算法本身也是一种知识产权,也无法共享,如果要求算法公开,就等于将所有商业秘密同时公开,那数据市场一定顷刻间进入混乱状态。在现阶段,国家只能对人工智能技术实施原则化管理或者是标准化管理。这些标准都是比较简单和基础的,甚至一些技术标准刚刚公布后,就被新技术所替代。因此,在专项法律和国家标准为基础的底线监管下,健全人脸识别技术行业的自律规范是控制个人信息被侵权的有效途径。人脸识别技术行业能够更精准地了解行业技术发展,有共同维护行业成长的共识,充分发挥行业自律的制度弹性,也能更好地培育企业的社会责任。1998年,美国联邦贸易委员会要求互联网公司建立自律规则以解决线上隐私保护问题,推动组建“在线隐私联盟”,该联盟制定的《在线隐私权政策指南》(Guideline for Online Privacy Policies),为企业收集网络个人用户个人信息提供了基本准则。
2018年5月欧盟颁布的《通用数据保护条例》(GDPR)成为欧盟全境数据保护的基本准则,各个国家的不同行业协会可以依据此标准制定相关行为守则。鉴于国家治理中的法律规定在人脸识别这类特殊技术中更多地表现为一种底线思维,没有充分发挥预防作用,那么在现阶段行业自治成了一种最优选择。
最后,完善社会治理途径,形成立体式监管。人脸识别技术中的个人信息治理,并不像其他法律关系如消费者权益保护关系、产品质量责任关系那样,当出现违约和侵权行为时可以通过赔偿损失或者返还原状等方式进行补救。通过人脸识别技术获取的私密信息一旦进入公共领域,就无法切断所有信息源以控制其传播,更无法恢复原状。因此,在人脸识别下的个人信息保护中,社会监管主体的新闻媒体曝光和个人举报的作用就没有其在经济法其他领域社会治理中那么及时和有效。但我们依然要强调,如果新闻媒体能够尽早曝光、个人能够尽快举报,将有可能为拦截信息泄露争取时间,以阻止侵害的进一步扩大。那么提供更加便捷高效的举报方式和曝光平台,将有助于形成立体式的监管方式,共同发力更好地维护数据市场环境。
4.举证责任倒置,畅通司法救济
在变电站汇控箱安装模块化的智能温湿度测控器,实施监测、显示、记录每台抽湿机的工作状态,并可通过终端监控软件平台手动对抽湿机的启停进行远程控制,将湿度参数与抽湿机启停进行联动,当湿度超高时,自动启动抽湿机,消除湿气对设备的腐蚀危害,提高了电气绝缘性能,保障设备的运行安全[1]。
法律的生命在于实施,法律的效用在于救济,救济机制的效用取决于救济渠道是否畅通、救济手段是否有效,司法救济是底线也是最有效的手段。当前,在人脸识别领域由于法律规定的滞后性以及个人对于主动维护个人信息和隐私权意识的相对淡薄,只有极少数关于人脸识别中个人信息保护的案件进入司法程序。通过分析这些案件,我们看到在“商业应用”中,个人信息纠纷从性质上属于一般民事纠纷,无特殊规定下应实行“谁主张、谁举证”的原则。如果实行完全的举证责任倒置,势必给数据控制人造成过重的举证负担,这不利于数据控制者正常地开展经营活动,也不利于维护消费者的长远利益。但对于人脸识别这样完全依靠智能技术进行信息采集且信息数据完全由技术控制者掌握的技术服务,公民个人明显缺乏相关专业知识,很难掌握该类技术的具体信息,即使在知情同意原则下也很少有能力识别该技术存在的风险和漏洞。也就是说,在人脸信息侵权纠纷中,数据控制者基于对技术及信息的实际控制,具有更加便利的举证条件和举证能力。而现有规则要求在信息控制能力、证据收集能力上处于弱势地位的一方承担更重的举证责任,使得公民提供证据过程中陷入了“技术不能”之中,不利于公民个人信息的保护。为了合理平衡公民个人和数据控制者的举证负担,在人脸识别案件中的举证方式应为举证倒置责任。同时,人脸信息侵权后果具有不可逆性,等到损害结果实质发生后才允许信息提供者寻求救济,背离了法律所具有的预防和保护功能。在美国罗森巴赫诉六旗主题公园案中,法院就以判例的形式明确“即使信息提供者不能证明损害后果的实质发生,也可以获得赔偿”。
这是因为与不可逆的损害后果相比,技术控制者为满足法律需要支付的费用微乎其微,否则将违背法案保护及惩戒的初衷。因此,在“商业应用”的人脸侵权纠纷中,应规定不以损害结果的实际发生为构成要件,并采用举证责任倒置的规则设置。信息提供者只需提供初步证据证明发生侵权行为,无需对损害结果的实际发生承担证明责任;技术控制者需要提供证据证明自身对侵权案件的发生不存在过错,如遵守了法律行政法规的规定,采取了脱敏、加密等技术保护措施,未向不符合条件的第三方传输人脸数据等。在“公共应用”中,政府作为一方主体滥用人脸识别技术侵犯个人信息权益,构成行政侵权。依据《行政诉讼法》第三十四条和第三十七条的规定,由被告承担举证责任,原告仅对证明行政行为违法承担补充责任。与之相适应,人脸识别技术下的信息提供者只需提供初步证据证明发生侵权行为并产生损害后果,由技术控制者证明自身行为的合法性及技术使用与损害后果间不存在因果关系,否则其需要承担举证不能的法律后果。