APP下载

人脸识别技术应用中隐私权风险控制路径构建
——基于场景差异性的考量

2023-01-05张豫辰

湖北警官学院学报 2022年2期
关键词:人脸识别个人信息层面

张豫辰

(安徽省公安教育研究院,安徽 合肥 230031)

人脸识别技术是基于人的脸部特征信息进行的一种生物识别技术。[1]通过人脸图像或视频流的输入,判断人脸是否存在,进而根据每个脸的位置、大小、器官位置进行个体的身份特征的提取,最终实现身份比对的效果。整个过程可以分为三步,分别是建立人脸面向档案库建设、①即用摄像机采集单位人员的人脸的面像文件或取他们的照片形成面像文件,并将这些面像文件生成面纹编码贮存起来。当前人体面向的获取和对当前面纹编码与档案库存的比对。②该方式是根据人脸脸部的本质特征和开头来工作的。这种面纹编码可以抵抗光线、皮肤色调、面部毛发、发型、眼镜、表情和姿态的变化,具有强大的可靠性,从而使它可以从百万人中精确地辨认出某个人。人脸的识别过程,利用普通的图像处理设备就能自动、连续、实时地完成。随着技术的发展,人脸识别的方法也随着技术的发展不断的更新,现阶段进行人脸识别的方法大概可以分为几何特征的人脸识别方法、基于特征脸(PCA)的人脸识别方法、神经网络的人脸识别方法、线段Hausdorff 距离(LHD)的人脸识别方法、支持向量机(SVM)的人脸识别方法等。人脸识别技术相较于其他生物识别技术而言,其优势在于其具有非接触性、便捷性、快速性,也是这些优势推动了其在社会各方面的广泛应用。但人脸识别技术并不是百利而无一害的,在带来便利的同时,也产生了一系列关于公民隐私权的问题。

一、问题的提出

从2019 年9 月的“ZAO”app 事件到2019 年11 月的“杭州野生动物园人脸识别第一案”(以下简称“人脸识别第一案”),这两个事件中都是由于人脸识别的无限制运用而导致公民信息泄露,进而产生了恶劣的社会影响。可以看出人脸识别技术的应用过程中关于隐私权层面的问题频繁的产生,让相关问题得到有效解决的呼声也越来越高。数字社会的背景下,隐私问题的重心正由现实空间转向网络虚拟空间,即一种隐私数据化[2]的演化。而现有隐私权保护的配套制度的重心实际上是依托于现实空间进行的制度构建,这就造成了技术的应用与权利保障脱节的现象产生。《网络安全法》第七十六条第五项中对个人信息的属性做出了规定,指出个人信息是指能单独或结合其他信息识别自然人个人身份的各种信息,其中就包含个人生物识别信息。

首先,权利保障层面,相关法律也规定了诸如《网络安全法》第四十一条规定的网络运营者收集和使用个人信息必须经被收集者同意等一系列配套制度。相当一部分的制度制定是本着限制技术实现权利保障的出发点来进行设计的,但在具体的落实层面却产生了种种的阻碍,这一些都是忽视了人脸技术应用的场景性而做出事前的一刀切的判断而导致的消极后果。前文提及隐私问题在当今社会多以数据问题呈现,数据的最大特性便是流动性,片面强调数据的个人知情同意机制下的使用实际上是旨在划定数据层面的公共与私人的界线,数据的流动性又使得界线难以划定,最终导致数据孤岛的产生或是当事人权益被侵害的现象的发生。其次,从个人信息的划定层面来看,个人生物识别信息当然属于一个个体的关键信息,人脸识别技术对此类信息并不是只意味着风险的产生,而是以实现个人信息的有力保障为发展前景。并且风险的产生大多是存在于个别人员在使用、流通、存储等环节的不当导致的,这就需要我们对以入口控制为核心的个人信息使用制度进行重新审视,尊重人脸识别技术的场景差异性。对此,本文旨在从人脸识别技术的隐私权风险产生的相关问题出发,以情境为导向提出人脸识别技术应用风险控制路径。

二、非场景下的人脸识别技术隐私权侵犯风险防范路径的缺憾

(一)虚拟空间中的公私界线厘清难以实现

人脸识别技术的应用使得公民个人的隐私权受到了挑战,现行的风险的防范路径构建往往立足于公权力/私权利的二元结构[3]的前提之下。而受这种思维的影响,有观点就认为相关的个人的生物识别信息实际上是处于个人的绝对控制的私领域之内的,任何未经授权、同意的信息采集行为实际上都是侵权行为,是否能够或是否已经引起对当事人的消极后果并不是风险控制的核心。从逻辑思维层面上来看,这种思维有以预先的因果关系的思维代替人脸识别技术所体现的关联关系的判断模式的嫌疑,试图越过技术的使用过程来进行事前的全有全无的判断。而这种风险有无的界线划定实际上依赖于公共领域与私人领域的划定。

一方面,从虚拟空间中的数据的归属来看,人脸识别技术将相关个人信息数据化,并在虚拟空间中实现数据的加工、流转、运用,在这一数据至信息的过程之中,多方都付出了贡献,片面强调一方的绝对权力实际上是对“汗水原则”的否定,[4]进而使得现实社会难以实现与虚拟空间的有效对接,妨碍社会的整体发展。并且单纯的生物数据很难引起当事人权益的被侵犯的现实后果,只有当数据与数据进行整合之后形成对特定客体的个人信息才能进一步导致风险的产生。另一方面,从可能性层面来看,个人对虚拟空间中的数据的控制不论从技术层面还是物理层面都很难实现。网络平台协议、算法技术等的存在使得公民个人与企业、机关等存在技术鸿沟,权利的实现依赖于相关专业知识的认知,而大多公民缺乏此类专业知识。并且维护数据安全应以尊重数据的流动特性为出发点,强调私领域的界线划定实际上是一种以秘密专享为目的的观念,而数据的流动性则是提倡一种公开保护的方法,否定虚拟空间中的没有边际的个人意志的保护。[5]二者的对立之下,就使得以人脸识别技术为代表的相关数据加工技术陷入一种在权利保障缺失与数据孤岛之间进行抉择的两难境地。最后,从价值层面来看,公私界线的划分实际上无法实现个人权利保障与技术发展的价值层面的共存,否定了数据信息既具有私人属性又具有公共属性的特性,强调个人的绝对控制或是个人控制的绝对丧失并不能为人脸识别技术的进一步发展提供理论支撑。数据化环境下个人信息又具有社会性、公共性,使得绝对个人主义观念无法存续,[6]个人信息的价值实现,应是以数据的流动为大前提,实现人格尊严维护的价值与信息自由的价值共同推进。[7]如果数据为只能为自己利用,数据产业也不能发展,[8]如果数据经由个人授权迈向所谓的“公领域”,便使数据的利用脱离当事人的掌控,个人权利的保障也无从谈起。所以二者之间的关系并非是绝对的对立关系,而是相互依存的关系。公私界线的划分不论在逻辑层面、价值层面还是可能性层面都难以做出明确的界定。

(二)知情同意机制在技术应用中的不畅

《网络安全法》第四十一条规定,网络运营者收集和使用个人信息必须经被收集者同意。第四十二条规定网络运营者未经被收集者同意,不得向他人提供个人信息。可以看出,在我国的个人信息的使用是建立在一种机制之下,即知情同意机制。在人脸识别技术运用的过程中,知情同意原则也成为防止隐私权被侵犯的一道防线,在上述的“人脸识别第一案”中,当事人就主张杭州野生动物园的人脸识别入园模式未征求其知情同意,就径行使用,从而主张自己的相应权利。不排除在这位先生之前肯定也有很多人意识到了相应的系统会对个人的隐私权益造成风险,但他们为什么没有主张知情同意原则而进行权利的维护呢?其中一个重要原因由于现行的知情同意机制的僵化适用而导致的其功效无法有效发挥。

人脸识别技术给我们的生活带来了极大的便利,但个体的认知存在差异性,很难形成对技术应用的完整认知,碍于数字资源的缺失,当事人不得不忍受用自己的个人信息去交换相应的服务。在事后可能存在的隐私风险与眼前的便利的选择之间,人们也往往选择后者,而知情同意机制的履行也被相关运营者以繁琐的、抽象的条文进行落实,当事人能做的也就是选择同意信息收集或是不接受服务,进而导致知情同意机制的履行也就流于形式。其次,虚拟空间中数据秉持的是流动、开放与共享的理念,数据主体的个人数据进入虚拟空间之后,形成的是一种相对的有限制的所有权,[9]理想状态应是在遵循数据流动的特性的基础上,均衡数据价值实现与个人隐私保护的状态,而知情同意机制的落脚点实际上一种事先的一刀切的先验式的做法。

我国并没有专门的数据保护法,个人信息的相关规定也散见于各种各样的规定之中,删除权、可携带权并未在我国明确确立,当事人的意志在人脸识别技术的社会推进过程中所能达成的效果实际上微乎其微,一方面数据主体可以采取变相的方式获取当事人的同意,另一方面相关主体在违反国家有关规定获取或使用权利人的信息,权利人的知情同意并不会对侵害产生影响或改变,[10]主体之间的经济、技术等水平的差异使得双方并未处于一种“平等武装”的状态,弱势一方的意志实际上被强势的一方所左右。最后,知情同意机制的设立目的也是出于对网络整体秩序维护的需要,这种理念不是排斥个人对自身数据的权利,只是强调虚拟空间中的权益保障的重心之所在,毕竟脱离整体秩序,个人权益的维护也无从谈起。在网络虚拟空间之中,每个人都被打上了特殊的标记,而技术的应用便能建立起虚拟身份与现实身份的对接,[11]将知情同意理解为数据信息整个生命周期的贯彻主线,不仅耗材耗力,而且不符合技术发展变化和市场运行的规律。僵化的适用知情同意机制,实际上是片面强调了当事人的单个个人信息的重要性,而忽视了每个个体信息和群体中其他个体信息相连接才将会产生巨大价值进而产生风险的流程判断。[12]毕竟,信息被打上个人的标签的出发点就是基于网络虚拟空间整体秩序的维护,其价值的实现的基础也应是整体秩序的平稳运行,知情同意机制的实现也不是简单进行预先的事前调控和对个人绝对权利的保障。

(三)相关配套的法律供给不足

人脸识别技术的风险的分析离不开对配套法律制度的分析,现阶段对相应的个人信息的风险的制度层面的控制往往落在事前的个人权益的坚决维护,是一种绝对的人权保障理念的体现,而基于利用行为的规制路径则被认为是一种功利主义的体现,应让渡于人权保障的实现而无法发挥作用。坚持人权保障的持续推进,并不能否定功利主义在认定人脸识别技术风险过程中的积极作用。法制层面的供给应从准入和使用两种思路为出发点进行进一步的丰富和完善,应以依托具体场景下技术应用的目的与手段相匹配的比例原则为基础。

否定信息的流动而强调个人的权益的保护是一种个人法益保护观和自然犯的坚持,而强调基于利用行为的主要规制手段则是强调对整个网络空间的秩序的维护为优先,是一种超个人法益观和法定犯的坚持。风险所针对的对象是个人法益亦或是超个人法益[13]并未形成定论,在我国刑法中个人信息问题归为公民人身权利民主权利一章,倾向于该罪是自然犯,但是在具体规定中又规定了具有法定犯特色的“违反国家规定”构成要件要素,这就对相关法益的理解层面出现差异。有学者认为其应当是带有法定犯气质的自然犯,[14]又有学者从信息数量出发认为该类犯罪应属法定犯。[15]法律层面所要保障的权益的不明,使得风险的判定层面出现缺失。事前的预防或是风险的防控忽视了其风险真正的存在与后续的应用行为之上,即行为人将获取、提供、披露或公开的个人信息作为犯罪手段的下游犯罪行为。所以强调事前的知情同意或是公私界线而形成的入口控制作用甚微。在信息社会,有效规制侵犯个人信息犯罪应以非法利用行为为核心构建其行为体系,而这种利用行为只有纳入具体的场景之下才能进行具体的评判,这就要求必须实现配套的法律资源的供给充分,有效发力。

(四)数据应用的广度与深度难做预先划定

隐私被侵犯的风险往往不在于人脸识别技术对相应数据的初次使用,而在于后续的二次利用行为。在数据被采集之后,数据未经去标识化、去符号化处理便归于特定的数据池之中,服务于后续的采集主体的所需,个人信息应用的范围和深度实际上也就脱离了相对人的控制,处于一种高风险的状态,风险的失控使得个人隐私被侵犯。从整个虚拟空间来看,人脸识别技术获取的只是一些二进制符号,符号进行加工后成为数据信息,信息经过处理运算后能够实现个人身份的再识别化,个人信息的保护却无须完全依赖于固定身份识别标准。[16]当获取了个体的部分数据之后就存在了识别个人身份的可能,[17]网络空间上留存的各种细琐信息,经过技术手段加工,存在整合出人格的关键信息的可能性。[18]数据的可再次利用的特性,也阻碍了当事人的认知,所能预见的风险的判断往往被限制在初次授权环节,而在后续的利用过程中,当事人往往处于认知缺失的状态,从而无法从整体层面分析人脸识别技术对其个人的风险。算法、数据清洗、数据挖掘等技术的存在,使得风险的认知实际上被掌握技术的主体所左右。

个人隐私权的保障一方面是要赋予当事人相应的权利来使其具备防范风险维护权益的可能性,另一方面也要寻求对个人数据信息应用的范围和深度的控制,在信息权人与社会公共利益之间的利益平衡,兼顾个人信息保护与数据开发利用。[19]由于此类行为往往产生于初次授权之后,规制重心也应落在利用层面,在保障权利的基础上进行合理利用,而非碍于风险就否定了相关数据信息价值的实现的可能性,这就需要我们基于场景的差异性,对后续使用行为进行制度设计。

(五)各方的利益难以实现协调

在大数据环境下,数据利用与数据保护的状况出现了新的变化,对个人信息的侵犯实际上多以集聚化的形式出现,侵犯行为不仅作用于个人亦危害了公共信息安全。[20]人脸识别技术获取的相关数据实际承载了双重属性,一方面它是公民个人隐私权等权利的载体,另一方面它又是公共利益的载体。这种属性上的差异使得部分个人信息需要给予严格保护的,坚决防止他人非法获取、泄露、滥用等行为,也有一些公民个人信息虽然体现的是公民个人的权利,但这种权利受到一定的限制,因为涉及到公共利益而可以公开,有的信息甚至是依法必须公开的,对这些信息自然谈不上非法获取或者泄露的问题。两者虽然存在质的区别,但均应保护,保护集体法益应是为实现对个人法益的前置保护。[21]两者的价值衡量应基于信息使用场景做动态的判断,简单依据信息某一方面的属性做的公私划分时常导致强调两者中的一方的作用而否定另一面的价值,也就难寻国家利益与个人利益的整体平衡。片面强调一方就无法实现利用与保护之间的平衡,而忽视场景的判断则会在“风险-收益”评估[22]上出现障碍。场景的差异性旨在在建立评估的整体的宏观层面的基础上,对场景内多元因素进行风险与收益层面的微观调整。

人格生而平等,人数是衡量人格权犯罪的行为社会危害性的重要表征。从数量层面判定人脸识别技术的风险是一种功利主义的做法,但是这种思维却具有一定的合理性,在人脸识别技术发展的探索期,相应的技术还不成熟,在坚持人权保障的根本目的不动摇的同时,辅以功利主义思维不失为一种良好的模式,但亦不能片面强调数量的作用而忽视对个体权利的保护。即使技术的运用会产生法益侵害的风险,但是如果该技术保持共生状态能够给我们人类带来更好生活的时候,也就应与发展该技术为社会创造福利的价值进行衡量,[23]所以尊重公民的相关权利而非将其视为一项绝对性的权力,风险问题的讨论应以权利语境甄别权利的属性,进而做出制度安排。总体而言,尊重场景的差异性来进行利益的实现才是实现多方利益平衡的关键,而非将人脸识别技术产生的隐私问题纳入笼统的、泛化的规定之下。

三、基于场景差异性的人脸识别技术风险防范控制路径设想

人脸识别技术运用的场景的多样性差异使得脱离场景设定的事前的公私划定的隐私保护机制出现适用上的障碍和理论支撑层面的难以为继。世界经济论坛(World Economic Forum,下称“WEF”)在今年2 月发布了项目白皮书《对面部识别的负责任限制框架:以流程管理为用例》(A Framework for Responsible Limits on FacialRecognition Use case:FlowManagement)中将人脸识别技术划定为准入系统、公共场所的安全保障、市场及客户服务、医疗保健服务四大场景。欧盟基本权利局于2019年11 月发布的《人脸识别技术:执法中的基本权利考虑》文件中第一款就明确了人脸识别技术和基本权利的实现依赖于场景的建立。在我国也有学者提出将人脸识别技术的应用场景划定为:计数、认证、识别、监控、伪造与窥探六大应用场景。不论是域外经验还是国内实际情形的反馈,都揭露了场景对于人脸识别技术的隐私权问题解决的关键作用。如何构建场景差异性下的人脸识别技术风险防范路径,就需要对“场景”进行进一步的剖析。

(一)“场景”的进一步解读

场景具有差异性,不仅是不同场景之间具有差异,同一场景中也存在差异。特定时空下的经济、政治、文化等诸多因素影响下,典型的活动、关系、权利、内在价值、目标和目的等共同构建的结构化的社会状况构成了某一特定的场景,而人脸识别技术产生的相应数据则是在不同的场景内的进行流动,当数据没有依照特定的场景的相应规范进行流动时,就产生了风险。将评估隐私权的风险标准归于使用流程以及适当性上去,而非从事前的控制数据流动层面进行风险评估。场景差异性理论中,认为人们并非排斥外界对自身的使用,而是排斥使用方超出当事人预期脱离具体场景下的使用。当数据进入虚拟空间中后,并非阻止数据的流动性,而是倡导数据的合理流动来实现人脸识别技术风险的控制,隐私的保护并不是绝对依赖于当事人的控制和主观意志,而是纳入具体的场景之下判断其是否应成为风险控制路径一部分,这也就公私界线划分或是知情同意机制的不畅问题作出了回应。具体来说,在具体场景下的人脸识别技术涉及的数据问题涉及三个层面的问题,一是数据信息的类型及其在场景下的分析问题;二是参与数据信息整个生命周期的关键主体是谁;三是特定场景下的规范应如何做出具体的配置的问题。简而言之就是依托信息主体、信息类型和传播原则等三个要素对场景内的隐私风险问题进行评估,从而实现公私二分、第三方原则或信息自决权等理论及其涵盖的法学价值都能够和谐共处,并得到恰当的阐释。[24]

(二)场景差异性下的人脸识别技术隐私风险控制路径的构建

首先是对人脸识别技术中涉及的信息主体进行细化规定。信息主体是指信息交换的行为人,包括数据的发送者、接受者和归属者,在不同的场景下中被赋予了特定的能力、角色或行为准则,进而影响着隐私内涵在具体场景中的认定,[25]在人脸识别技术的运用过程中,主体的不同影响着风险的评估和后果的处理。应考察使用人脸识别技术的主体资格,是否在能力和意愿层面都愿意成为公民合法利益的维护者。只有其具备了相应的资格,才能进一步根据场景的特殊性从权威角度对信息公开发布情形对同意机制作出适当调整,如采取“情境合理+拟制同意=合法处理”的做法来消除“强同意”僵硬适用和过高标准的困境,进而使同意架构从封闭走向开放,由此个人数据保护从一刀切的权利分割迈向了激励相容的合作治理。[26]而如果其主要目的是追求经济效益,其次才能考虑社会责任的承担,这就意味着相关主体作为人脸识别技术的主体往往在风险与收益的衡量中选择了收益,虽不排斥其合规下的技术应用,但应当加强对相关主体使用数据信息行为的约束。应当限制相关主体在某些场景下的人脸识别技术的运用,如利用识别技术进行伪造或是窥探,这些功能的实现应严格进行限制,并不是否定人脸识别技术的相应的作用和价值,而是从风险层面进行考量。首先,以企业与公权力机关为区分,场景下的人脸识别技术应用企业应处于协助、辅助等次要地位,主要地位应交由公权力机关进行牢牢把控。其次,作为技术研发的核心的企业也不能碍于风险而导致技术开发进程的延缓,这就强调了在可控范围内的人脸识别技术的运用,强调行业的自律。最后,提升责任的承担能力,平衡一般公众与企业之间的技术力量悬殊差异,使得当事人的权利救济有实现的可能性,进而缓解民众对人脸识别技术应用的担忧。

其次是在人脸识别技术采集的相关数据进行传播原则层面的限制。传播原则是信息进行流动时应受的约束或是限制,要明确阻碍传播的并不是数量因素,被侵犯的公民信息的数据量或是危害性程度不能直接与需罚性划等号,这是一种对教义学思维的偏离的观念,[27]应严格依照特定的场景进行具体判断,构建起差异性的传播规制体系。首先是目的限定原则的体现,人脸识别技术的运用应限定在特殊的目的之下,排除非法收集个人生物信息进行售卖等行为的出现,人脸技术的风险性不能被其经济效益所掩盖,当目的能以其他风险较轻的方式实现的时候,应慎重考虑人脸识别技术的运用。应体现出最后手段原则适用,人脸识别技术虽然是带有强制性质的数据采集,当事人的意志虽然被削弱,而且不能将个人隐私信息划为完全禁止获取使用的信息范畴,[28]但不能不加区分目的而进行盲目使用。其次是比例原则的遵守,比例原则旨在建立起干预人民基本权利的手段与其所欲达成的目的之间必须具备相当性的关系。[29]依据比例原则,来进行需保护性和保护的可能性[30]等因素在差异情境下的判断。公民的知情同意、明确授权等因素都应与场景进行结合考量。从而实现不排斥数据的流动的基础上的权利的有效保障。最后,应重视必要性原则在场景中的运用。相较于人脸识别技术的实施主体来说,被采集数据的个人往往处于弱势地位,但这并不能否定个人权益应得到维护的价值,所以评估对相关个体权利造成侵犯的风险时应衡量其必要性,这一原则应是贯穿相应数据的整个生命周期的关键,初始环节应考虑有无必要采用人脸识别技术,使用中有无注意应用的范围和深度,二次利用时应当重新考虑对相关个人数据使用的必要性,而不是径行的进行再次使用。

再次,应做出信息类型层面的界定。与其关注隐私权的本体是什么,不如以问题为导向,在实践中发现、建立规则。[31]人脸识别技术采集的数据并不能直接指向特定的人员的身份,还需要结合其他数据信息进行综合分析,所以不能直接依托因果联系来对信息进行分类,划定数据的使用的行与不行的界线,而是应当纳入具体的场景下进行具体的判断,建立的是一种依托关联性关系建立的信息类型的合理性体系。首先是从数据至信息的流程来判断,数据加工成信息如果主要来源于和服务于私营目的,或者数据具有较强的信息内容表现性,或者使用者对数据使用目的进行大幅变动,就应倾向于对数据指向的个体提供保护。[32]其次,应评估在数据的流转过程中有无削弱其于特定主体的联系,一定程度脱敏或是去标识化的处理应成为评估风险的重要考量。再次是个人信息至公共平台这一流程中的判断,这时的个人信息其实并非纯正的个人信息,而是相关机关根据现实的需求进行加工和整合后的个人信息,这个过程使信息的在承载私人利益的基础上增添了公共性的属性。所以判断信息类型并非只考虑其对个人的影响,还应对置于其上的公共因素同样进行考虑。最后,个人的意志应在这一环节受到限制,纳入场景之下进行具体分析。被遗忘权的主张并非一种绝对权利,仍需进行具体场景下的合法性判定。[33]信息类型应纳入具体社会情境中对各种利益进行综合评估,而不能单纯从公民角度做信息类型的认定与判别,应建立起自下而上的个案化判断规则,[34]结合公民与社会互动的场景从而对信息类型做出准确的认定。

最后则是三者融合视角下的综合控制。场景差异化的风险防范体系是综合信息主体、传播原则、信息类型构建起的综合机制,不能单纯的依托于某一要素就能形成对风险的评价。利用法律进行个人信息保护,重在风险防范,进而服务于信息流动。[35]权益的判断应结合社会背景、复合权利、理论基础等进行综合判定。片面强调信息的主体特殊性,就会使得特权问题的出现。片面强调信息类型,就难免陷入公私领域划定的迷思。片面强调传播原则,就无法应对场景的差异性带来的人脸识别技术运用的多样性,无法平衡使用与权利保障的关系。综上所述,基于场景的人脸识别技术的隐私问题风险防范路径的构建,应在考量三个关键要素于特殊应用场景对隐私问题的影响的基础上,作进一步的整合,而不是片面强调某一要素的作用。场景提供的只是一个框架,而三个要素在框架内的融合才能实现脉络的构建。

结语

人脸识别技术的运用带来了社会红利的同时,也带来了诸多的风险。对于隐私问题来说,一方面它能成为维护隐私的有力支撑,另一方面都带来了隐私层面的风险,如何协调好人脸识别技术的使用与风险的防范也成为我们当今必须重视的一个问题。片面以划定公私界线、强调知情同意机制等都无法实现权利保障与技术应用在现实层面的有效对接,从具体场景的差异性之中进行风险的评估与分析给相关问题的解决提供一种新的思路,这种思路摆脱了泛化笼统的人脸识别技术的规定的不足之处,从而形成一套行之有效的人脸识别技术的风险控制机制。

猜你喜欢

人脸识别个人信息层面
防范电信网络诈骗要做好个人信息保护
个人信息保护进入“法时代”
人脸识别 等
基于选项层面的认知诊断非参数方法*
揭开人脸识别的神秘面纱
主题语境九:个人信息(1)
警惕个人信息泄露
人脸识别技术的基本原理与应用
人脸识别在高校安全防范中的应用
二孩,人生如果多一次选择!