人脸识别技术下的个人信息保护
——以设计保护为进路
2021-11-26张宇轩
张宇轩
(天津大学 法学院,天津 300072)
人脸识别引发的个人信息保护危机日益受到高度关注,浙江理工大学副教授起诉杭州野生动物园成为中国人脸识别侵权第一案。“这是个看脸的时代”本来是一句玩笑话,如今却成为现实——刷脸进站、刷脸支付、刷脸签到,刷脸无处不在。人脸识别在给人们生活带来巨大便利的同时,也带来了一系列法律风险,对个人信息构成严重威胁。个人信息的传统保护方法是对信息收集利用的目的进行严格限制,通过知情同意贯彻个人自决,对于侵权行为则采用事后救济,但随着人工智能时代的到来,该原则方法已经无法满足当今社会的对于信息保护的需求。个人信息保护要走出困境需要探索适应时代特征的、新的个人信息保护模式,通过设计保护个人信息是一条充满希望的新路径。
一、问题的提出
人脸识别技术作为一项生物识别技术在历经半个世纪的发展后,被应用于社会生产生活的各领域。各类人脸识别应用的出现标志着“刷脸时代”的到来。然而,在人脸识别技术为生活带来巨大红利的同时,其带来的法律风险也不容小觑[1]。人脸识别系统在收集信息时具有快捷、准确、隐秘等特性,同时其收集的面部信息属于生物识别信息,具有唯一性、不可匿名性等特征。面部信息与复杂的人脸识别系统的结合给现有法律带来了前所未有的挑战,也为后续立法提出了更加苛刻的要求。
(一)人脸识别技术的兴起
人脸识别技术源于20世纪60年代,在90年代进入初级应用期[2]。如今人脸识别技术已经广泛应用于我们的生活,一个看脸的时代已经到来[3]。人脸识别通过摄像机或者摄像头采集含有人脸的视频或照片,并对人的面部特征进行分析。
人脸识别的运行过程主要可以分为三步:第一步,对人脸进行检测,无论是面部遮盖、环境变化还是表情变动,是动态的视频还是静态的图片,当今的人脸识别技术都可以做到毫秒级的检测。第二步,摄像头从采集的图像中寻找一张最佳图像,对五官轮廓等进行定点分析。第三步,系统通过定位完成用户的数据画像,并与图库照片进行比照。常见的人脸识别主要有两种应用形式:第一种是一对一形式,是身份确认的一种新型方式,主要用于各种证件的确认。第二种是一对多形式,可用于公安机关搜索犯罪嫌疑人,寻找失踪人口等。人脸识别技术最先应用于安保领域,例如大家熟知的刷脸进站。此后,人脸识别逐步遍及商业、医疗等领域。如今人脸识别在互联网政务领域也是应用得风生水起,例如在我国某些地区的退休老人社保待遇资格的认证就使用到了人脸识别技术。这一举措大幅度提高了行政服务效率和居民满意度。人脸识别技术在商业领域的应用得最为火爆,最典型的表现形式就是刷脸支付。2013年,芬兰的Uniqul公司率先研发了人脸识别支付系统。2017年,肯德基在门店中安放了可“刷脸支付”的自动点餐机,这也是人脸识别支付技术在全球首次应用于商业领域。在移动支付的快速发展之下,国内的许多超市商场在营销中也引入了人脸识别支付技术。快捷的人脸支付系统不仅很大程度上为商家和顾客提供了便利,也起到了很好的分流作用。
(二)人脸识别技术侵权问题的特殊性
人脸识别的广泛应用在为社会生活带来巨大便利的同时,也引发了个人信息保护危机。2019年,杭州市富阳区人民法院受理了人脸识别第一案。浙江理工大学副教授郭兵在杭州野生动物世界办理了一张年卡,该动物园先前使用指纹识别入园,其后在未通知消费者的情况下将系统升级为人脸识别入园。郭先生认为面部特征等生物信息属于个人敏感信息,杭州动物园在未通知消费者的情况下擅自升级系统,侵害了消费者的权益[4]。在另一起事件中,中国药科大学在部分教室安装了带有人脸识别技术的系统,引发社会热议[5]。
面部信息是个人信息的一种,承载着高度的人格利益,理应受到法律保护。具体而言面部信息属于生物识别信息,其所攸关的人格尊严利益较普通信息更为突出,故在众多个人信息当中具有卓然地位。与个人有关的信息是海量的,并非所有信息都是个人信息保护意义上的“信息”,个人信息的本质特征和甄别标准在于可识别性,即凭信息可形成自然人的人格图像。一些琐细的个人信息往往需要结合起来才能形成人格图像,而对面部信息而言直接就可形成人格图像,其所形成的生理图像是人格图像的重要层面。正是因为这种特殊的重要性,我国《民法典(草案)》第一千零三十四条在所界定的个人信息范围中特别列举了“生物识别信息”①(1)①《民法典草案》第一千零三十四条规定:“自然人的个人信息受法律保护。个人信息是以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人的各种信息,包括自然人的姓名、出生日期、身份证件号码、生物识别信息、住址、电话号码、电子邮箱地址、行踪信息等。个人信息中的私密信息,同时适用隐私权保护的有关规定。”。在比较法上,一些国家将生物识别信息作为敏感信息,给予较普通信息更高层级的保护。面部信息作为一种重要的生物识别信息,可能因人脸识别技术的应用而被置于危险之中。
与一般个人信息侵权相比,人脸识别技术带来的侵权问题更具特殊性,主要表现为以下几点。
第一,获取的信息更全面。根据人脸识别的运作原理可知,人脸识别技术获取个人面部信息非常便捷且准确度高。人脸识别看似只搜集了用户的面部信息,但事实不止于此,其强大的整合能力隐藏着巨大风险。人脸识别技术可以通过与云计算,互联网等技术结合,与用户的其他数据进行整合,从而描绘出完整的用户“画像”[6]。以往单个人工智能技术只能收集用户某一方面的个人信息,但多项人工智能技术的进步导致各种数据出现信息聚合。信息聚合可描绘出全方位的个人画像,例如情感交互技术,其通过对人的面部动作进行收集和分析,与用户的其他信息结合并生成报告,从而得出被分析者的情感波动。这也就意味着内心的私密活动也可以被处理、整合成外在的信息,传统个人信息保护所强调的用户自决权可能将逐步失去作用。
第二,侵权主体难以确定。首先,人脸识别与人工智能技术如影随形,如果人脸识别是由具有高度智能的机器人实施的,则谁为侵权主体?智能机器是否可能具有民事主体资格而承担侵权责任,对此学界存在激烈争议[7]。从发展的眼光看,随着弱人工智能向强人工智能的进化,人工智能获得有限主体地位的可能性是存在的。未来,强人工智能自主实施的人脸识别造成的个人信息侵权由谁担责将成为一个问题。其次,收集面部信息的人脸识别端口散布在生活的各个角落,用户信息可能在不经意之间就已经被收集。与此同时,个人的面部信息在被收集、分析时经历的环节较多,流转于多个信息利用者之间,信息主体很难确定自己的信息究竟是在哪个环节、被何人所侵犯。信息利用的主体既可能是算法的开发者,也可以是服务使用者,亦或是不怀好意的其他人。责任主体的多样性导致谁应为信息保护承担相关责任,无从确定[8]。
第三,侵权行为更加隐蔽。人脸识别侵权通常不表现为人的直接行为,使用人脸识别系统的人躲在幕后。在很多情况下信息主体往往会将电子设备侵权归咎为机器故障,对电子设备侵权有着更高的容忍性,而忽略识别设备背后的实际使用人[9]。再者,因为面部信息并不具有直接的财产性,属于一种无形信息,所以用户很难在第一时间发现自己的权利受到侵犯。传统侵权责任构成要件中的侵权行为在人脸识别技术下显得更加温和隐蔽,也更不易被人察觉。
第四,损害后果具有严重性和不可逆转性。人脸识别系统收集的面部信息属于生物识别信息已如前述,其具有唯一性。在铺天盖地的刷脸支付下,面部信息俨然成为移动的密码。手机、银行卡的遗失可以通过挂失、取消关联等方式补救,二维码或密码泄露的问题可以通过修改更换来进行解决,人脸信息的泄露则覆水难收。面部信息一旦被窃取,传统的保护手段往往难以奏效。被窃的面部信息可能会在不确定的潜在数据利用者之间流转,侵害后果很难彻底清除或逆转,长期反复出现。被窃的面部信息若与被侵权人的其他信息结合,则将会对被侵权人造成更大的困扰。
二、刷脸技术下传统个人信息保护方法的困境
在过去的几十年中,世界各国主要采用的是“公平实践信息原则”来保护用户的个人信息[10]。公平实践信息原则强调政府、企业收集、利用、披露用户信息的行为需被限定在特定目的范围内,并承担此期间的各种责任。同时,用户享有知情同意权,可要求更改、销毁被收集的信息,借个人自决试图实现信息主体的自我保护。面对侵权行为,公平实践信息原则主要采用简单的事后救济。而随着人脸识别技术的飞速发展,公平实践信息原则早已无法适应新的现实情况。
(一)目的拘束原则难以适用
个人资料的收集或利用,应当尊重当事人之权益,依诚实以及信用方法为之,不得逾越其目的之必要范围,并应与收集目的具有正当合理的关系,此即目的拘束原则。目的拘束原则是公平实践信息原则的题中应有之义,在全球范围内受到普遍的认可。目的拘束原则被认为是收集使用个人信息中的帝王条款,人脸识别亦不例外。在收集、使用面部信息时必须要遵循特定的目的,从而保证最小限度的收集。新的现实情况对目的拘束原则产生了巨大冲击,其适用出现障碍。
第一,发展现状的限制。基于现实考虑,一味限制信息收集的数量不利于识别技术的发展。目的拘束原则内含必要性原则,要求信息收集应当符合少而优的理念。而当前人脸识别技术处于起步阶段,人脸识别技术的深度学习功能需要收集大量个体的面部信息以丰富信息数据库,从而提升系统识别的速度和精准度。同时,新兴的技术企业受到成本限制在收集信息时也会追求信息获取的数量。必要性原则面临客观现实的挑战。
第二,系统功能的冲击。目的拘束原则禁止加值利用,即不允许组织收集的各类数据自动组合并分析出更加深层的用户信息。然而,人脸识别技术却可将碎片化的面部数据重组形成完整的用户画像,在深度分析中获取系统特定目的之外的性取向、婚史、病史等私密信息。
第三,配套制度的缺失。信息利用主体应在自己内部制度中细化目的拘束原则。但现实中,细化的配套制度却存在缺失。例如,目的拘束原则要求限定个人同意收集数据的有效期限,避免出现“一次同意,终身有效”的情况。面部信息的储存时限也应当符合目的拘束原则。市面上的识别系统对数据储存的期限多并未做明确的限定,导致信息主体的变更权受到影响,目的拘束原则难以落实。
(二)知情同意原则难以奏效
收集、使用个人面部信息应当充分尊重信息主体的知情同意权,此是个人信息保护的经典原则。我国司法实践中关于违反知情同意原则的相关案件也层出不穷①(2)①如王时雨与中国农业银行股份有限公司内江直属支行人格权纠纷案(2018)川1002民初4074号,洑某人格权纠纷案(2017)京01民终6555号等。。知情同意原则的价值在于实现个人自决,使信息主体自己担当自己的保护者。而在人脸识别技术下,知情同意原则却很难奏效,信息主体的同意能力不足、同意的形式化等问题使知情同意原则在实际上被架空。
首先,知情同意原则的应用流于形式,过于机械。知情同意原则的本意要求用户对收集、利用信息的行为有正确、清晰的理解,并在此之上做出决定。而多数面部识别系统的信息保护条款篇幅过长,用词过于学理化,未被给予有效提示和说明。同时,人脸识别系统现已活跃在各个领域,若用户选择不接受,则有很大的可能性退出系统,用户也就无法享受相应的服务。如此机械的处理方式将对用户的生活带来巨大的不便。其次,知情同意原则的保护力逐渐消退。知情同意作为传统信息保护的有力屏障难敌人脸识别技术的强大功能。人脸识别技术中的隔空捕捉技术和网络爬取数据等技术使得系统可以绕过用户的同意,在未经授权的情况下获取用户的面部数据[11]。知情同意面对先进的识别技术俨然已经过时。最后,知情同意原则的实施成本过高,效率较低。过分强调知情同意将产生巨大的信息利用成本,不利于多方共赢。人脸识别技术的运行是一个多方参与的过程,涉及政府、企业、技术开发部门、信息主体等。为了使公共利益和个人权利得以平衡,面部信息既不能被无限获取,也不可一味地被控制和隐藏,而应当适当被用于流通和交换。知情同意原则要求只有在用户同意的情况之下,信息收集者收集和利用面部信息的行为才为合法。但若政府、企业不加区分地将所有场景均设置为以用户知情同意为前提,将产生巨大的信息利用成本,不利于公共利益的实现。
(三)事后救济模式难以止损
公平实践信息原则构建的法律框架主要围绕个人信息的收集、流转和利用,只有在权利受到侵犯后,才会予以救济,属于典型的事后救济[12]。我国个人信息保护由于缺少完整的请求权基础,实践中多通过传统隐私权或名誉权、肖像权为请求权基础②(3)②通过中国法律应用数字网络服务平台 (法信) 以“个人信息”为关键词,发现相关案件多以侵犯隐私权、肖像权、名誉权等进行处理。如,王克跃、浙江岩亨信息技术有限公司、浙江岩亨信息技术有限公司杭州分公司隐私权纠纷案(2018)川1002民初4074号,唐某某与湖南某旅行公司人格权纠纷案(2016)赣0302民初255号。我国现行的《民法总则》虽设置有个人信息保护的环节,但未能完成为个人信息保护提供完整请求权基础的任务。。因此,我国司法实践中对于个人信息侵权主要依据《侵权责任法》来进行规制,救济途径多为赔偿损失、赔礼道歉等,而人脸识别技术带来的信息风险具有特殊性,单纯依靠事后救济模式难以应对[13]。
首先,人脸识别技术的信息风险来源具有特殊性。人脸识别技术的许多信息风险都植根于系统本身,设计者在系统开发初期就设定了面部数据被利用的范围和方式。事后救济模式作为一种简单附加的救济手段,只能在系统运作之后发挥作用,面对系统的“先天缺陷”只能落后一步。其次,人脸识别技术的信息风险形式具有特殊性。不同的侵权行为应寻求相应的救济手段,完全的事后救济模式难以应对人脸识别技术特殊的侵权形式。传统的面部信息侵权主要表现为偷拍偷录、丑化侮辱等形式,而人脸识别技术存在一种独特的侵权形式,即为人身歧视。例如,美国迈哈密的智能治安监管系统会重点监视黑人群体和西班牙移民,该行为构成种族歧视[14]。性别歧视、种族歧视等问题必须事先积极预防,其对用户人格尊严带来的创伤是无法通过事后救济来进行弥补的。
三、刷脸时代通过“设计”保护个人信息的新思路
传统的个人信息保护模式在面对新情况时显得心余力绌。“刷脸时代”亟待更具可行性、有效性的个人信息保护措施。新近的设计保护方法可扭转当前个人信息保护的疲软态势,不失为一条可行之路。设计保护方法强调防患于未然,可解决事后救济难以止损的问题。设计保护理论突出用户权益,并可实现公私利益的平衡。全生命周期的保护和植入系统的信息保护算法为用户信息建立起强有力的保护屏障,可在保证用户信息安全的基础上,促进人脸识别技术的持续发展。
(一)个人信息设计保护方法的优越性
隐私设计理论(Privacy by Design)最早是由加拿大渥太华省信息委员会前主席安·卡沃基提出的[15]。隐私设计理论主张将个人信息保护在系统设计阶段就嵌入其中,通过技术手段积极预防个人信息侵权行为的出现,将信息保护放置在系统运行的核心地位。隐私设计理论包括七个重要内容:主动预防、默认保护、设计嵌入系统、完整功能、全生命周期保护、用户利益至上、可视透明。人脸识别领域也应当引入设计保护模式。相较于先前的公平实践信息原则,设计保护模式具有一定的优越性,主要体现以下几个方面。
(1)事先积极预防。公平原则对主体的受损权利采取事后救济。设计保护模式则要求对侵权行为做到防患于未然,而非亡羊补牢,将信息保护设置为默认选项,改变先前信息保护的附属性地位。如前所述,人脸识别技术所收集的是个体的面部信息,具有独特性,不可更换。面部信息一旦被违法利用和公开之后,并非简单删除信息就可以恢复受损权利,带来的损害后果将不可逆转。因此,我们对面部信息的保护应当做到未雨绸缪。
(2)用户利益至上。设计保护模式要求系统设计应当以用户为中心,围绕着用户的需求,切实保障用户的各项权利。在系统请求用户允许其获取面部信息时,用户可选择是否同意。若用户不同意收集其面部信息,设计者应当提供其他验证识别方式,例如指纹识别,上传身份证件等,而并非简单粗暴地拒绝提供服务。收集者通过这种方法有助于更好保障用户使用服务的权利。
(3)平衡公私利益。人脸识别系统的运行需要多方主体参与,涉及公共利益、经济利益、个人利益,每种利益都应得到保障。人脸识别技术的快速发展加剧了信息主体和利用方之间的矛盾,但并非无法缓和。设计保护模式要求实现多方共赢,融入正和模式,避免零和博弈①(4)①零和博弈又称为零和游戏,是指在竞争下,一方获得收益必然伴随另一方利益受损,双方无法实现公赢,双方之间属于非合作关系。。人脸识别系统通过增加信息的安全性,减少不必要的信息收集,进行有效的信息脱敏,可切实保护用户的利益。在安全的信息环境,信息主体也更愿将信息让渡给收集者。
(4)延长保护周期。设计保护模式要求信息收集者在首次收集到面部信息后到识别系统被彻底停用之前,都应为用户提供全生命周期的保护。当系统彻底停用后,系统控制者也需全方位清除用户的面部数据,避免信息泄露。我国《信息安全技术个人信息安全规范》要求信息利用主体在个人信息收集时需符合合法性、最小化要求,存储时要对用户信息进行去标识处理。信息控制者使用环节也需要收到相应限制,力求对用户的信息提供全生命周期的保护②(5)②例如《信息安全技术个人信息安全规范》7.2中规定的展示限制:涉及通过界面展示个人信息的(如计算机屏幕、纸面),应对需展示的个人信息采取去标识化处理等措施,降低个人信息在展示环节的泄露风险。。全生命周期的保护一方面有利于从源头减少侵权的发生,另一方面当侵权行为发生时,用户可以直接向信息保存者进行追责,从而减轻用户的追偿难度。
(5)设计嵌入系统。信息保护直接嵌入系统是设计保护模式最为突出的特征。区别于公平原则的“简单附加”,设计保护模式主张将信息保护在系统设计初期直接嵌入系统中,成为系统的默认设置。同时相关代码也不妨碍系统其他功能的正常运作,使得信息保护和系统运行融为一体。例如,手机的防盗功能、笔记本电脑的指纹识别等都是将需求嵌入系统设计中,且对原有的功能没有影响。
(二)人脸识别技术下设计保护方法的具体应用
自隐私设计原则被提出之后,许多国家都将该原则融入国家的立法和实践之中。美国联邦贸易委员会在其2010年和2012年网络安全报告中首次提及和阐述了“通过设计保护隐私”机制的概念,并要求企业积极践行该机制[16]。2014年欧盟的网络与安全管理局明确提出了八项隐私设计策略①(6)①2014年欧盟的网络与安全管理局发布了一项报告,报告中明确提出了八项隐私设计策略,分别是最小化、隐藏化、区隔化、聚集化、通知、控制、强化、展示。。2016年欧盟正式通过《一般数据保护法》,其中第25条专门规定了隐私设计原则,赋予了隐私设计原则合法性。英国的ICO是英国维护信息权的专门机构。其在《数据保护指南》专章规定的隐私设计保护原则,从而鼓励企业积极践行该原则。隐私设计原则不仅体现着多个国家的立法中,也被许多企业运用在企业运作中。例如谷歌地图中的街景功能,谷歌在记录街景时,利用系统对检测到的人脸进行模糊处理,使他人无法识别出行人的身份,避免泄露行人的面部信息。此外,苹果、惠普、腾讯等互联网巨头都在积极践行隐私设计理论。
在人脸识别技术迅速发展的今天,我们应当在立法中体现设计理论,在企业运作中融入设计理论,通过法律和技术的双重屏障切实保障用户的面部数据。个人信息设计的实施具体要经过哪些步骤?学界存在着不同的认识。其中主流观点认为应当从以下几个方面进行:
(1)确定法律需求。设计保护理论的核心是将信息保护直接嵌入到系统设计之中。在设计系统的初期,系统设计者就应当将相关的法律需求引入系统之中,将法律知识转化成系统可识别的代码。所以践行个人信息保护设计原则的第一步就是确定需要满足的法律需求。相关研究人员在经过综合分析后确定了隐私设计原则的九项法律需求:目的特定、最小化、数据质量、透明公开、被遗忘权、用户权利、数据携带权、数据违反通知、责任和合规。要为了实现正和模式,人脸识别技术中更应当着重强调保障用户权利,以用户的利益为出发点。
例如前段时间大火的换脸软件ZAO。该软件采用深度伪造技术,利用用户上传的个人照片,放置平台的影视片段之中,即可实现与多位明星换脸。深度伪造技术发展以来,换脸欺诈事件层出不穷,本身就存在巨大安全隐患。针对当前深度伪造技术带来的负面影响,2020年3月施行的《网络信息内容生态治理规定》中就明确网络信息的使用者、服务平台等主体不得利用深度学习、虚拟现实等新技术新应用从事法律、行政法规禁止的活动,从而保障用户的合法权益。该App还存在强制收集、强制使用用户面部信息的行为。该行为明显侵害了用户面部信息的权利[17]。用户的权利主要包括被遗忘权、撤销权等。人脸识别系统应当在系统设计初期将上述的用户权利写入自己的系统中,从而杜绝此类情形出现。
(2)分析系统目的。人脸识别系统应明确提出收集面部信息的目的,并将特定目的转化成准确的代码。通过将目的代码输入系统之中,设计者可以防止系统收集用户不必要的信息。我国当前人脸识别技术商业化迅速,追求发展的同时常出现系统突破限定目的,过量收集用户信息的情况。我国互联网信息办公室、工业和信息化部等部门于2019年联合制定的《App违法违规收集个人信息行为认定方法》中就直接规定应用系统应明确和公开系统目的。 可见限定、分析系统目的对于个人信息的重要性。我国的人脸识别系统现已应用在政务、商业、医疗等各个领域,每个领域收集面部信息都有特定目的,系统目的描述越准确,信息质量也就越高,数量也会减少。此种做法可极大程度上保障用户的面部信息,从源头上减少用户信息泄露的情况发生。当前人脸识别软件可通过嵌入特定的系统目的,建设优而少的“信息友好型”设计框架,增加系统的操作透明度,延伸用户的控制范围,从而扭转用户在信息保护中的弱势地位[18]。例如,当前我国市面上火爆的各种修图软件,其收集用户面部信息的目的就是美化图片。设计者应当在程序中明确写入只美化图片的目的,以防止用户信息被用于其他场景,保障用户控制自身信息的权利。
(3)设定默认保护。默认保护义务是设计保护模式的重要内容。默认保护即为源头治理,它要求信息收集者采用技术手段确保在系统默认的情况下,妥善处理和保护用的个人信息,并且满足自己特定的目的。例如,市面上的绝大多数浏览器在默认情况下都将Cookis设置为关闭状态,从而保护用户的上网数据不被收集。在人脸识别系统默认情况下,系统可将面部信息的收集设置为关闭状态,用户可在需要时再主动要求启用人脸识别模式。同时,信息控制者还可以引入“元数据标签”,通过默认的方式将预期信息的处理轨迹绑定在信息储存的全周期,有效地防止用户的面部信息在不知情的情况下被收集。
(4)确立风险评估。面部信息控制人收集、分析、加工信息的过程中不可避免地存在各种信息泄露的风险。泄露的风险可能来自于系统本身的缺陷,用户自身的原因,数据控制人的非法收集和控制,也有可能来自第三人。不同的风险来源需要不同的应对手段。风险的表现形式也是多种多样,比如非法流转、过度收集等。面对不同的表现形式,应对策略和系统设计方式也应当有所不同。同时,合法收集行为也可能会对用户带来一定的负面影响。因此,执行设计影响评估至关重要,我国《信息安全技术个人信息安全规范》中规定应当建立个人信息安全影响评估制度,并定期开展风险评估。公安部的《互联网个人信息保护指南》中也规定:个人信息处理系统应提供安全审计功能,审计应覆盖到每个用户,应对重要的用户行为和重要的安全事件进行审计。因此,在系统设计时,设计者应当对于可能出现的负面影响进行分析,采取相应的应对手段,并将上述的策略转化为代码输入系统中,减少大部分的风险。根据不同风险,信息控制者可设置不同的处理模式,并及时更新系统内部管理体系[19]。
四、结 语
经济社会的发展推动科技进步。人脸识别技术作为新时代的产物,像是一把双刃剑,为人们生活带来巨大便利的同时,也对用户的面部信息带来隐患。传统的公平信息实践原则已经无法满足当今社会对个人信息保护的需求。设计保护模式强调从源头杜绝侵害个人信息的情况发生,可极大程度地减少侵权事件发生,具有可行性。目前我国对于人脸识别技术的专门性法律仍较为匮乏。个人信息保护的法律条文主要体现在行政法规之中。行政法规的法律位阶较低,保护范围有限,保护力度远远不够。人脸识别技术仍属于弱人工智能,当强人工智能技术出现时,个人信息的保护将更加重要。