人脸识别技术的伦理风险及其规制*
2021-12-03胡晓萌
胡晓萌,李 伦
(1.湖南师范大学 人工智能道德决策研究所,湖南 长沙 410081;2.大连理工大学 大数据与人工智能伦理法律与社会研究中心,辽宁 大连 116023)
莱布尼茨曾说:世界上没有两片完全相同的树叶。这个世界上也找不出两张完全相同的人脸,即使是双胞胎的脸也存在细微差异而得以区分,所以人脸成为辨别个人身份的一个重要途径。自动人脸识别技术(Automatic Face Recognition,AFR)的初衷便是赋予计算机具有像人一样识别人脸的能力。自动人脸识别技术通过人的面部特征进行身份的识别和辨认,是一种重要的生物识别技术。本文所要讨论的人脸识别技术就是自动人脸识别技术。
大数据、人工智能的发展引来了商业和资本对人脸识别技术的追捧。商业巨头和创业团队纷纷进入人脸识别这个人工智能最热门的赛道。但是,随着人脸识别技术的发展和应用,人们对该技术的消极对抗情绪也越来越强。如2018年5月,36岁的英国人布里奇斯向法庭控诉南威尔士警察局侵犯了他的隐私权,因警方未经他本人同意而使用人脸识别系统扫描其面部,成为英国首起人脸识别的法律诉讼。2018年8月,瑞典数据监管机构对当地一所高中开出第一张基于GDPR的人脸识别的罚单。2019年11月,杭州野生动物世界强制游客“刷脸”入园,当事人郭兵将其告上法庭,成为我国“人脸识别第一案”。
人脸识别技术最开始以公共安全和国家安全为价值使命而得到发展和应用。但是如果安全这个价值诉求被放大而导致人脸识别技术被滥用的话,势必会引起隐私、歧视等一系列伦理风险。人们甚至开始担心人脸识别技术会使人暴露在无处不在的监视之中,演变成现实版的“楚门的世界”,世界各国也提高了对人脸识别技术的警惕。2019年5月14日,美国旧金山成为全球第一个通过立法禁止政府使用人脸识别监视技术的大城市。英国也出台政策限制人脸识别技术的应用。
人脸识别技术的伦理风险与技术的滥用和可靠性问题密切相关,本文将从人脸识别技术的滥用和可靠性问题着手,分析人脸识别技术引起的伦理风险,最后基于非力量伦理和责任伦理提出相应的伦理原则和规制建议。
一、以安全为价值诉求的人脸识别技术简史
通过对人脸识别技术发展历史的回溯,我们可以发现人脸识别技术因公共安全和国家安全的价值需求而得以发展和应用。20世纪中叶,美国科学家开始了人脸识别技术研究。此后的数十年间,美国当局投入大量资金支持人脸识别技术的研究,其背后的利益和价值诉求始终围绕公共安全和国家安全。根据公共安全和国家安全的需求变化以及人脸识别的技术特点,人脸识别技术分为几何特征时代、统计特征时代、大数据时代三个阶段。
第一,几何特征时代(1964年~1990年):1964年美国计算机科学家伍迪·布莱索(Woody Bledsoe)在一个情报机构的资助下进行人脸识别技术的研究。他提出的基于人脸几何结构特征的识别方法,也是最早的人脸识别技术的方法。[1]7金出武雄、柯比与西罗维奇等人在此基础上发展了基于几何特征的人脸识别技术。
第二,统计特征时代(1991年~1997年):20世纪60、70年代开始,美国进入毒品、药物泛滥的时代,毒品被美国当局认定为国家第一公敌。1990年9月纽约时报-CBS民意调查将毒品列为全美排名第一的社会问题[2]。由毒品滋生的犯罪和艾滋病是第二和第三大问题。1993年,美国国防部反毒品技术开发计划办公室出于监控吸毒人员、控制毒品泛滥、维护公共安全的需求,启动了具有里程碑意义的人脸识别技术(Facial Recognition Technology,FERET)项目。特征脸(Eigenface)识别方法、“Fisher face”识别方法、弹性图匹配识别技术等都是这一时期出现的具有代表性的人脸识别方法。1996年,艾提克(Atick)等人提出的局部特征人脸识别分析方法(Local Feature Analysis,LFA)具有较高的描述和判别能力,在此方法上开发了著名的FaceIt人脸识别商用系统。[3]21998年,英国伦敦的纽汉区安装了Visionics公司的250多套FaceIt系统,它可以自动扫描经过摄像头前的人的脸部,并在罪犯数据库中搜索、比对,发出预警。
第三,大数据时代(1998年~至今):这一时期,人脸识别技术从实验室走到了实用的商业阶段。人脸识别技术开始通过使用由多层神经网络组成的深度学习算法,从大规模数据中自动学习分类信息,准确率获得极大提升,在动态人脸识别、较差环境下、低分辨率等应用场景中人脸识别准确率较低的问题也逐渐得到解决。
美国在2001年遭受9·11袭击之后,国家安全成为美国政府关注的重要问题,生物识别技术被认为是解决公共安全问题的终极手段,人脸识别技术被认为是极为重要的生物识别技术。在9·11事件后的几天,Viisage Technology的首席执行官宣称:“如果部署了我们的人脸识别技术,则可能甄别出恐怖分子。”[4]2014年,美国联邦调查局应用洛克希德·马丁公司花费10亿美元建造的新一代人脸识别技术系统(Next Generation Identification,NGI)来追踪罪犯。
美国心理学家保罗·埃克曼(Paul Ekman)是表情识别的奠基性人物,他确定了人脸43块肌肉可以创造1万个面部特征,其中3000个表情是有意义的,并于1978年建立面部动作编码系统(Facial Action Coding System,FACS)。9·11事件后,美国FBI-CIA联合反恐组与埃克曼合作对特种特工、安保人员等开展相关的面部表情识别培训,用以确定潜伏在大型公共场所人群中的恐怖分子和可能造成公共安全威胁的人员。[5]16
在埃克曼的研究基础上,美国政府资助了自动面部表情识别方面的研究。2009年,匹兹堡大学团队研发的自动面部表情识别系统(Automatic Facial Expression Recognition System,AFERS)在FACS的手动操作基础上实现了自动化。加州大学圣地亚哥分校团队研发的计算机表情识别工具箱(The Computer Expression Recognition Toolbox,CERT),是基于机器学习和计算机视觉方法的全自动面部表情识别系统。该系统能够自动检测视频流中的正脸表情,包括愤怒、厌恶、恐惧、喜悦、悲伤、惊奇和轻蔑,以及头部姿势等30个面部动作单元。这些技术系统后被运用于公共安全监控、驾驶员疲劳自动检测等诸多方面。
二、人脸识别技术的应用及伦理风险
目前人脸识别技术的应用主要分为三大类:(1)身份验证,即人脸识别系统将扫描存入的人脸图像进行特征提取,创建模板,在今后的身份验证中进行匹配验证,属于一对一匹配。比如使用人脸识别的企业考勤功能、手机的面部识别解锁功能,都是典型的人脸识别的身份验证功能应用。(2)身份识别,是一个一对多的匹配过程。在这个过程中,系统需要对不明身份的人进行识别。这个应用功能也是人脸识别技术最开始得以发展的重要原因,主要应用于公共安全领域。执法部门在将采集的照片与现有数据库进行比对时,会使用身份识别系统。如2017年我国四川省九寨沟县公安局推广使用的移动警务终端是典型的人脸识别的身份识别功能应用。该终端具备“采集即录入、录入即比对、比对即发现”的功能,只需现场拍下一张人脸照片,即可与四川省人口信息管理系统和在逃人员、吸毒人员等特殊数据库进行比对,数秒内出结果。(3)状态识别,判断被检测对象的精神状态、注意力等。该应用功能来自于保罗·埃克曼创立的表情识别体系。基于这三类功能应用方向,人脸识别技术目前已经在公共安全、社区和企业管理、金融、交通、教育、移动通信、司法刑侦等领域得到了应用。
人脸识别技术的大规模商业应用遍地开花,而国家和行业对这一新兴技术的监管显得有些滞后。人脸识别技术被应用在很多非必要的场景,滥用现象十分严重。人脸识别技术的伦理风险主要包括隐私泄露、识别错误、安全风险和歧视等四个方面的伦理风险。
(一)隐私泄露
人们每天出现在摄像头下数百次,人脸数据在人们避无可避的情况下就被采集了。通过技术手段,很容易将人脸信息与身份信息关联起来。随之而来,人们行动轨迹、日常工作生活、兴趣爱好等个人隐私信息都会被挖掘出来。人脸识别技术引起的个人隐私泄露风险,以及由此引起的个人自由丧失的风险,可能使人们生活在实时监视的状态之中。本杰明·黑尔(Benjamin Hale)提出了一个未来主义的思想实验[6]149:想象一个社会,这个社会拥有无处不在的人脸识别技术监控系统,以防范人们从事犯罪活动,最终达成一个完美的警务理想。他认为,这种治理方式会侵蚀人们的自由意志,因为人们不去犯罪并不是基于道德的动机,而是因为有人在监视。
2015年,美国巴尔的摩警察局通过人脸识别,结合社交媒体的照片,识别在弗雷迪·格雷逝世的抗议活动中抗议者并进行了逮捕。乔治敦隐私与技术中心的研究表明,美国52个执法机构中,只有俄亥俄州犯罪调查局这一个机构制定了人脸识别技术政策,明确禁止使用该技术跟踪从事受保护的言论自由的个人。[7]2018年,浙江省杭州某中学在课堂中使用人脸识别技术,实时对学生的课堂行为进行统计分析。这套“智慧课堂行为管理系统”针对学生的阅读、举手、书写、起立、听讲、趴桌子等6种行为,结合面部表情是高兴、伤心,还是愤怒、反感,分析学生在课堂上的状态,如果系统分析得出某位学生不专注的结论,会向任课老师发出提醒。后续的课堂人脸识别系统还加入了针对任课教师行为的统计和分析,以保证任课教师授课的敬业程度和教学效果。2021年全国“两会”代表委员对人脸识别技术进课堂提出了批评,人脸识别技术不仅使师生们面临隐私泄露的风险,而且可能促使学生在一个无时不刻的监视环境中出现表演型人格。[8]
(二)识别错误
目前支撑人脸识别技术的深度学习算法,高度依赖数据集,对训练数据集的质量要求较高。我们每天在摄像头下出现数百次,人脸数据很容易就被搜集作为训练数据集或对照数据集。但是深度学习算法模型存在可靠性问题,深度学习模型离开训练使用的场景数据,其实际效果就会降低。[9]28由于训练数据和实际应用数据存在区别,训练出的模型被用于处理未学习过的数据时,准确率就会降低。其次,也存在由于数据流通不畅、数据质量良莠不齐和关键数据集缺失等造成的数据集质量较低的情况,质量较低的数据集是无法训练出一个可靠的算法。再次,人脸识别系统在人脸抓取、分析、识别的过程中存在一些局限性,比如面部遮挡及装饰,或者两张人脸的相似程度较高(双胞胎),容易造成人脸识别的不准确,所以人脸识别技术存在错误识别的风险。
乔治敦隐私与技术中心的研究指出,美国大多数执法机构没有采取任何措施来保证他们的人脸识别系统的识别结果是准确的,尤其是在实时或大型数据库中使用时人脸识别不如指纹识别准确度高。当时只有旧金山和西雅图地区的两家执法机构在将要购买人脸识别系统的时候,才要求对系统的准确性进行测试,并且要求系统满足一定的正确率。美国FBI在其人脸识别系统的隐私影响评估中承认,其系统可能不够正确、可靠。[10]32虽然FBI声称它的系统拥有85%概率可以在相似排序前50名的待定人员照片中找到真正的目标人,但也只有当真正的目标人的图像储存在人脸数据库中时才会成功。如果目标人的图像不在数据库中,系统仍然会产生一个或多个潜在的匹配人选,那么这些不是目标人的匹配人选就极有可能并未犯罪而成为被追捕的犯罪嫌疑人。因为世界上有很多人长相相似,随着数据库中人数的增加,相似面孔出现的概率越大,识别匹配的准确性就会越低。2019年埃塞克斯大学皮特·福西(Pete Fussey)教授的一项研究表明,英国警方使用的人脸识别技术有81%的概率可以将一个普通人识别成通缉犯。[11]58
(三)安全风险
安全风险主要分为数据安全和技术安全两部分。数据安全是全球关注的热点问题,人脸识别的数据安全隐患和漏洞就像是一把“达摩克利斯之剑”。大规模的数据泄露事件频频发生,个人数据泄露条目数以亿计。这些数据泄露事件的原因,主要是黑客攻击、企业内鬼泄露以及数据存储管理疏忽等,其中人脸数据等生物识别数据因具有较高的交易价值而成为黑客攻击的重点对象。
有些人脸识别技术应用的场景,如小区、学校安保等,其网络安全管理受限于成本而不具有很强的防御黑客攻击能力,数据安全风险隐患较大。虽然有一些小区安保的人脸识别系统数据存储在本地,但是缺乏严格的数据安全及管理标准,他人很容易从内部IT人员或保安人员处获得人脸数据。人脸等生物特征无法轻易改变,并且会伴随人的一生,因此这些数据泄露所造成的的危害会是永久的、全社会的。更可怕的是,如果有机构从安全相对松懈的小区门禁系统盜取某个重要目标人物的生物特征数据,那么这个人的行踪会变得非常容易追踪,人身安全和隐私面临巨大的威胁。
技术领域永远存在“道高一尺,魔高一丈”的定律,再安全可靠的技术手段,都有被攻破的可能,人脸识别技术也不例外。技术安全风险是人脸识别技术的重大风险。2019年12月美国人工智能公司Kneron用特制的3D面具,成功欺骗了包括支付宝和微信在内的诸多人脸识别支付系统,完成了购物支付程序。Kneron的首席执行官Albert Liu说:“这表明人脸识别技术并未达到安全标准......走捷径是以牺牲安全为代价的。”[12]
此外,当人脸识别技术全面应用于支付验证、入户验证等场景,犯罪分子通过胁迫他人则更容易采用刷脸获得身份验证。在这个意义上,作为身份验证的人脸识别技术比此前的密码输入验证方式具有更大的风险。
(四)歧视风险
人脸识别技术不是孤立的技术,是受多方面影响的,必然要与其他的数据、算法相关联,难以避免歧视性因素。第一,在训练人脸识别算法时采用了某个特殊群体的数据,虽然这一选择不一定是主观决定的。第二,与人脸识别技术相关联的其他算法中存在偏见。第三,在具体应用中存在偏见,这相对于前两类问题更隐蔽、更难识别,但其造成的危害一样是难以估量的。
人脸识别技术在识别非洲裔美国人方面呈现出显著的歧视问题。2012年由美国联邦调查局参与的一项研究表明,人脸识别技术对非裔美国人、其他少数民族、妇女等人群的识别准确率相较而言都非常低,而人脸表情识别、情绪识别造成的歧视问题更为显著[13]1789。一项研究表明,目前商业应用的大多数人脸表情识别、情绪识别系统都缺乏科学性,因为人们如何通过面部表情表达情绪,不同文化背景的人们有不同的表达方式,即使是同一个人表达情绪都存在很大的差异[14]29。
三、人脸识别技术伦理规制的原则
人脸识别技术在公共安全领域起着重要的作用,但是由于人脸识别技术的滥用和技术可靠性问题引起了个人隐私泄露、识别错误、安全风险和歧视等伦理风险。对人脸识别技术的发展和应用,我们既要保持开放、包容和信心,也要保持理性审慎的态度。因此,需要建立健全人脸识别技术应用标准和伦理规范,对人脸识别技术应用的场景和范围做出合理规定,使人脸识别技术更好地为人们生活服务。面对人脸识别技术的伦理风险,我们从技术伦理的视角出发,基于非力量伦理和面向未来的责任伦理提出人脸识别技术伦理规制的原则。
力量伦理的第一原则是寻求一切能做的事情,无限获得力量。法国哲学家埃吕尔指出“人不再关心应该做什么,而是考虑能做什么。”[15]35追求最大的力量之后,必须不遗余力,最大化地使出全部力量。力量伦理意味着,人的行为准则是“能够即应当”。人脸识别技术的滥用就是遵从技术力量伦理的要求。但是,对人脸识别技术力量的崇拜导致人脸识别技术被滥用到很多非必要的场景,隐私泄露、错误识别、安全和歧视等伦理风险也就相应增大并且危害严重。埃吕尔提出限制技术的非力量伦理方案[16]。非力量伦理主张,人类有能力实现的事情不一定要去做,对人脸识别技术的发展和应用做出限制,使其服务于人的价值诉求。
尤纳斯将责任分为形式责任和实质责任。形式责任,即回溯责任,对行为产生的后果承担责任;实质责任,即前瞻责任,对将要做什么做出选择,是面向未来的责任。尤纳斯“未来的伦理学”主要讨论的是实质责任[17]123。在现代科技时代,掌控技术已成为人类的一种虚妄,人们无法控制和预见技术行为在未来造成的影响,更无法承担技术造成危害的责任。因此,形式责任失效,能够确保人类在未来持续存在的只能是实质责任。正如人脸这一面部特征信息的敏感性和重要性,人们不可能在人脸数据被泄露后换一张脸,对于人脸数据泄露的事后追责就失去了意义,所以对于人脸识别技术的伦理风险防范应着眼于未然。
基于非力量伦理和面向未来的责任伦理,本文提出并阐述如下四个伦理原则,进一步提出防范人脸识别技术伦理风险的规制建议。
(一)最小必要原则
非力量伦理主张,人类有能力的事情不一定要去做,应该平衡技术的风险与收益,在某些场景中人脸识别技术的使用不是必要的,就应当放弃使用。2019年5月14日,美国旧金山监督委员会投票通过《停止秘密监视条例》(Stop Secret Surveillance Ordinance)[18],使旧金山成为美国第一个禁止政府使用人脸识别监视技术的大城市。该《条例》要求对所有监视技术提案实行社区控制、透明和问责制,要求政府部门制定监管监视技术使用的政策,解释购置新监视工具的合理性,最后由旧金山监管委员会决定是否购买使用这些技术。
必须使用人脸识别技术时,要明确人脸识别技术的使用边界。政府在公共安全领域必须应用人脸识别技术时,应该采取风险最小的方案。首先,尽可能通过对生物识别信息进行处理,如提取信息特征、而不直接留存个人面部特征信息的方式进行应用,即使在留存个人面部特征信息的情形中,保存也不得超出实现功能目的所必需的最短时间。2019年3月15日英国发布的《警方使用自动人脸识别技术和监控摄像系统指南》(Guidance:The Police Use of Automated Facial Recognition Technology with Surveillance Camera Systems)[19]就明确了最小必要原则,如在公共场所使用和操作自动人脸识别技术监控摄像系统必须始终用于特定目的,该目的必须是一个合法目的,并且这个目的的达成是迫切且必需的。其次,摄像头的投放数量和投放范围要适当,不同部门的摄像系统应纳入统一管理,避免重复建设,同时不能过度干涉个人的私生活。
企业在收集人脸数据时应遵守最小必要原则,考虑使用人脸识别技术是否必要,必须使用时应做到最小范围收集数据。例如,GDPR第9条规定,在处理使用人脸数据时,生物特征数据属于个人数据的“特殊类别”,除非某些特殊情况外,不得处理该类数据,即遵循“原则禁止,特殊例外”的最小必要原则。同时,人脸识别研发和服务提供商有义务限制人脸识别技术的使用,在对方不能保证技术使用的安全性、合理性的情况下应拒绝提供服务,如微软出现过拒绝向其他机构提供人脸识别技术服务的先例,亚马逊员工也曾联名要求企业决策层停止向警方出售其人脸识别技术服务。
(二)知情同意原则
面向未来的责任伦理强调前瞻性地履行保护个人权益的责任,人脸识别技术的应用应该尊重个人知情同意的权利。在个人充分、明确知晓人脸数据会被如何收集、使用以及人脸识别技术应用后果的情形下,得到信息主体明确的同意,才能够使用人脸识别技术。国内外关于个人信息保护的法律规范对人脸数据等生物识别数据的收集和使用都做出了尊重个人知情同意权利的规定。比如GDPR规定,人脸识别技术商业应用可适用的唯一例外是获得了数据主体的明示同意,即用户清楚、具体且自主地授权企业收集、使用其人脸数据。
个人享有知情同意的权利,在此权利基础上,人们在被要求“刷脸”时有拒绝的权利。而且,人们在拒绝“刷脸”的时候,机构应提供其他方式满足人们验证通过的需求。此外,企业的业务范围可能发生改变,那么用户人脸数据收集时的使用目的是否和目前一致,应采取内部审查机制,并与用户和社会同步更新,获得新的同意。
(三)不伤害原则
责任伦理不仅要求当下的责任,也要求未来的责任,人脸识别技术当下和未来都不能对人造成伤害。人脸识别技术的错误识别、隐私、安全风险,都可能对个人造成巨大的伤害。
为了遵守和践行不伤害原则,避免人脸识别技术可能造成的伤害。首先,政府牵头、企业积极参与制定人脸识别技术的技术标准,为技术研发提供可靠性基础;其次,建立完善人脸识别技术的数据安全保障机制,政府和企业应当采取网络安全措施,采取数据加密、病毒防护、访问控制、员工培训等补充措施,保障人脸识别技术系统和数据的安全;再次,企业应当建立技术可靠性保障制度,采取措施来确保人脸识别技术系统的结果准确性、稳定性,识别和消除歧视、错误识别等问题;最后,研发和使用人脸识别技术的企业或机构应当建立问责制,提升相关人员的安全意识和职业道德意识,建立关于人脸识别技术的审计和惩罚机制。
(四)公正原则
针对人脸识别技术可能造成的歧视风险,应该从训练数据集、算法的设计、检测审查等多个环节着手,贯彻公正原则,避免对部分人群、社区的歧视。英国《警方使用自动人脸识别技术和监控摄像系统指南》提出的第二条伦理原则明确规定监控摄像系统系统应该用于促进公正。
为了确保公正,应推动建立人脸识别技术的第三方评估审查体系。人脸识别技术具有一定的技术门槛,需要专业人员和机构对技术进行评估审查。有效的审查机制,可以发现、改善人脸识别技术的错误识别、偏见等问题,同时也能避免误用和滥用,促进人脸识别技术系统的安全、稳定性,帮助人脸识别技术系统获得公众的信任。
人脸识别技术价值初衷是为了安全,并且为社会生活提供了诸多便利,然而,技术一旦被滥用就会对人和社会造成一系列的伦理风险和问题。技术的发展和应用应始终以人的福祉为核心,人的价值更不应让步于技术的发展和应用。人脸数据极其敏感,在现实版“楚门的世界”尚未真正到来之前,应当遵从技术的非力量伦理和责任伦理,对人脸识别技术的发展和应用进行相应的伦理规制,发扬技术的善,规避技术的恶,最终实现人与技术的自由关系。