APP下载

人脸识别的应用困境与治理路径

2021-04-09郭锐卞哲

可持续发展经济导刊 2021年3期
关键词:公共行政人脸识别伦理

郭锐 卞哲

人脸识别技术是基于人的面部特征信息进行身份识别的一种生物识别技术。近年来,人脸识别技术在经济文化发展、国家安防管理及社会公共利益等方面有诸多用途,如寻找走失儿童、追踪罪犯、更方便地接入智能手机和取款机、帮助机器人通过识别身份和情感与人类互动,还可以在一些医学研究中协助诊断或远程跟进患者的治疗情况。

然而,一项可以在人们不知情的情况下远程识别并区别对待的技术,存在非常危险的可能性。麻省理工学院(MIT)算法决策研究者切尔西·巴拉巴斯(Chelsea Barabas)指出,“人工智能领域的痛苦在于,它没有看到自己的工作如何与科学的悠久历史相吻合,科学被用来将针对边缘人群的暴力合法化,并把人们分层和分离。” 1社会需要一个真正觉醒的时刻,让我们更清楚、更敏锐地意识到人脸识别技术的问题。

人脸识别的困境:隐私与公平性

除了目前在准确率、稳健性、安全性等技术本身的局限,人脸识别的主要困境存在于隐私与公平性两个层面。人脸信息与传统的隐私不同,它既涉及有关人格权、肖像权的私法问题,也因公共行政的广泛使用而应在公法上予以审慎对待。在公平性问题中,一方面是个人的平等保护,另一方面是公共秩序的需求。然而,追求平衡也许是一个误区——解决人脸识别带来的问题,并不能求助于个案中私益与公益的平衡,而应致力于合理而明确的规制。单纯的利益平衡会使人脸识别的问题陷入伦理相对主义的泥沼。2

人脸识别带来的公平性的困境,源于数据与算法。3在看似中立的人脸识别算法中,或者因算法设计者的偏见,或者训练算法时使用了有问题的数据集,会使人脸识别出现歧视性结果。麻省理工学院同行评审研究发现,与其他类似软件相比,Rekognition系统识别女性和黑人的正确率很低,据《纽约时报》报道,该软件将女性误认为男性的比例高达19%;如果纳入肤色进行统计,则有31%的黑人女性被标记为男性。4该种差错往往导致歧视的结果,这也是为什么在乔治·弗洛伊德之死引起的全美抗议中,示威者的诉求中便包括要求警方放弃人脸识别技术。5

此外,算法歧视还可能提高社会偏见和刻板印象的风险。人脸识别在认证面部信息的同时,也在后台认证基于人脸识别和多种个人数据形成的用户画像。因此,它并非为了在证明个体基础身份上实现“去身份化”,而是进一步丰富细化个人的数字身份,因而可能加剧“身份”对个体的不良影响。6

人脸识别治理路径的探索

鉴于人脸识别出现的问题,世界范围内多国纷纷寻求人脸识别的治理路径。在欧洲,欧盟监管机构的工作重点是,针对人脸识别技术创建一个适用于行政和商业领域的统一监管框架,欧盟的成员国则提供补充或具体国家的指导。欧盟于2020年12月15日提出《数字服务法》(Digital Service Act, DSA)与《数字市场法》(Digital Market Act, DMA)草案,均涉及到个人信息与隐私保护的问题,意图通过强而有力的监管架构,形成兼顾人权保障与公平竞争的数字环境。《数字服务法》还指出欧委会需要对算法、人工智能和数据管理系统分析有关的外部研究。7相比之下,美国针对人脸识别技术区分了公共行政与商业领域的使用行为,商业领域对人脸识别的应用已经受到生物特征数据隐私立法和司法先例的约束,地方和州一级的立法者则针对政府发布了人脸识别应用的指南。

欧美在人脸识别技术监管方面的探索包括:第一,明确了迫在眉睫的问题,如该技术可能侵犯到个人隐私、造成潜在的偏见和不准确的结果;第二,起草或制定了相应的法律规范,着重强调公共利益和个人权利的对抗与制衡,以及确保适当的监管。欧洲与美国对人脸识别的治理思路也存在不少差异:欧洲在包括人脸识别问题在内的数据权益保护范畴中,强调“以人为中心的方法”,立足于私人领域与公共领域的紧密关系,形成了公私领域统一的管理框架;而美国则突出对公民自由及公民权利的保障,区分了公共行政使用行为与商业使用行为,分别对二者进行管控。

人脸识别问题的伦理反思与应对

从伦理角度考察,人工智能技术最深层的问题是“创造秩序危机”。“创造秩序危机”,简而言之,是人所创造的技术对人的反噬。8无论是人们憧憬的超级人工智能、通用人工智能,还是现在广泛应用的专用人工智能,技术对人反噬的可能性都显而易见。对今天的人类社会而言,有两个难以解决的问题让我们遭遇这一危机。一是终极准则难题:人类社会缺乏解决诸多问题的共识,导致人工智能没有已知的道德准则来指引其决策;二是因果关系难题:人工智能缺乏对决策后果之伦理意义的认知,对决策结果的伦理判断能力不足,因而在其决策与其他社会影响之间难以建立因果联系。9“创造秩序危机”这一概念,能够帮助我们理解人对人工智能技术中固化的价值进行校准的必要性,以及这种校准本身的局限。在中国人工智能伦理的标准化工作中,总体组提出“人的根本利益原则”和“责任原则”两大原则,是对上述两个难题的直接应对。10

在人脸识别技术的应用中,可以通过引入“人的根本利益原则”和“责任原则”来思考法律规制的路径。考虑到人脸识别在我国的应用远比欧盟和美国广泛,我国更应全面地思考人脸识别问题的立法和规制。在“人的根本利益原则”和“责任原则”的指引下,可以通过一种“融合式设计”(inclusive design)进行人脸识别的立法与规制,侧重关注社会的长远利益和弱势群体的平等权利。在立法中,“融合式设计”意味着确立合法性、正当性和必要性三大基本原则。

针对公共行政领域的人脸识别,应当遵守合法性原则。合法性原则要求公共行政部门对人脸识别技术的应用必须有法律明确授权;同时,在涉及个人权利时,行政机关的决定还要遵守比例原则。需要指出的是,人脸识别语境下的合法性原则不同于最小伤害原则。这不仅仅是由于在现实中人脸识别技术的最小化伤害无法量化与实现,更重要的原因在于价值平衡的进路并不适用于此。我们不能寄希望于在具体的执法与司法环节中,通过权衡公益和私益间的最小伤害来对人脸识别技术的使用行为进行规制,而应设定明确的法律授权标准,禁止发生在法律授权以外的使用行为,保证公共行政中應用人脸识别技术的“零伤害”。

正当性原则与必要性原则主要适用于商业使用的情境。正当性原则意味着,在没有法律禁止的情况下,商业组织和社会机构使用人脸识别技术必须正当,这是人工智能伦理原则中责任原则的展现。11商业机构在开发和应用人脸识别技术时,应当建立明确的责任体系:数据处理者须具备风险评估、合规处理、安全存储、运行监督以及应对发生数据泄露、非法使用等事故的能力,具体表现为拥有数据处理的风险评估报告、相应政策性处理指南以及具备相应的监督机制。而就必要性原则而言,其内涵主要包括两方面内容:其一,符合目的必要性,即使用人脸识别必须是提供产品或服务所必需;其二,符合手段必要性,即没有更安全、便捷、易接受的其他方式来实现提供产品或服务的目的。

具体而言,在人脸识别技术收集数据的阶段,应以“知情-同意”为前提,同时保障个人的拒绝权和删除权。“知情-同意”应作为部署人脸识别技术的必备前提。在公共行政使用中,这一前提意味着于公共场所安装的摄像头应满足透明度的要求,例如在显著位置标识部署设备的政府机构名称以及数据负责机构名称。当然,在商业使用中,“知情-同意”本身不能违反合法性、正当性和必要性原则,亦不能成为收集方或使用方规避责任的手段。此外,保障个人的拒绝权和删除权,在公共行政使用和商业语境中均需有相应的具体规定。

再者,在面部信息被人脸识别系统收集直至使用的阶段,一是应满足目的限制和公平性保障。公共部门或商业主体对面部信息的收集与使用行为是否正当,关键取决于该行为所追求的目的是否正当,即符合公共利益或数据主体私益的要求。公平性保障要求保证技术应用的非歧视性,避免因识别人脸带来的种族、性别、身份等方面的歧视性做法。二是应具备理性关联,即实施行为与行为目的之间应当具有相对紧密的关联性。如果收集、使用及处理面部信息的行为并不能达到设想的目的,则该行为是不能被评价为合理的。在公共行政中使用人脸识别技术,应充分论证使用行为的必要性,包括召开听证会和重大项目的合法性评估,以及对特殊需要人群提供替代方案;在商业语境和社会机构使用人脸识别技术,应提供替代方案,以防产生歧视性后果。

1 Richard Van Noorden: The Ethical Questions that Haunt Facial Recognition Research, Nature, Vol 587, 19 November 2020.

2郭锐:《人工智能的伦理和治理》,8-12页,法律出版社,2020年8月。

3人工智能领域的算法风险主要包括算法安全问题、算法可解释性问题、算法歧视问题以及算法决策困境问题。而在人脸识别中,其风险集中体现在涉及隐私的算法安全问题和算法歧视问题。参见郭锐:《人工智能的伦理与治理》,载《人工智能》2019年第1期。

4 Maya shwayder, Police facial recognition tech could misidentify people at protests, experts say (Jun. 8, 2020), https://www.jinse.com/news/blockchain/711734.html.

5参见《亚马逊宣布:禁止美国警方使用其人脸识别服务一年》,2020年6月11日,https://xw.qq.com/cmsid/TEC2020061100137300,最后访问时间:2021年3月12日。

6人工智能技术之所以饱受青睐,原因之一便在于算法能针对具体问题给出针对性解决方案。但从技术上讲,任何效率的提升必然涉及对公民的分类,而分类直接或者间接地关乎公民的基本权利。参见郭锐:《人工智能的伦理与治理》第六章,法律出版社,2020.

7 EUROPEAN COMMISSION: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on contestable and fair markets in the digital sector (Digital Markets Act), Brussels, 15.12.2020, COM(2020) 842 final, 2020/0374 (COD).

EUROPEAN COMMISSION: Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a Single Market For Digital Services (Digital Services Act) and amending Directive, 2000/31/EC, Brussels, 15.12.2020, COM(2020) 825 final, 2020/0361 (COD).

8 关于“创造秩序危机”,见《人工智能的伦理和治理》引论部分。郭锐:《人工智能的伦理和治理》,12-20页,法律出版社,2020年8月。

9 研究者指出,机器对人类伦理规范的学习涉及到自治(autonomy)、社群(community)、身份(identity)、价值(value)及移情(empathy)等多个层面的系统学习,MCBRIDE N. The Ethics of Driverless Cars. ACM SIGCAS Computers and Society,2016, 45(3):179–184,转引自白惠仁:《自动驾驶汽车的伦理、法律与社会问题研究述评》,载《科学与社会》,第8卷第1期2018年。

10这两个原则,见《人工智能标准化白皮书》(2018版)。

11 参见郭锐:《人工智能的伦理与治理》,載《人工智能》2019年第1期。

猜你喜欢

公共行政人脸识别伦理
人脸识别的“国标”来了
中科视拓开放商业版本人脸识别算法
浅谈我国社会工作伦理风险管理机制的构建
基于管理、政治和法律视角对公共行政学之分析
荣耀畅玩7C:人脸识别
公共行政法治化的逻辑理路及制度模式探索
亲组织非伦理行为研究
亲组织非伦理行为研究
“人脸识别”人工智能测谎仪研发成功
非伦理领导对员工职场非伦理行为的作用机制研究