论地铁人脸识别安检的应用价值与风险防控
2020-02-25孙梦
孙 梦
(中国人民公安大学,北京100038)
2019年11月北京地铁阜成门站试行人脸识别安检新模式,通过人脸识别实现白名单成员快速安检进站。在此之前,国内已有十多个城市在地铁试行人脸识别监控或支付。人脸识别,简而言之,是基于人物的脸部特征进行身份识别的技术。国内人脸识别技术最早应用于公安系统,随着其核心技术的成熟,人脸识别技术在保障公共安全、加强金融认证、建设智慧城市等方面起到降本增效的作用。尤其是在无感测温、人员筛查与轨迹分析、高危人员管控等方面尽显人脸识别技术的优越性。当新兴技术的触角深入社会生活,再美好的设计初衷都有可能延展出意料之外的后果。倘若过度限制技术的研发和应用,必然会错失发展机会。鉴于此,在人脸识别技术大范围应用于地铁安检等公共安全领域之前,有必要建立和完善风险防控体系,保持一定的技术审慎。
一、地铁人脸识别安检的应用价值
2008年以来我国地铁逐渐实行人物同检式的全面安检,尽管规避了相当一部分风险,但高额的安检成本、客流高峰期的聚集拥堵、安检标准的多重化与区别对待、安检员的非专业性等问题一直被人诟病。部分国家以电子监控识别和巡逻警力为主的安防系统在实践中也不尽如人意。[1]德国反恐学者哈尔特曼认为,部分国家的地铁等于没有安检。[2]所以,在安全与效率之间寻求平衡的关键在于技术创新。人脸识别技术的兴起则为地铁安检模式的转变提供了新思路。尽管该技术的应用可能产生多重风险,但其现实价值不可否认。
(一)人脸识别技术有望提高地铁的安防能力
人工安检流于形式、非封闭空间中的布防盲区、视频监控系统的非智能化、封闭空间中的人员疏散限制等“短板”使地铁的抗风险能力较弱,一旦发生突发事件,可能会造成重大人员伤亡和财产损失。据统计,2000年至2010年全球近三分之一的袭击事件目标是地铁,由此造成的人员伤亡占全部伤亡人数的二分之一。[3]
虽然我国并未发生重大地铁安全事件,但2005年福州公交车自杀性爆炸案发生以来,银川、抚州、杭州、贵阳等地发生的针对公共交通工具的爆炸、纵火案件足以敲响警钟。而且从世界各国发生的危害轨道交通安全的实例来看,犯罪分子更青睐于人员密集、公众关注度高的场所。[4]地铁面临的袭击和个人极端暴力的威胁日益凸显。
2014年7月16日,公安部召开全国公安机关紧急视频会议,鼓励推广安装安防新技术、新产品,以加强地铁公交安全保卫工作。人脸识别技术的不断成熟为地铁安检模式的转变提供了新的思路。人脸识别技术结合视频监控系统,只需采集图像或者影像,再与公安机关、精神病院、监狱、社区等机构建立的重点人员数据库比对,即可完成身份的识别,继而对嫌疑人进行实时的监控和限制。目前这种安检模式已应用于大型活动安保、车站安检中,并取得良好的社会效果。例如,2017年5月沈阳地铁站的人脸识别系统识别出2名通缉犯;2017年8月青岛警方将人脸识别系统应用于啤酒节安保,成功抓获49名涉案人员。
(二)人脸识别技术有望提高地铁的安检效率
随着地铁线路网络化发展,全国地铁客流量与日俱增。2018年全国地铁总客运量为249.9亿乘次,较2017年增长13.28%。北京、深圳等大城市的线网运营日客流千万已成为常态,例如北京地铁2018年的客运量已达39亿乘次,日客运量达1054.4万乘次,其中仅西直门站日客运量即可达41.52万乘次。[5]如此一来,我国地铁交通承担着巨大的客流压力。不仅如此,大客流下的“人物同检”还产生三种负面影响:一是通行滞缓大大延长乘客的出行时间,引发乘客反感;二是安检员产生倦怠感,出现降低安检标准甚至不安检的现象;三是乘客聚集拥堵极易发生踩踏等安全事故。
2018年发布的《国务院办公厅关于保障城市轨道交通安全运行的意见》和《城市轨道交通运营管理规定》均鼓励城市轨道交通应用新技术、新产品,逐步建立与客流特点相适应的安检新模式。在国家政策鼓励与现实需求下,国内已有地铁站试行人脸识别技术,以实现快速安检。目前国内地铁应用人脸识别技术实现快速安检的模式有两种。首先是最早的2018年10月广州地铁站试行的安检模式。新型安检模式采用AI识别危险品、光波安检通道、人脸识别进站。该安检通道启动后,无需安检人员值守即可大幅度提高人和物安检的质量和速度。其次是2019年11月北京地铁阜成门站试行的人脸识别安检模式。北京地铁建立“白名单”,并依托人脸识别技术实现白名单成员快速安检进站。这两种新型安检模式均可实现乘客快速进站。虽然这两种新型安检模式仍处于试验过程中,尚未有权威数据证明其实施成效,但从人脸识别技术在机场安检中的运用成效来看,人脸识别技术有望缓解地铁大客流下“人物同检”产生的负面影响。截至2018年6月30日,中科院弘光专项项目“机场安检智能识别系统”(即人脸识别辅助验证系统)已累计示范应用于国内65家机场。该项目阶段评估报告指出,该系统的运用使旅客安检平均时间从30秒降低到2秒,显著提高了机场安检的通行效率。[6]相比于严格的机场安检,人脸识别技术或许更能显著提高地铁的安检效率。
(三)人脸识别技术有望提高地铁的应急处理能力
体温检测、登记基本信息是不少地铁站一种重要的防护手段。但接触式体温检测的缺陷在于:增加交叉感染的风险、引发社会矛盾、降低人员通行效率、消耗大量人力财力。在此背景下,AI测温技术得益于自身优势被迅速采用。一些科技公司将人脸识别技术与红外测温技术结合,可快速识别人员面部信息并做测温登记,筛查异常体温者,并从茫茫人海中快速、准确锁定未按规定执行者,同时提供后台记录。这种非接触式的测温系统已在长沙、南京、广州、北京等诸多地铁站完成部署,确保各城市地铁的正常运行。
人脸识别技术除了与红外测温技术结合外,其自身的身份识别与追踪功能能够对已知高危人员进行查找和轨迹分析,地铁还可应用人脸识别参与处理儿童走失、违法犯罪等突发事件。目前已经有公安机关和景区应用人脸识别技术找到走失儿童的成功案例。[7]由此不难看出人脸识别技术的发展潜力。
二、地铁人脸识别安检的应用风险
2019年,美国旧金山市、马萨诸塞州、奥克兰市相继出台法令,禁止政府与警方使用人脸识别技术。欧盟于今年2月19日发布的《人工智能白皮书》显示,欧盟计划在三到五年内禁止在公共场所使用人脸识别技术。毫无疑问,欧盟和美国犹疑的背后是对人脸识别技术风险的考量。在我国,地铁安检应用人脸识别技术的讨论仍在继续,同样是公众对人脸识别技术风险的担忧。
(一)地铁人脸识别安检的隐私风险
目前国内地铁试行的人脸识别安检模式均要求乘客通过手机APP提供包括面部图像在内的个人信息,但目前APP“越界收集用户信息”现象较为普遍。2018年中消协选取10类共100款APP进行综合测评,其中91款涉嫌过度收集用户信息,47款的隐私政策缺失或设计不合理。2019年南都个人信息保护研究中心也选取了100款APP进行测评,结果显示84款APP涉嫌超范围收集用户信息。这种APP的“越界”行为实质上是对用户隐私的侵犯。
此外,由于软硬件缺陷、信息安全管理存在薄弱环节、网络生态环境有待提高等多种因素,全球网络安全与信息安全事件也层出不穷。360智库对2019年第一季度发生在世界各地的50起大规模数据泄露事件进行了梳理和总结分析,其中公共服务机构由于掌握大量居民的信息,成为数据窃取的主要目标,同时也是泄露数据的第二大来源。地铁安检不同于一般的人脸门禁、人脸考勤打卡,目前我国地铁全年客运量达百亿乘次,人脸识别技术的应用必然会大规模、长时间地收集个人信息。如此一来,海量储存的个人信息就可能面临被泄露、滥用、篡改等风险。
(二)地铁人脸识别安检的安全风险
隐私风险不仅是个人信息被泄露、滥用、篡改那么简单。通过“撞库”,[8]不法分子能利用有限的个人信息追踪到家庭关系、医疗记录、日常行踪、交易记录、财产等一切关联信息。
首先,信息泄露可能威胁个人安全。2014年7月至2016年6月,我国网民因个人信息泄露、网络诈骗等遭受的经济损失约1720亿元。[9]还有不法分子利用掌握的人脸图像,通过“AI换脸”等方式恶意拼接制作侮辱性、污蔑性视图素材以及涉嫌色情淫秽视频,侵犯公民的肖像权与名誉权。此外,日常行踪信息的泄露对个人的人身安全也构成一定程度的威胁。
其次,信息泄露可能威胁企业安全。在信息数据资产逐渐成为企业核心资产的时代,企业的安危与信息数据安全息息相关。比如2017年美国征信公司Equifax因遭受黑客攻击导致约1.45亿用户信息被泄露。受此消息影响,该公司的市值仅在一个月内就蒸发35亿多美元。在经过近两年的诉讼后,Equifax以约6.5亿美元的罚款与美国的监管机构达成和解。
最后,信息泄露可能威胁国家安全。公民信息不仅关乎个人安全和企业安全,甚至已经上升到国家安全的高度。因为在一定条件下,特定目标的个人信息可能被敌对势力所利用,有针对性地开展破环活动。
(三)地铁人脸识别安检的伦理风险
伴随着人工智能(AI)的成熟与传播,AI不仅仅是人类思考的“辅助”,有时候还能“替代”人类进行思考与决策。随着替代作用的升级,人工智能面临的伦理危机越发不容忽视。
人脸识别的核心技术是算法,但算法复杂晦涩的“黑箱”特性增加了“不确定性决策”的风险。比如在人脸识别错误率上,女性高于男性,深肤色高于浅肤色。这种不确定既可能源于算法图像训练,在公共安全领域,还可能意味着嫌疑人的漏网,而无辜的人被跟踪、调查,被逮捕,甚至遭受致命攻击。
除此之外,人脸识别技术的应用还可能扼杀人们在公共场所行使自由权利的意愿。[10]人脸识别技术本身并不会阻碍公众表达自己的意志,但该技术应用于地铁等公共场所,在个人身份完全可由数据追踪后,尽管是守法公民也会产生受制于身份识别的心理恐惧,从而不自觉地限制自己的行为。[11]为公共安全和公共效率限制个人自由是必要的,但这种限制边界何在?
三、地铁人脸识别安检的风险成因分析
公众对地铁安检应用人脸识别技术的应用愈发敏感,而消除公众担忧的关键在于使技术应用处于风险可控状态。为此,技术风险的影响因子是我们需要重点解析的对象。
(一)人脸识别标准体系建设不完善
无论是人脸识别技术还是整个人工智能产业,制定科学、统一的标准都是推动产业发展、避免行业乱象的关键环节。目前人脸识别标准体系建设正如火如荼地展开,但人脸识别作为一项新兴技术发展之快,已然走在相关标准的前列。
1.人脸识别技术标准不完善
制定人脸识别技术标准是为净化当前鱼龙混杂的人脸识别市场,确保只有安全性和识别准确率高、合法规范的人脸识别产品运用于类似地铁安检等公共安全领域,降低安全风险和公众的担忧。在国内,人脸识别技术标准已有所体现。比如《出入口控制人脸识别系统技术要求》《人脸识别设备通用规范》《公共安全人脸识别应用图像技术要求》《信息安全技术远程人脸识别系统技术要求》等等。
以上技术标准可支撑人脸识别产品的设计、开发、测试和验收,但仍存在不足之处。一方面,标准对人脸识别系统的性能要求较低。比如在国际权威人脸识别数据库LFW上,人脸识别准确率已高达99.80%。《出入口控制人脸识别系统技术要求》规定识别准确率不得低于85%。2018年北京地铁西直门站日客运量已达41.52万乘次,倘如以此为基数,15%的误差率所造成的安全隐患不容小觑。再如《人脸识别设备通用规范》要求在进行设备的性能测试时,被测试的人数不得少于100人,测试总人次不得少于500次,且被测试者在整个测试过程中要行为自然。相比于复杂多变的现实场景,《人脸识别设备通用规范》提出的测试要求显然过低。另一方面,标准对人脸识别系统的测试指标设置不全面。国内质检部门和需求企业在进行人脸识别产品检测和采购时,主要参考国家标准及行业标准提出的技术要求,但标准所规定的测试内容仍然停留在功能测试和信息安全测试,无法进行权威的算法系统性能测试。[12]
在利益诱惑和技术标准不完善的背景下,诸多科技公司进军人脸识别市场,聚焦于扩大业务规模,有意无意地忽视硬件质量、算法、安全防护等基础问题,致使人脸识别市场良莠不齐。因此,地铁安检应用的人脸识别产品可能从源头上就存在缺陷。
2.人脸识别应用标准不全面
无论是人脸识别产业还是整个人工智能领域,首先要明确技术的应用主体和应用领域,这是避免技术风险的关键举措。由于我国并未对技术的应用主体和应用场景加以限制,人脸识别技术得以在诸多领域频频落地。但随着公众权利意识的增强,越来越多的社会主体质疑政府、社会机构和企业应用人脸识别技术的主体资格。从“人脸识别进校园”到“国内人脸识别第一案”[13]再到“地铁人脸识别安检”,开始引发公众的热议。
此外,在技术应用的整个过程中,个人信息保护是重中之重。关于个人信息保护,我国有专门的规范性文件。2019年4月发布的《互联网个人信息安全保护指南》(下文称《指南》)对个人信息安全保护的管理机制、安全技术措施和业务流程进行了详细的规定。2020年3月发布的《信息安全技术个人信息安全规范》(下文称《规范》)是目前我国对个人信息处理活动规范最详细、最全面的国家标准。但《指南》和《规范》均不具备法律强制力,仅为相关组织和个人在个人信息保护工作中提供参考。而且二者在内容上存在不足,例如对个人信息的范围界定与分类较宽泛,[14]信息处理流程缺乏对信息共享时第三方的资质要求等等。在此背景下,一旦企业缺乏自律,信息安全事件随时可能发生。考虑到人脸识别技术对未来社会的深远影响,制定和完善相关标准体系需要尽快提上日程,以规避未来发展可能产生的风险。
(二)技术应用的行政监管机制不健全
目前广州地铁和北京地铁试行的人脸识别安检模式均要求乘客通过手机APP(移动互联网应用程序)提供包括面部图像在内的个人信息。根据现有的法律法规,对地铁运营企业通过手机APP采集乘客个人信息的行为有监管权的机构包括以下五个:
从当前监管机构的设置、法律规定和实践来看,在地铁安检领域,我国个人信息保护的行政监管机制存在漏洞,具体表现在:
1.行政监管的法律依据尚需细化
行政监管源于法律授权,但各法律、规章因缺乏统一的指导纲领难以形成有机的联系。根据现有的法律文件,工信部有权对地铁运营企业收集乘客个人信息的行为进行监管,但缺乏监管权的具体落实划分;《移动互联网应用程序信息服务管理规定》明确了网信办作为监管机构的合法地位,但并未明确涉及“监管范围和监管方式”的内容;《城市轨道交通运营管理规定》明确了城市轨道交通运营主管部门作为监管机构的合法地位,但有关“乘客个人信息保护”的规定只有寥寥数语。在此背景下,多元监管主体的介入极易引发权限争议。各监管机构在个人信息保护方面属于共同监管关系还是分段监管关系?一方面,共同监管可能导致权限重叠,不仅浪费监管资源,而且给监管对象带来巨大压力;另一方面,分段监管可能导致权限衔接不畅,从而产生监管盲区。在权限划分不清晰的情况下,消极执法、责任追究不到位等问题便应运而生。
2.行政监管主体欠缺独立性和专业性
“独立性”包括监管机构与其他行政部门(尤其是宏观政策制定部门)适度分离;[15]监管机构独立于监管对象和利益集团。从这两个方面进行分析,可以发现某些监管机构欠缺独立性,具体表现为:第一,网信办和工信部同时承担着政策制定和行政监管两种职能,这可能使二者在制定政策时有偏向。第二,地铁运营企业属于国有独资大型企业,具有一定的社会地位和经济影响力。现有的监管机构属于政府内设机构,如果受到政府权力和财政经费的牵绊,可能会对监管机构的政策制定和执行造成不同程度的干涉。
“专业性”是指专业的风险监测和风险评估能力。行政监管的目的是规避风险,这就要求监管机构具备一定的风险监测与评估能力。但除了工信主管部门、网信主管部门和公安机关,市场监督管理部门和城市轨道交通运营主管部门均欠缺专业性的信息安全风险监测和评估能力。监管机构无法做到风险的事前预防与事中监管,单从事后处罚的角度无法起到有效的风险防范作用。
3.行政监管过程不连贯
现有的行政法规对行政处罚外的其他监管方式的规定较少。加之监管主体的风险监测和评估能力不足以及各主体间权责划分不清晰,导致监管主体在实际执法中过分依赖事后制裁,对事前预防和事中监督“心有余而力不足”。
值得注意的是,行政监管的一个关键环节是公众监督。监管机构能力有限,不能做到面面俱到。公众监督不仅能够帮助监管机构及时发现问题,而且信息公开化、透明化更能增加公众对政府的信任感。目前我国有关个人信息保护的监管机制在信息公开、公众监督的环节尚需完善。比如“腾讯QQ群数据泄露事件”“国内面部识别公司Sense Nets数据泄露事件”被媒体曝光后才进入公众视野,之后监管主体是如何介入调查的、采取何种处罚和救济措施,缺乏相应的公开措施。
(三)技术应用网络生态环境有待提高
网络攻击、技术破译教程、信息非法交易、暗网论坛等对网络环境影响很大。一些暗网论坛上,只需50美元即可获得一套网络攻击软件和教程。据国家互联网应急中心统计,2015年和2016年两年我国分别遭受了超过1700万次网络攻击,仅2017年前10个月我国就已遭受1750万余次网络攻击。据腾讯安全平台部黑产情报团队分析调查,2015年国内有38万余人通过网络攻击获取用户信息再进行售卖、诈骗、勒索等非法行为牟取暴利。2017年,产业链上下游相关的从业者更是多达到150万之多,造成行业直接损失达1000亿元人民币。
不良的网络生态环境与“反人脸识别黑色产业”的兴起密不可分。所谓“反人脸识别黑色产业”,是指一些不法分子利用掌握的“反人脸识别技术”帮助无法完成账号实名认证的人群完成实名认证,并从中获取利益。首先,反人脸识别技术正在全球范围内兴起。美国卡耐基梅隆大学、加拿大多伦多大学、俄罗斯Yandex科技公司、以色列D-ID公司已设计出一种新算法,以干扰人脸识别技术。其次,在反人脸识别技术兴起后,一些不法分子开始通过QQ群、微信群、网络论坛等平台出售(购买)反人脸识别服务以牟取经济利益或者达到其他非法目的。某些网站还存在针对特定设备的“反人脸识别”技术解答,甚至有免费的“反人脸识别软件”代码链接,供人随意下载。人脸识别技术本就存在缺陷,而网络生态环境的恶化更是在一定程度上阻碍了该技术的应用。
四、地铁人脸识别安检风险的合理防范路径
根据前瞻产业研究院发布的《2018-2023年中国人脸识别行业市场前瞻与投资战略规划分析报告》,中国人脸识别行业市场规模在2018年可达300-400亿元,2025年将达到千亿元。人脸识别技术的发展大势不可逆转,但如何趋利避害,在用好人脸识别技术的同时防范风险的发生值得深思。
(一)完善人脸识别相关法律法规
凡是对人类社会有重大影响的技术都需要法律作出回应,需要法律发挥预判和指引作用,在便捷与安全之间建立科学合理的平衡机制。比如,我国对网约车的态度,由最初的否定到承认其合法地位,同时各部委制定相关管理办法和指导意见进行规制。新兴的人脸识别技术同样需要法律的规制和引导才能最大化地发挥作用。
1.制定个人信息保护基本法,做好技术规制的顶层设计
我国有关个人信息的法律条文比较分散,内容较少、效力较低,并且个人信息保护法、数据安全法仍处于立法规划中。为解决分散立法出现法规重复、冲突、缺失等问题,同时也为相配套法律、法规的制定提供参考依据,我国亟需加快制定个人信息保护基本法。在全球化时代,信息数据的跨境流动愈发频繁,为促进国际贸易与合作,各国间相关法律规范的差异不宜过大。为此,在个人信息保护基本法的制定上,我国可以参考国外的立法经验。
美国最初强调的是个人信息的利用自由与事后救济,但近几年来美国与欧盟和日本都采取较为严格监管来实现风险预防。参考国际立法经验,再结合个人信息保护的行政监管现状,我国个人信息保护基本法应至少包括以下个方面的内容:个人信息的分类与范畴、信息主体的权利、个人信息收集和处理的原则和方式、个人信息跨境流动机制、个人信息权利的投诉和救济机制、行政监管机构及其权责内容、法律责任。除此之外,法律还应当规定信息数据控制者的权利。比如对合法取得的数据享有财产权保护。以此为例,出于对自身权利和经济利益的保护,信息数据控制者也必然会积极加强对信息数据的安全投入。
以个人信息保护基本法为依据,未来还需要制定一系列相配套的法律、法规,以供不同领域的实践需求。如果某一方面的环境改变,相关立法机构还需要注重法律法规的及时更新,保证公众的信任。
2.完善人脸识别标准体系,为技术研发、市场准入和实际应用提供详细指引
完善的法律是个人信息安全的有力保障,细致全面的标准是监管的重要依据。人脸识别标准应当源于产业需求,并反哺于产业发展。[16]为此,政府应当与人脸识别领军企业合作,紧密结合人脸识别产业发展需求,从技术、安全、伦理等角度制定针对不同应用场景的分级别、多层次国家标准及行业标准。2019年11月我国人脸识别技术国家标准工作组正式成立,工作组成员包括商汤科技、云从科技、腾讯等优质企业,具备从技术研究、产品开发,到运维保障等全链条的丰富经验。[17]据此,我国有望建立完善的人脸识别标准体系,助推人脸识别产业发展。
(二)健全人脸识别行政监管机制
行政监管既是对法律的落实,也是对法律规制的补全。在完善立法的同时,也要健全行政监管机制,及时发现并规避人脸识别产品的缺陷、技术应用过程中的违法违规行为和网络空间安全隐患。
1.设置独立的个人信息保护监管机构
我国个人信息保护采取的是分散监管模式,即各行业主管部门负责本领域的信息保护工作。[18]而许多国家和地区设有独立的个人信息保护机构。例如日本的个人信息保护委员会、英国的数据保护监管机构(ICO)等。从全球范围来看,独立的个人信息保护监管机构有两种设置模式:一是政府内部相对独立的监管机构;二是独立于政府的监管机构。两种模式各有优劣,但前者更符合我国国情。从我国国家机构体系的组织形态来看,大部分行政监管机构采取的是政府内部相对独立的模式。这种模式虽不能完全摆脱政府权力的影响,但有利于整个行政系统的统一协调,在一定程度上降低机构改革的难度。
个人信息保护不是单一监管主体可以独立完成的事项,必须由多主体在分工协作的基础上形成完整的监管链条。这一过程的关键在于协调空白监管领域和交叉领域的主体监管范围与权责,确保出现问题时没有推诿的可能。因此,除了考虑监管的独立性,专门监管机构还必须要从一个总体的高度出发,统一协调各监管主体的工作,做到高屋建瓴、统筹调度,确保多元监管主体的专业性和统一性。
2.加快组建科技伦理委员会
从人脸识别技术的应用实践和规制性文件来看,我国更多的是将其定位为一种提高社会安全与效率的工具,忽视了技术与人互动过程中产生的价值冲突。如何避免科技发展超过伦理建设,确保科技向善?如何避免企业利益凌驾于公共利益之上?2019年7月24日,中央全面深化改革委员会审议通过了《国家科技伦理委员会组建方案》,并提出组建国家科技伦理委员会,目的是推动构建科技伦理治理体系,强化科技伦理监管。2019年10月31日,党的十九届四中全会通过的《中共中央关于坚持和完善中国特色社会主义制度、推进国家治理体系和治理能力现代化若干重大问题的决定》再次强调“健全科技伦理治理体制”。这表明科技伦理治理已经上升到国家治理的范畴,成为推进国家治理能力现代化的重要一环。
3.扩大监管范围,加强网络空间治理
从《国家网络空间安全战略》《网络空间国际合作战略》到《网络信息内容生态治理规定》再到国家领导“要依法加强网络空间治理,营造一个风清气正的网络空间环境”的讲话内容,可以看出我国对网络空间治理的重视程度。为此,各级网信部门要会同公安机关等其他有关主管部门建立精细化的治理机制,为人脸识别技术的发展提供良好的网络空间环境。
4.从事后处罚转向全过程监管,优化升级监管模式
全过程监管需要监管主体具备充足的监管资源以及专业的风险监测和评估能力,以改变当前“人少事多”和“外行监管内行”的状况。为了保证有限的监管资源得到充分利用,政府可以考虑建立“分级分类监管”机制,即将监管对象按风险程度划分等级并采取层次鲜明的差异化监管措施。同时考虑到某些企业具有政府监管所必须但又缺乏的专业技术、信息平台、大数据等,“政企合作监管”也是提升监管效果的重要途径。其中“监管外包”就是政企合作的典型做法。所谓“监管外包”,就是向第三方检验检测认证机构购买服务,扩大采信第三方机构的认证结果。最后通过“信息披露机制”将查处结果及时向社会公开,进一步推动监管过程的透明度和规范性。
(三)督导人脸识别企业强化自律
技术规制具有层次性,不同的维度有不同的规制主体。除了法律规制与行政规制,技术运用主体的自律尤为重要。在地铁安检中,地铁运营企业作为技术运用主体和信息数据控制者必须要发挥主观能动性进行自我规制。
1.技术引入遵循正当程序
地铁安检应用人脸识别技术,是一项事关国民安全的改革,必须要遵循正当程序。首先,技术引入必须经过相关部门的严格审批。一方面确保只有合法、达标的人脸识别产品才能应用到公共安全领域;另一方面确保技术应用主体具备一定的信息安全与网络安全保障能力。其次,在技术推行前举行听证会,充分保障民众在公共政策上的参与权与知情权。各地区地铁票价调整前召开听证会。如今地铁推行人脸识别技术,更应当经过严格的听证程序,充分考虑公众意见。最后,局部试点。在试点过程中,主管部门可以加大宣传力度,减轻公众对于人脸识别技术安全的担忧;同时鼓励公众广泛讨论,发表意见,用以完善新型安检模式。
2.企业制定合规计划
所谓合规计划,简单而言就是将法律法规、监管政策、行业准则和标准以企业内部规章制度的形式落实下来。合规计划是企业强化合规风险防范的内控机制。合规风险则是指企业因为在经营中存在违法违规乃至犯罪行为,而遭受行政监管部门处罚和司法机关刑事追究的风险。[19]不仅如此,合规计划还能减轻行政监管机构负担,弥补外部监管的不足。2018年国资委和发改委相继发布企业合规指引,试图以行政主导方式推进国有企业全面建立合规管理体系。[20]地铁运营企业可以参考《中央企业合规管理指引(试行)》制定企业合规计划,以规避合规风险。
五、结语
人脸识别技术尚未大规模应用于地铁安检,且各地铁运营企业处于各自为战的状态。随着市场需求的扩大,人脸识别技术将拥有更大的发展空间,但也必将产生越来越多的“数据孤岛”。在这一趋势下,是否有必要建立国家级人脸数据库值得思考。国家级人脸数据库利于各企业间的数据共享,避免乘客个人信息被重复收集,同时节省信息收集所消耗的资源;此外,数据库由国家有关部门统一管理监督,能够提高数据保护的统一性和专业性。但建立国家级人脸数据库并非易事,需要法律、人力、财力、技术、管理制度等多方面的支撑。若成功建立,人脸识别技术将会实现飞速发展、最大化造福人类。
机遇与风险并存,新兴技术的发展就是一个长期博弈的过程。这个过程是价值判断和价值选择的过程,也是多元利益主体经过协商和互动在公益与私益、安全与便捷之间寻求平衡的过程,而到达平衡的关键就在于技术风险防控。本文仅从法律规范、行政监管、企业自律的角度提出人脸识别技术的宏观规制。未来的研究应当从多角度、多学科扩展人脸识别技术的规制路径,为构建人脸识别技术的风险综合治理体系奠定理论与实践基础。