APP下载

人脸识别中个人信息保护合规审计的路径研究

2023-04-18

文化学刊 2023年12期
关键词:信息处理合规人脸识别

孙 悦

一、引言

《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)首次以法律的形式明确了个人信息保护合规审计制度,其中第五十四条以个人信息处理者为主体,规定了其要定期进行合规审计的义务,从内督促个人信息处理者自我约束,自我管理。第六十四条以监管部门为主体,规定了监管部门具有要求处理者进行合规审计的职权,从外加强了对个人信息处理活动的监督。内、外两方面规定,为个人信息处理活动加上双保险。2023年8月,网信办发布了《个人信息保护合规审计管理办法(征求意见稿)》,完善了《个人信息保护法》第五十四条、六十四条关于合规审计的具体执行规则,填补了下位法空白,开创新的审计实践。

人脸识别是指使用摄像设备采集人脸图像或视频,基于个体的人脸的特征进行检测、跟踪,进而对个体进行识别的技术。人脸识别已经应用于我们生活的方方面面,例如手机解锁、小区门禁、面部支付等,为我们带来的巨大便利。但人脸识别属于个人敏感信息,一旦泄漏,容易导致信息主体的人格尊严、人身安全、财产安全受到侵害。人脸识别技术存在知情同意规则失灵、算法“技术中立”陷阱,算法滥用等风险,所以,对人脸识别进行合规审计具有合理的目的和充分必要性。

二、人脸识别技术的合规要求

(一)个人信息保护影响评估

《个人信息保护法》第五十五条规定在处理敏感个人信息前应当进行个人信息保护影响评估。个人信息保护影响评估的内容包括:一是评估处理活动的安全、合法、必要。这也是处理个人信息的基本原则,发挥着统领作用[1]。二是评估对个人权益的影响,人脸面部信息承载了多项个人权益,不仅包括人身、财产安全,还会涉及隐私和人格尊严等,而人脸识别过程必然会对这些权益有着或多或少的影响,应当进行审慎评估,避免事后造成不可逆的伤害。三是评估所采取的保护措施是否合法、有效。在评估了对个人权益的影响后,需要采取保护措施,保护措施要限制在合理的成本范围内,且要合法、有效,不能停留在应付检查的表面功夫,这也应该成为合规审计的重点[2]。在对人脸识别进行合规审计的过程中,要重点审查事前是否进行了个人信息保护影响评估,并且要向个人告知进行人脸识别的必要性和其对个人权益的影响。

(二)收集

在收集阶段,首先,个人信息处理者要履行告知义务,告知对方自己的身份、联系方式、处理规则,并切以清单的形式列明所收集的个人信息及其处理目的、方式、范围。作为敏感个人信息,《个人信息保护法》还明确强调了需要告知收集人脸识别数据的必要性和对个人信息权益的影响,这种影响不仅包括负面影响,也包括积极的影响、事前影响、事后影响,是全方面的。如果有可以替代人脸识别的其他方案,需要将其他方案和人脸识别进行权衡。当人脸识别的安全性、便捷性明显强于其他方案时,才会启动人脸识别方案,如果有其他方案,也需要告知对方。其次,收集人脸信息必须采用单独同意的机制,不能使用概括授权、捆绑授权、兜底授权等方式,目前实践中,个人信息知情同意机制存在复杂冗长、流于形式等问题,而人脸识别关系到身份认证、金融支付等重要人身、财产权益的实现,采用单独同意可以尽量做到信息处理和权益保护之间的平衡。最后,收集个人信息不能过度,要在目的范围内且遵循最小必要原则,不要超度、超频次。

(三)存储

个人信息处理者要采取有效的技术措施存储信息,防止人脸数据被泄露、篡改、滥用。存储在原则上是不存储不加密的原始人脸图像,在完成人脸识别的过程后应当立刻删除,如果在法律规定情况下需要存储人脸的原始图像,应当设置存储期限,最长不能超过3年。虽然《个人信息保护法》没有明确规定,但在实践中,人脸识别数据需要进行加密存储且要与其他的个人信息进行隔离,可以是物理层面的隔离也可以是算法层面的逻辑隔离。另外,未经批准,个人信息处理者不得向境外提供存储的信息。

(四)共享、转让

一般来说,对收集来的人脸数据不得向第三人共享、转让,如果确实有共享、转让的需要,则要进行事前的个人信息保护影响评估,并且履行告知的义务,告知的内容包括共享、转让的目的、接收方的身份、联系方式、数据安全能力以及可能产生的影响等相关信息,处理者还需要审核接收方的数据保护能力,与其签订数据共享协议,共享、转让中需要取得另外的单独同意,并且这里的单独同意不能涵盖在收集环节中的。

(五)特殊的合规要求

人脸识别数据的应用场景可以大致归为三种,对于这三种不同的场景,除了上述一般的合规要求外,还有其自身的特别要求。

第一种是人脸验证,是将即时的人脸和已经提取的面部信息进行一对一的比较,识别到“你是你”的过程,例如手机面部解锁、刷脸支付等。这种场景下要求用来比对的数据库的来源必须是合法的,可以来自政府相关部门,或者是来自经授权的机构。第二种是人脸辨识,个人信息处理者要事先收集到多个人脸数据,建立数据库,然后将当下的人脸信息与数据库中的信息进行比对,从而识别出自己,这种场景在门禁查验上应用最为广泛。这里的数据库的数据需要是个体主动登记、上传的人脸图像,并且需要经过单独的告知、单独的收集。第三种是人脸分析,不同与前两种只是身份的比对,人脸分析将收集到的人脸数据进行二次加工,例如客流量统计、面部情况测评等。在这种场景下,处理者不能把即时收集到的人脸数据再重新关联、识别到用户个人,并且严格保护用户个人的隐私权。

三、人脸识别合规审计的完善路径

(一)理论方面的原则指导

1.合法原则

《个人信息保护合规审计管理办法(征求意见稿)》第三条指出个人信息保护合规审计是审查、评价个人信息处理活动是否遵循法律、行政法规的监督活动。这条规定表明合规审计的依据是法律和行政法规。但这样合规审计的依据范围是否过于狭窄,法律、行政法规的内容是否能够涵盖所有个人信息处理活动的要求?作为一种特殊的个人信息处理活动,司法解释、部门规章、其他规范性文件对其有着单独的规定,例如《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》《信息安全技术人脸识别数据安全要求》等,这些也是人脸识别过程中需要遵守的“法”。另外,《信息安全技术个人信息安全规范》(GB/T35273-2020)等国家标准、金融、医疗等具体的行业标准,这些标准文件也会涉及关于人脸识别技术的要求,不能对此视而不见,也应该成为合规审计的依据。所以,这里的合法原则遵守的“法”不应该局限于法律、行政法规,要有广度、有深度地看待。

2.比例原则

比例原则是指手段和目的的平衡,即对人脸识别信息处理者监管的手段要和保护个人利益的目的相当。人脸信息承载了多项个人权益,人脸识别技术势必会带来或多或少的安全风险。因此,需要对人脸识别活动的风险等级和采取的安全保障措施进行审查。合规审计是为了监督人脸识别企业的行为,而不是打压人脸识别这项技术的发展应用,尤其是对监管部门的合规审计活动,其审查的成本,对企业的审查方式、程度不能过分超于保护的利益,避免造成形式主义。企业在制订合规计划时,也要避免设立过多冗长、复杂、难以实现的合规规则,让合规制度沦为形式主义。

3.目的正当原则

人脸识别领域的合规审计的直接目的在于确保处理者按照法律规定的要求处理人脸信息,根本目的在于确保人脸信息的真实性、准确性、完整性。由于人脸识别技术中人脸信息的主体和人脸信息的处理者相分离,而处理者对人脸信息具有更强的控制力,信息主体处于弱势地位,所以,需要通过合规审计来监督处理者是否按照法律要求和原则来处理这些信息数据。

(二)实践层面的制度构建

1.重构知情同意规则

在上述人脸识别合规要求的论述中,知情同意规则几乎贯串始终,属于核心要求,而在实践中,知情同意规则的运行存在失灵的风险。《中华人民共和国民法典》的一千零三十四条,《中华人民共和国个人信息保护法》的十四条、十五条、二十三条、二十五条、二十九条等法律法规均对知情同意规则做出了规定。知情同意规则是个人信息保护的核心架构,其中蕴含着对信息主体人格尊严的保护以及主体对个人信息的自主决定权。但是,在很多情况下,企业对用户的知情同意规则流于表面。作为人脸信息主体的用户,应当作为同意与否的决策者,但是用户群体广泛,素质层次不齐,对于烦琐冗长的隐私声明,用户群体往往直接点击同意,没有经过仔细阅读,即便阅读,由于专业知识的缺乏以及告知内容表述的晦涩难懂,特别是在验证、辨识的场景下,信息主体很难知晓其面部信息在何种数据库中的对比程度,更难以知晓信息存储安全性、自动化决策算法逻辑的信息。对于这个问题,知情同意规则的形式需要简洁明了、重点突出,要摒弃现在繁杂的条款内容,对涉及信息主体权利的内容尽到提示义务。在简洁易懂的同时,企业要将条款内容向监管部门备案,保证真实性。

知情同意规则的另一个困境在于数据技术对人脸识别信息的持续处理、对比和分析,导致人脸识别信息的属性转化、应用场景的复杂性、安全风险的持续性。如果同意是一种概括的同意,那么仅在收集阶段,存在用户对人脸信息的授权。在存储、共享、转让等后续阶段,人脸信息的安全性和风险不断变化,收集阶段的同意将无法保障用户的知情权、决定权。所以,知情同意应该变成动态的同意,需要对变化的人脸信息使用方式、范围、目的进行披露,提示用户风险程度,降低用户和企业之间的信息不对称。

2.企业算法问责制度

从主体的角度来看,人脸识别合规风险可能是多方面造成的,但是企业对于算法的输出具有安全审查义务,企业有着无法逃避的责任。当企业作为算法的设计者时,算法的设计范围不仅包括对人脸信息的收集、存储、使用,还要包括对外部网络环境的实时反应方式、对不良数据的反应能力[3]。当企业在作为算法的使用者时,算法的来源必须合法合规,有些企业为了提高效益,违法贩卖、购买人脸信息,严重损害了个人权益。此外,作为使用者,企业在投放前启动安全测试,根据风险等级设置安全保障机制。所以,无论是作为设计者还是使用者,当出现合规风险时,企业都需要被问责,承担相应的责任。

企业算法问责制度应当遵循主客观相一致的原则。在算法的设计、运行过程中,企业的主观方面存在过错,责任的设置要和主观过错相符合。主观过错的内容包括保障存储面部信息的安全、不得操纵用户行为、保护用户人格尊严等技术伦理问题。同时要警惕“技术中立”的陷阱,即算法作为技术本身是中立的,ABC技术(即算法algorithm)、大数据(big data)、云存储(cloud))的复合运用掩盖了企业的“主观能动性”、削弱了认定主观过错的基础,造成了“技术中立”和“工具理性”的假象。对于企业的算法问责,应当是动态过程,不仅包括算法设计的监管,也包括投入使用过程中的监督,算法应用时出现违规情况,审计还需重点审查企业是否采取了有效的控制措施,防止损害结果的扩大。

3.区分场景公开算法

人脸识别技术具有算法歧视、泄露信息的风险,问题在于算法的滥用。一部分学者认为算法滥用的根源在于算法的使用者利用算法运行的专业性和不透明性,在设计算法时为谋求个人目的违背技术中立性,设计出对自身有利的算法,也就是“算法黑箱”。基于这项理论基础,治理“算法黑箱”最有效的治理方法应该是公开算法,这项看似合理的方法在实践中存在多项难点。首先,算法具有极强的专业性,公开算法普通公众也很难辨别其是否违背技术中立性,是否有滥用的风险。其次,由于技术水平的发展,算法已经升级到可以自行设计、自行进化的程度,即使公开,算法实质已经发生变化,解读只会更加困难。最后,算法作为人脸识别技术的核心,是企业竞争力的体现,也是知识产权所保护的对象,如果为了防止滥用而全部公开,会打击企业创新积极性,违背商业伦理。

针对上述难点,全面公开算法是不具可操作性的,可以根据算法的主体、使用场景,对公开程度加以不同规定。对于普通的非垄断性企业,正常使用人脸识别技术,没有损害用户权益的情况下,不强行要求其进行算法的公开,这样既保护了企业的知识产权,也保护了算法创新的动力,以及为算法的优化提升创立了宽松良好的制度环境等。当企业发生损害用户权益结果或者存在算法滥用的风险时,要求其向审计部门和用户公开算法并进行算法的解释。多个企业进行算法合作时,企业在事前就要向审计部门公开算法,做好实时被监督、被抽查的准备。基于管理职能,政府使用人脸识别技术具有合法性基础,当政府利用人脸识别算法进行自动化行政时,需要在最大范围内公开算法,公开算法可以使政府的实际意图呈现在公众面前,从而得以被监督,其行使权力时便能“有所忌惮”。

猜你喜欢

信息处理合规人脸识别
东营市智能信息处理实验室
人脸识别 等
基于Revit和Dynamo的施工BIM信息处理
对企业合规风险管理的思考
揭开人脸识别的神秘面纱
外贸企业海关合规重点提示
GDPR实施下的企业合规管理
地震烈度信息处理平台研究
CTCS-3级列控系统RBC与ATP结合部异常信息处理
基于类独立核稀疏表示的鲁棒人脸识别