算法问责制度构建与反思
2021-01-17张绍衣
□文/张绍衣
(首都经济贸易大学 北京)
[提要]算法时代的来临引发一系列危机,算法价值目标的缺失、算法歧视等问题使得公众对算法技术产生担忧与不信任,深刻影响着信息时代的发展进程。算法问责制度作为一种规制途径,可以从事后问责的角度解决算法引发的问题。通过分析比较现有的各国建立算法问责制度现状,应对算法带来的风险并进行有效规制。为此建议:建立算法信任,以算法透明实现算法问责,形成完备的算法价值目标体系,注意算法解释的限度,明晰算法主体注意义务的边界,从不同阶段认定算法主观过错,从而完善算法治理路径。
算法是计算机用于执行计算或解决问题的指令。可以将算法看成计算机运行的内在的、系统的过程。许多重要的决策现在都由算法代替人类作出。例如,各个网络平台给予用户的个性化推荐,自动化决策和审批,算法辅助司法量刑等。算法成为政府、企业等的内在技术支持。算法将会应用于越来越多的行业与领域,如医疗卫生、交通运输、基础设施、人脸识别等。
算法决策可能输出不公平、不正确的结果,在算法未受到法律规制的情况下,自动驾驶汽车、区块链衍生应用、数据整合、大数据杀熟等方面都会对个人及社会产生风险,如涉及安全风险、侵犯隐私权、影响交易公平等。因此,在法律层面,这些算法需要具备可问责性,通过问责机制监管算法技术。
算法社会是人的理智与科技共同发展的结果,但是单一的、理智的科技成果并不能描绘理想的社会秩序,人的理智与心灵、道德都应该得到体现。因此,算法时代应该有与之相匹配的法律制度作用于其中,特别是算法问责制度的完善可以从事后规制的角度使科技与道德统一起来。然而,目前的算法问责制度并不完备,需要进行分级分层梳理和创新。
本文以算法规制方法之一的算法问责制为切入点,运用比较法分析算法问责制度的构建并进行反思和展望,试图以算法问责制更好的预防和解决算法适用危机。
一、算法问责的必要性
本文探讨的算法问责制度有助于解决算法引发的一系列问题。对于算法适用危机、算法价值目标缺失等问题,需明确责任归属,有必要形成系统完备的问责体系。
(一)算法适用危机。众多平台应用算法给人们以生活上的便利,效率的提升以及决策的理性化都体现出算法的优越性,而由于算法产生的算法黑箱、算法合谋、算法歧视等适用危机,该技术离真正的算法理性还有一段距离,需要在法律规制层面予以解决和完善。
算法作恶可以大致归结为以下方面:算法由于价值目标的缺失而引发的危机、数据的偏见导致的算法偏见、公众对算法的信任危机。算法的运用可能影响的法益包括国家安全、社会秩序;个人层面的人身权、财产权等。
以算法歧视现象为例。算法的属性和自然人的属性相关,人的价值目标写入算法,就会导致算法输出的结果具有歧视和偏见。运用算法决策的过程中,针对个体的决策,由于一次的算法歧视,会引发未来屡次的算法歧视,进而影响现实中个人主体性的丧失。个体的数字身份的锁定造成数字化的类别和阶层,算法决策过程的反复性使得个体未来遭受屡次歧视和不利影响。
(二)算法价值目标的缺失。算法的价值目标在于实现技术的安全与道德。算法风险的形成很大程度的原因在于价值目标的缺失。价值目标会影响算法运行的整个系统,例如深度伪造、滥用人脸识别、虚假新闻扭曲言论、大数据杀熟等问题。例如,在算法设计阶段,价值目标的缺失会影响数据的偏差,从而导致算法偏见,引发信任危机。相应的偏见结果会产生新的伦理问题,如价格歧视。
算法表面上是一种形式理性的工具,形式理性的工具不必然应用于正确的目的,不一定与价值观和道德相符合。因此,作为工具的算法应该追求形式理性与实质理性的统一,算法的价值目标应该是安全基础上的更道德和更美好的生活。明晰算法价值目标,以避免算法结果与道德的偏离,使算法应用服务于正确的目标。
二、算法问责制度的构建
算法所引发的一系列问题有两种层面的解决途径,一是给予和关注个体的权利,个体包括算法的制造者、算法本身、平台、使用者等,权利包括算法解释权、数据权、隐私权等权利;二是通过法律责任的追究,从事后层面规制算法责任。
本文认为,为了解决算法引发的危机,赋予个体权利是一种从本质上预防算法危机发生的事前规制,起到了基础性的作用,然而权利的赋予也有不足之处,例如算法解释权就会引起知识产权、商业秘密和解释本身的困难性等问题,而数据权、隐私权的保障也无法在算法技术框架下得到真正的保障。当机器运作的算法侵犯利益,导致经济损失时,算法的制造者、所有者、编程者都应当承担法律责任。因此,本文通过算法问责这一途径完善个体赋权的构想,从而解决算法引发的社会危机。
美国《算法问责法(草案)》、欧盟《通用数据保护条例》、中国《个人信息保护法(草案)》中的平台问责制度中都有算法问责制度的相关规定。
本文参考以上现有问责制度的构建,进行分析和反思。
(一)美国算法问责制度。美国的算法问责制度包含一系列的算法问责法案,从算法影响评估制度到外部监督治理模式,从专业技术工作组到算法的可问责原则,都具有创新意义和相应的实施挑战。
影响评估与外部监督。美国参议院2019年提出了《算法问责法(草案)》,该法中的算法指是通过机器学习、数据处理、人工智能计算出的决定,或有人工辅助的决定。该法对算法进行影响性评估。美国的算法影响评估制度考虑到算法设计目标、运行结果及其风险、消费者的修改权等,从目标和结果分步评估算法影响,有助于实施系统性问责机制。
2017年在纽约通过的《算法问责法》,是对于公用事业领域的算法进行规制,初步建立了外部治理的算法问责体系。该法规定了算法自动化决策和辅助决策的两种情形;对适用主体也作出了限定,是公用事业中运用算法的行政机构和慈善组织;规定了法律实施的主体为自动化决策工作组。该法的算法自动化决策工作组由专业技术人员组成,也包含受到算法决策影响的代表人士。同时规定了工作组的职责,如何运用技术手段对算法标准进行评估、救济,以及公众知情权等内容。
2019年在华盛顿提出算法问责法案,目的在于对算法进行监管。公共事业在运用算法决策前需相应的数据报告和系统报告,并需要向公众征求意见。2019年国会提出的算法问责法案同样有系统评估的规定,目的在于评估算法是否存在歧视,是否侵犯了消费者隐私。
美国的三部算法问责法案创新之处在于,通过具有专业技术的工作组帮助行政监督与算法评估,可以有效审查和预防可能的算法偏见后果。该问责制度赋予了算法主体相应的解释权,界定其证明算法合理性的义务。此外,美国的算法问责法还强调正当程序和公共利益,在算法决策的全过程进行公众监督和系统问责。
美国这种外部监督的问责机制有其固有缺陷。在技术实施层面、商业秘密的保护、治理效果和公众信任都需要完善。同时,其主要制度缺陷还在于执法权不明确,以至于降低了审查的有效性,外部监督效果不理想。
可问责原则与算法解释。美国计算机协会在2017年提出算法治理七项原则,其中的知情原则和算法解释的原理一致,它表示算法的偏见和潜在危害应该被披露。其中的可问责原则包含了算法解释与算法不可解释的性质,使用算法的机构应对算法决策结果负责,即使无法解释算法结果的产生。算法运用使法律责任发生变革,需引入无过错责任原则或保险计划进行制度创新。
(二)欧盟算法问责制度。欧盟的算法问责制度对自动化决策的相对人赋予权利,对数据控制者设置义务,规定了算法解释权。
欧盟《数据保护指令》第15条规定,当自动化决策对个体产生重大影响时,该条赋予个体可以不受其决策影响的权利,同时赋予个体了解决策生成逻辑的权利。欧盟《通用数据保护条例》第15条(1)(h)、第22条、第25条对《数据保护指令》作出补充和修改,增加了算法主体的信息披露义务和程序设计的合规义务。该条例关注到算法开发的整个过程,以保护利益相关者的权益。
算法责任的追究涉及企业商业秘密、公众的数据权利等问题,算法控制者和运用者在算法问责制度框架下被要求有解释的义务。欧盟《通用数据保护条例》第13条到第15条明确规定了算法解释权。该算法解释权得到广泛认可,是算法问责过程中不可或缺的步骤。
《通用数据保护条例》第25条针对数据控制者设置了相关的间接义务。而许多算法决策和算法的体系结构不是由数据控制者或处理者作出的。因此,这种保护数据隐私的法律结构的约束力较低,该条实施存在困难。
(三)中国平台问责制度。中国算法问责治理模式主要是平台问责制度。平台产生大量相关数据和交易,运用算法促进生产交易更高效和自动化。平台的基础服务在推动创新的同时也需要网络治理和监管。
中国算法治理创新了透明原则和知情权,为平台赋予义务,界定责任,并且赋予和保障个体的权利。在这一模式下,用户享有知情权、选择权、退出权,同时限定场景,明确平台义务责任,以保障用户基本的对于算法应用的控制权利。算法决策和运行的具体过程则避免用户介入。在中国《个人信息保护法(草案)》第25条确定了自动化决策的透明原则。
该条文隐含着对技术中立的否定,要求决策结果公平合理。同时,该条确立了算法解释和用户的知情权,当个人认为自身权益受到算法决策的重大影响时,有权获得解释说明。这也赋予平台进行算法解释、告知信息的义务。
该条通过对平台的要求保护用户利益,赋予用户知情权,创新了技术治理思路。强调在平台运行中算法的核心地位,监管平台对算法的运用,是对传统规则体系的创新。
该法第65条对个人信息处理活动进行了规定,平台对个人信息数据的处理活动侵犯个人权益的,使用过错责任的原则。
相比较而言,平台算法的归责原则也可以适用过错责任原则,但是需要对平台算法的功能步骤和过错的程度进行分类,区别适用法律责任。例如,风险较高的算法应用,需着重考虑监管和影响评估,完善问责体系,或可适用严格责任或者无过错责任。
同时,在中国《信息安全技术个人信息安全规范》第7条第10~11款中,规定了对数据控制者作出“合理解释”。这是算法问责过程中的解释权的具体规定,是算法透明原则的体现。
三、算法问责制度的反思
算法规制的目标是实现算法作为智能科技应用的中立性,避免多数人同意的少数人集权。本文以下对现有算法问责制度,从构建算法信任,以算法透明原则和算法解释帮助实现算法问责的维度进行分析和反思。
(一)算法信任的构建。由于算法危机的涌现,不难发现算法不是完全理性的,法律规制就是获取算法理性与公众对算法的信任的其中一种解决途径。
通过法律规制算法,首先在价值层面上是科技与道德的权衡与联系,使科技的运用更能符合道德要求;其次规制算法的目标应该是使生活更安全,提高公众对算法技术的信任度,本文探讨的算法问责制和算法透明原则正是实现算法理性和算法信任的法律规制。
算法信任来源于技术本身的稳定性和相应制度规制,因此增强技术的可靠性和采取适当措施可增加信任。算法透明原则和算法解释权的构建是增强技术信任的方式之一。
(二)算法解释及其限度。算法透明原则直接体现为算法解释权的具体运用。算法解释是基于用户知情权对算法设计者施加的法律义务其中包括标示义务、备案参数、公开参数等。在《个人信息保护法(草案)》中,透明度作为一项原则要求被确定下来。算法透明在事前监管中有着重要地位。
通过算法作出的决策对相对人会有一定程度的影响,当算法决策造成负面影响的时候,有必要同正当法律程序一样赋予相对人救济的权利。而如何救济和问责就需要通过算法解释和算法透明原则来具体实现,算法解释可以理清算法决策背后出现的问题和决策失误,除了方便进行系统问责的实施之外,还能推进算法决策过程的改进,避免类似的决策失误屡次发生。
在问责与监管过程中,要避免算法控制者以技术中立的观点逃避法律责任,避免类似例如谷歌搜索非裔美国人结果偏见事件的发生。相应的算法解释与备案就有利于监管与问责。
理论上算法制定者可以对系统是否正确运行予以验证,存在面向算法制定者或设计者的解释说明的方法。在法律问责过程的监管方面,面向社会公众和监管者,有必要创新出一种解释说明的方法。这种方法可以是直接的解释说明,也可以专门用于向监管者解释说明的新的算法系统。通过新系统的设定,使算法程序具备法律的可规制属性。
算法解释可以分为结果解释与逻辑解释,是一种合理的描述,存在解释限度与不可解释问题。同时,由于算法价值目标影响决策结果,透明原则应当在算法设计、运行、结果等环节均有所体现。
注意算法解释的限度。算法解释作为算法问责制度的实现途径,具有制度实施的优越性,同时也有不可解释的内外阻碍,例如算法程序本身的复杂与不可解释性、算法解释涉及的商业利益知识产权相关法益的干扰。因此,在实施算法解释时应注意一定的限度,可以运用零知识证明的原理减少信息暴露。有必要对算法的复杂程度和可解释性程度进行分类,如可解释性较低、具有危险性的算法类型就需要不同的制度措施进行监管和问责。
(三)算法问责制度展望。算法时代引发的风险使得传统法律关系发生基础性变化,责任认定体系需要进行分层和创新,认识法律责任和算法责任的本质。通过算法问责制度的完善,平衡算法需求和风险等级。随着算法技术的成熟发展和问责体系的建构,使得算法由极端化向人性化转变。
形成完备的价值目标体系。算法问责制度的构建需要形成统一的全面的价值目标体系。由于算法应用的广泛性与复杂性和在社会层面与个人层面的关联性,整体统一而联系的价值目标体系,才能实现规制目标的统一与完善。例如,从信息科技发展的角度而言,过度的问责数据权利与数据价值也有可能对算法应用的发展造成限制。
明晰注意义务的边界。在算法技术背后存在注意义务模糊不清的问题,事后归责的机理和责任设置都不明确。完善问责体系,应该明确相应的算法主体是否尽到对应的注意义务,运用算法备案和算法解释,明晰注意义务的边界。
从不同阶段认定算法主观过错。算法问责需要明确的有层次的问责体系,从算法主观过错方面来说,在算法设计、部署、运行、结果输出各个阶段都要考虑相应主观过错的内容。在算法设计阶段考虑算法目标和价值观的导向,使算法在设计阶段就具备可问责性。在运行阶段考虑对算法运行的控制力。对于结果输出需要考虑到设计之初对不良结果的预见和反应能力。
四、结语
当面临算法适用危机以及算法价值目标缺失等问题时,算法问责制度的建立就具有必要性。美国一系列算法问责法案推行算法影响性评估制度和外部监督制度,建立了可借鉴的可问责原则和算法解释框架。欧盟对算法解释作出规定。中国平台问责制度创新了算法透明原则和知情权。通过对算法问责制度的反思,本文认为需要建立算法信任,以算法透明实现算法问责。同时,建议形成完备的算法价值目标体系,注意算法解释的限度,明晰算法主体注意义务的边界,从不同阶段认定算法主观过错。