自动化国家的行政法
2022-11-22卡里科利亚尼斯苏苗罕王梦菲
[美]卡里·科利亚尼斯 著 苏苗罕 王梦菲 译
内容提要:行政机关将日益依赖机器学习算法驱动的数字自动化。美国行政法可以适应这样的未来吗?不仅高度自动化的国家完全可以符合存在已久的行政法原则,而且在实现行政法的专家决策和民主问责的核心价值方面,负责任地使用机器学习算法的效果可能更优于现状。显然,算法治理有可能做出更为准确的、由数据驱动的决策。此外,由于其数学特性,算法很可能成为民主机构更为忠实的智能体(agent)。然而,即使自动化国家更为智能、具有更高问责度,它也可能存在缺乏同理心(empathy)的风险。尽管我们不应夸大人工驱动的官僚机构现在所具有的同理心程度,但是大规模转向算法治理将给行政法带来新的挑战,那就是如何确保自动化政府同时也是具有同理心的政府。
一
未来无极限,行政法的前景很广阔。在近期内,美国的行政法无疑关注的是最高法院如何裁决引发行政法核心问题的案件,这些问题的例子包括禁止权力授出(nondelegation)原则和法院对行政机关所作法律解释的尊重。但从长远来看,随着政府和社会出现一些新的变化,行政法领域将面临新的问题。即将出现的一项重大变化是行政国家自动化程度的日益加深,数字系统,尤其是那些由机器学习算法驱动的系统,将承担政府的众多任务。
行政机关现在承担着发放许可证、支付款项、裁决争议和制定规则等一系列工作,这些在传统上都是由政府官员执行的。但是,既不难想象,也并非不切实际的是,未来在公众与政府打交道时,他们会越来越多地发现自己主要是与数字系统而非人类官员打交道。即使在今天,计算机系统也越来越多地完成了长期以来一直由人类负责的传统行政任务。如今,在美国很少有人在使用政府网站申请失业救济、投诉或提交文件时犹豫再三,而选择直接访问或致电政府办公室。联邦政府甚至创建了一家在线门户网站(USA.gov),为用户访问各种资源提供便利,现在公众可以通过州和联邦政府网站的广泛网络使用各种数字应用程序了。
在过去的25年里,这种转向与政府在线互动的发展预示着,在接下来的25年里,政府程序将经历更深入、更广泛的技术变革。除了与政府前端的通信数字化之外,未来可能还会出现更广泛的后端决策自动化,尽管后端决策如今仍然由行政官员裁量决定。或许只需再过几十年时间,我们就能实现在采用机器学习算法构建的自动化系统基础上运行的行政国家,私营部门的重要方面很大程度上也是如此。这种行政国家具有的两项特征是算法裁决(algorithmic adjudication)和自动化规则制定(robotic rulemaking)。①See Cary Coglianese and David Lehr,Regulating by Robot:Administrative Decision Making in the Machine-Learning Era,105 Georgetown Law Journal 1147,1171(2017).行政机关将不再由行政官员作出裁量性决定,而是能够依靠自动化系统作出这些决定,例如判断申领者个人是否有资格获得残疾人福利。例如,我们可以对福利申领处理系统进行设计以便自动从电子病历中导入大量数据,然后采用人工智能系统处理这些数据,确定申领人是否达到特定的概率阈值从而具备福利申领的资格。②See Cary Coglianese and David Lehr,Transparency and Algorithmic Governance,71Administrative Law Review 1,9(2019).
目前政府通过行政人员决策来完成的许多任务,如果完全交由自动化决策工具和计算机系统来执行,行政法会如何应对这种迈向自动化国家的转型?行政法应该怎样应对呢?
现有的行政法原则大多数已经可以适应整个行政国家广泛采用自动化的情况。不仅各行政机关已经长期依赖各种有形机器来实现自动化,而且自动化国家,或者至少是负责任的自动化国家,可以被认为是行政法对政府基本愿景的顶点,即立法授权的中立的公共行政。我们不需要彻底改变行政法才能让其在自动化程度越来越高的时代运作,因为如果我们能够负责任地实施自动化,它将推进长期以来作为行政法基础的民主原则和善治价值的实现。
尽管如此,即使在负责任的自动化国家,也会存在善治的一项重要因素,而且这项因素越来越可能随着自动化而消失,那就是人类的同理心。即使由官员组成的官僚机构也可能冷酷无情,但是极端自动化的时代可能会呈现出人类关怀的危机状态,或者更准确地说,是缺乏人类关怀的危机。在日益自动化的国家中,行政法需要寻找各种方法以鼓励各机构确保公众继续有机会与人类接触,表达他们的心声,并让人们了解其处境现状。简而言之,自动化国家也得是有同理心的国家。
二
几十年前发起的信息技术革命几乎没有消退的迹象。今天的技术人员通过使用人工智能、机器学习和预测分析等高级算法技术,揭示并触及各种新领域。这些术语(有时互换使用)所包含的一系列工具,能够快速处理大量数据,产生高度准确的预测,从而促进许多不同任务的自动化。在私营部门,之前由经过训练的人类处理的大量任务,例如读取胸部X光片、驾驶汽车和金融机构发放贷款,都通过算法创新实现了自动化处理。
公共管理部门已经注意到了私营部门的算法进展。商业世界的一些进展甚至与政府任务有异曲同工之处。例如,像eBay和PayPal等公司已经开发了非常成功的自动化在线纠纷解决工具,在没有员工直接参与的情况下也能处理投诉。③See Benjamin H.Barton and Stephanos Bibas,Rebooting Justice:More Technology,Fewer Lawyers,and the Future of Law(New York:Encounter Books,2017),pp.111-115.总的来说,政府官员在现代数据分析中看到了构建可以自动化处理各种政府任务的系统的可能性,所有这些都有可能提高行政效率、速度、一致性和准确性。
自动化行政国家之愿景的最佳例证可能是在爱沙尼亚共和国,这个波罗的海小国已经全面拥抱数字政府,并将其作为独特的标志。爱沙尼亚的“e-Estonia”项目已经将医疗记录、就业信息、财务报表等大量个人信息加以数字化并安全存储,从而改变了该国的行政管理。④See Nathan Heller,Estonia,the Digital Republic,The New Yorker,December 11,2017,(https://www.newyorker.com/magazine/2017/12/18/estonia-the-digital-republic);and Republic of Estonia,Ministry of Economic Affairs and Communications,Report of Estonia’s AI Taskforce(Tallinn:Republic of Estonia,Ministry of Economic Affairs and Communications,2019),(https://f98cc689-5814-47ec-86b3-db505a7c3978.filesusr.com/ugd/7df26f_486454c9f32340b28206e140350159cf.pdf).这些信息通过XRoad这一数字基础设施实现交叉链接(cross-link),从而让有需要的任何实体可以立即访问个人记录,同时遵守旨在防止不法行为的限制。广泛数字化促进了一系列政府服务的自动化:个人可以在不与行政官员打交道的情况下,只需传输他们的数字信息以完成表格并提交请求,就能轻松完成投票、申请贷款、报税等各种行政任务。通过众多行政程序的自动化,爱沙尼亚每年大约节省了GDP的2%。该国甚至正在探索使用自动化的“法官”裁决小额索赔纠纷。⑤See Eric Niler,Can AI Be a Fair Judge?Estonia Thinks So,Wired,March 25,2019,(https://www.wired.com/story/can-ai-be-fairjudge-court-estonia-thinks-so/).
丹麦和韩国等国在采用电子政务工具方面也处于世界领先地位。⑥See United Nations Department of Economic and Social Affairs,E-Government Survey 2020:Digital Government in the Decade of Action for Sustainable Development(New York:United Nations,2020),(https://publicadministration.un.org/egovkb/Portals/egovkb/Documents/un/2020-Survey/2020%20UN%20E-Government%20Survey%20(Full%20Report).pdf)美国可能还没有实现相同水平的自动化政府,但是肯定也不会落后太多。美国的联邦、州和地方机构不仅采用了网络应用程序(如USA.gov网站上汇编的程序),而且开始用机器学习算法让一系列行政决策过程实现自动化。在大多数情况下,行政官员仍然在一定程度上参与其中,但是大量的行政工作正越来越多地通过数字系统进行。
自动化帮助美国联邦、州和地方政府在公共项目管理过程中处理具有挑战性的资源配置决策。美国多个州已经实施了算法工具来帮助做出发放医疗补助和其他社会福利的决策,以便加快进度并提高福利申领程序处理的一致性。⑦See Cary Coglianese and Lavi M.Ben Dor,AI in Adjudication and Administration,86 Brooklyn Law Review 791(2021).同样,联邦社会保障局利用自动化工具来支持人类上诉法官个人的工作,对每年处理多达250万份残疾福利申请的行政裁决程序进行有效监督。⑧See David Freeman Engstrom,Daniel E.Ho,Catherine M.Sharkey,and Mariano Florentino Cuéllar,Government by Algorithm:Artificial Intelligence in Federal Administrative Agencies(Washington,D.C.:The Administrative Conference of the United States,2020),(https://www-cdn.law.stanford.edu/wp-content/uploads/2020/02/ACUS-AI-Report.pdf).
有的市政当局依靠自动化系统来决定将卫生和建筑检查员派往何处。⑨See Gabe Cherry,Google,U-M to Build Digital Tools for Flint Water Crisis,Universityof Michigan News,May 3,2016,(https://news.umich.edu/google-u-m-to-build-digital-tools-for-flint-water-crisis/);City of Chicago,Food Inspection Forecasting:Optimizing Inspections with Analytics,(https://chicago.github.io/food-inspections-evaluation/)(accessed November 21,2020);Robert Sullivan,Innovations in Identifying People Who Frequently Use Criminal Justice and Healthcare Systems,Policy Research Associates,May 16,2018,(https://www.prainc.com/innovations-identification-cj-healthcare/);Harvard Kennedy School,Data-Smart City Solutions,A Catalogue of Civic Data Use Cases:How Can Data and Analytics Be Used to Enhance City Operations?October 9,2019,(https://datasmart.ash.harvard.edu/news/article/how-can-data-and-analytics-be-used-to-enhance-city-operations-723);and University of Pennsylvania,Uses in Government,(https://www.law.upenn.edu/institutes/ppr/optimizing-government-project/government.php#municipal)(accessed November 21,2020).有的地方当局则使用这种系统决定在何时何地部署社会工作者跟进有关虐待和忽视(neglect)儿童的指控。⑩Dan Hurley,Can an Algorithm Tell When Kids Are in Danger?The New York Times Magazine,January 2,2018,(https://www.nytimes.com/2018/01/02/magazine/can-an-algorithm-tell-when-kids-are-in-danger.html).与此同时,联邦机构已经用算法系统来分析消费者投诉,处理工伤报告,并评估公众对拟议规则提出的意见了。⑪See Coglianese and Ben Dor,supra note⑦.
美国各地的刑事执法机构也依赖各种自动化工具。他们采用了一些工具,根据对城市中最可能发生犯罪的地点的预测,自动部署巡逻警察。⑫See Tim Lau,Predicting Policing Explained,Brennan Center for Justice,April 1,2020,(https://www.brennancenter.org/our-work/research-reports/predictive-policing-explained).许多执法机构还广泛运用自动化的人脸识别工具来识别嫌疑人或进行安全检查。⑬See Shirin Ghaffary and Rani Molla,Here’s Where the U.S.Government Is Using Facial Recognition Technology to Surveil Americans,Vox,December 10,2019,(https://www.vox.com/recode/2019/7/18/20698307/facial-recognition-technology-us-govern ment-fight-for-the-future).
监管机构同样也使用了自动化工具来确定审计和执法资源的使用对象。各州采用了数据分析技术来查找失业保险项目存在的欺诈和错误。⑭See Tod Newcombe,Aiming Analytics at Our $3.5 Billion Unemployment Insurance Problem,Government Technology,March 2017,(https://www.govtech.com/data/Aiming-Analytics-at-Our-35-Billion-Unemployment-Insurance-Problem.html).联邦证券交易委员会(SEC)和国税局(Internal Revenue Service)采用了算法工具来帮助发现欺诈和其他不当行为。⑮See David Freeman Engstrom and Daniel E.Ho,Algorithmic Accountability in the Administrative State,37 Yale Journal on Regulation 800,815-819(2020);and Richard Rubin,AI Comes to the Tax Code,The Wall Street Journal,February 26,2020,(https://www.wsj.com/articles/ai-comes-to-the-tax-code-11582713000).
运用诸如此类的各种方式,美国公共当局已经在朝向日益自动化的政府的方向上取得了长足进步。在接下来的几十年里,由人工智能工具驱动的自动化在政府中的应用肯定会进一步扩大,并可能导致目前由政府雇员从事的许多工作转型或被逐步淘汰。⑯Partnership for Public Service and IBM Center for the Business of Government,More Than Meets AI:Assessing the Impact of Artificial Intelligence on the Work of Government(Washington,D.C.:Partnership for Public Service and IBM Center for the Business of Government,2019),(https://ourpublicservice.org/wp/content/uploads/2019/02/More-Than-Meets-AI.pdf).行政法未来所要治理的国家将是行政自动化程度日益提高的政府。
三
行政法可以适应自动化国家的发展吗?乍一看,自动化国家的前景似乎需要对行政法进行根本性改写。毕竟,行政法的出现是为了约束行政人员的裁量权,使其在法律范围内工作,并防止人类决策者之间的联系可能出现的委托-代理问题。此外,行政法的重要信条之一是行政程序应当是透明的,同时能够说明理由;对于推动自动化之新兴趋势的机器学习算法来说,这一信条似乎会成为算法应用的障碍。⑰这种信条既反映在正当程序的概念中,也反映在行政行为不得武断和恣意的一般性标准中。这是因为机器学习算法有时也被称为“黑盒”算法,它所具有的一些特性使其晦涩难懂,难以解释。在传统算法中,变量是由人类选择的,结果系数可以用来解释因变量中特定数量的变化,而学习算法则有所不同,它能在数据中有效地发现其中存在的模式,并不产生将解释力与特定变量相关联的结果。数据科学家当然能够理解并解释机器学习算法的目标和一般属性,但总的来说这些算法都有一定程度的自主性,也因此被冠以“学习”之名,而这可能会使人更难准确地解释其做出任何特定预测的原因。它们通常无法为证明行政决策合理性的这类因果陈述提供任何依据(例如“因为X导致Y,所以X是正当的”)。
因此,考虑到自动化国家的未来是建立在机器学习系统基础之上,对透明度的关切是合理的。但是,即使是轻微的额外反思,这些担忧似乎既不会对依赖机器学习自动化构成内在障碍,也不一定需要对美国行政法进行根本性改革以适应自动化国家。即使根据《行政程序法》第706节规定的武断恣意标准,行政法也从未苛求接近绝对的透明,或者要求一丝不苟或详尽的推理。⑱See Cary Coglianese and David Lehr,supra note②,at 26-29.根据现有法律原则,行政机构依靠机器学习系统时,如果用一般性的术语解释该算法是如何设计的,并将其结果与现有程序所产生的结果进行比较,以此证明其运作符合算法设计要求,应该能够满足任何说明理由义务的要求。充分的解释可能只涉及描述所使用算法的类型,披露搭建算法所要满足的目标,并显示该算法是如何处理某类数据并生成结果,以及这些结果表明符合该算法所定义的目标与目前的程序一样好甚至更好。
这种解释实际上与行政官员目前使用物理机器而非数字机器时的解释类似。例如,为了证明对未在低温下储存易腐烂食品的食品加工者实施的行政处罚是合理的,行政官员不需要详细解释温度计如何工作,只需要证明它准确读取了温度计显示度数即可。长期以来,法院一直将物理机器的仪器有效性视为使用该仪器的行政行为的充分依据。此外,在行政官员依赖复杂仪器或数学分析的情况下,法院通常会尊重行政官员的专业知识。事实上,在Baltimore Gas & Electric Co.v.Natural Resources Defense Council中,美国最高法院呼吁法院在行政机构“在其特殊专业领域内,在科学前沿进行预测”的时候,保持“最大程度尊重”的态度。⑲462 U.S.87,103(1983).最近,在Marsh v.Oregon Natural Resource Council中,最高法院指出,只要行政决定“‘需要高度的技术性专业能力’,我们必须尊重‘负责行政机关的知情决定权’”。⑳490 U.S.360,371(2011),quoting Kleppe v.Sierra Club,427 U.S.390,412(1976).下级法院遵循这些指示,支持了行政机关在各种场景下依赖复杂算法(即使不是机器学习算法)作出的决定。
当技术和统计技术在机器学习时代变得更加复杂时,很难看到最高法院对法官提供独立技术评估的能力有更多信心。除非最高法院有新的来源获得这种信心,并放弃它在Baltimore Gas &Electric Co.v.Natural Resources Defense Council和Marsh v.Oregon Natural Resource Council中采 取的立场,否则,行政法上的说明理由义务似乎并不能成为行政机构更广泛地依赖基于机器学习或其他先进预测技术系统的任何不可逾越的障碍,即使今天人们可以合理地称之为“黑箱算法”。将机器学习算法描述为黑箱,这种说法在未来几十年似乎将不再合适,因为目前数据科学家正在进行大量工作以开发先进技术,试图更好地解释这种复杂算法的输出。㉑See Cary Coglianese and David Lehr,supra note②,at 49-55.“可解释的”人工智能技术的进步可能只会让自动化与长期存在的行政法价值观更加相容。
当然,上述这一切并不是说,在设计或操作其系统的问题上,行政机关将会或者应当一直得到尊重。根据Motor Vehicle Manufacturers Association v.State Farm Insurance Co.提出的标准,行政机关仍然需要提供有关其自动化系统背后的目的及其通常如何运作的基本信息。㉒463 U.S.29(1983).他们需要表明他们已经仔细考虑了关键的设计选项。他们也可能需要通过公认的审核和验证工作来证明这些系统确实能够运行并生成预期的结果。㉓在放弃以人为基础的程序现状之前,应进行验证,包括在随机选择的案件上测试算法,这些案件也是由人类按照正常程序决定的。人类专家小组可以对数字系统的结果和最初人类决策者之间的差异进行更严格的审查。但是,这一切都意味着,几乎可以肯定的是行政机关可以提供必要的信息以证明其系统产生的结果是合理的。换句话说,长期存在的行政法原则似乎已经可以适应自动化时代。
四
从一些重要的方面看,向自动化行政的转变甚至可以说是对行政法背后原则的某种神化。许多行政法规范聚焦的是行政官员根据授权行使裁量权时所产生的潜在问题。通过行政的自动化,这些潜在问题可以得到缓解,而随着某些政府任务的自动化,人类可能会强化对裁量权的控制。
自动化可以推进长期以来构成美国行政法主要特征的两大主题:一项主题关注的是确保可以对行政权力的行使进行民主问责;另一项主题是试图确保这种权力是基于可靠专家判断的。例如,《行政程序法》规定的武断恣意标准背后的说明理由义务就反映了这两项主题。行政决定的说明理由作为一个基础,既可以有助于确保各行政机关忠实于其民主任务,又可以将其决定建立在合理的证据和分析基础之上。类似地,白宫对未来规章的制度化审查,既有利于加强对民选总统的问责,又能通过要求行政机关开展利益成本分析来促进其专业决策。㉔这种规制审查制度的基本内容,参见Executive Order 12866 of September 30,1993 Regulatory Planning and Review,58 Federal Register 51735(1993).
同样,在Chevron v.Natural Resources Defense Council这一被广泛引用的判决中,最高法院在支持司法尊重行政机关的法律解释,同时强调了民主问责制和实质性专业知识这两项理由,这么做绝不是偶然的。㉕467 U.S.837(1984).作为正式事项,最高法院认为雪佛龙尊重原则的基础是国会明确或隐含地将澄清或填补空白的权力授予行政机关。See Cary Coglianese,Chevron’s Interstitial Steps,85 George Washington Law Review1339,1347-1351(2017).它强调了行政机关是如何位于“政府的政治分支”,以及他们如何同时拥有“丰富的专业知识”,从而比法院更适合对模棱两可的法定术语之含义作出判断。㉖467 U.S.837,865.尽管雪佛龙原则(the Chevron doctrine)本身的未来似乎是不确定的,但是最高法院对问责和专业知识的强调不太可能消失,因为它们是行政治理的固有品质。
机器学习和自动化可以提高问责和专业知识这两种品质。自动化最明显的作用可能是有助于实现专家治理的目标。当自动化系统提高行政决策的准确性的同时,必然会促进行政法提高行政机关提高专业能力的目标,这也正是机器学习和其他数据分析技术看起来前景可期的原因。在专家治理方面,人工智能有望提供最先进的技术。例如,退伍军人管理局(Veterans Administration)最近选择用自动化算法系统来预测哪些退伍军人自杀的风险更高(因此需要更紧急的关怀),因为这个分析系统甚至比经验丰富的精神科医生更为智能。㉗Benedict Carey,Can an Algorithm Prevent Suicide?The New York Times,November 23,2020,(https://www.nytimes.com/2020/11/23/health/artificial-intelligence-veterans-suicide.html).退伍军人管理局的一位精神病学家指出,“事实是,我们不能依靠经过训练的医学专家来识别真正处于高风险的人,(因为他们)不擅长这一点。”㉘Id.
类似地,当涉及到行政法的其他主要目标——民主问责时,自动化系统也能起到推动作用。自动化具有民主优势,这一点初看起来似乎与直觉相悖:基于机器的治理似乎很难与林肯提出的“民治”政府概念相一致。但是,现实是自动化系统本身仍然需要能够设计、测试和审计这些系统的人。只要设计者和监督者按照相关法律用与行政机关设定的参数相一致的方式操作系统,自动化系统本身就可以预防由数以千计的行政官员实施重大国家项目和政策时可能会出现的偏离和推诿现象。即使是根据国会授权制定新的规则,行政机关也很可能会发现,自动化促进而非削弱了民主问责制。机器学习算法本身的特性会要求一定程度的问责制。这些算法如果要发挥作用,不仅依赖“明确性原则(intelligible principle)”提供指引,还需要有可用数学术语精确说明的原理。㉙关于明确性原则学说的讨论,参见Cary Coglianese,Dimensions of Delegation,167 University of Pennsylvania Law Review1849(2019).如此一来,自动化很可能推动在法律中对行政目标作出更明确的规定,甚至超过法院可能复兴禁止权力授出原则时要求规定的明确性。
虽然为了确保所创造的自动化系统符合以民主方式确认的价值观,对自动化系统设计和开发过程的监督仍然很重要,但是自动化系统一旦投入运行,它们就会大幅减少出现俘获和腐败的机会,而这些问题都是行政法长期以来试图防止的。人类可能会追求自己的狭隘利益而非更广泛的公众利益,而算法编程则是为了优化其设计者所定义的各项目标。只要这些设计者向公众负责,只要系统目标是按照相关法律的规定,以非自利方式定义的,那么,算法本身就不会产生俘获和腐败的风险。重要的是,它们在实施法律时比行政官员更具有可问责性。
自动化系统并非万能灵药,负责任地开发和使用自动化系统亦非易事。它们当然可以在法律和道德上有问题的情况下使用。此外,行政机关使用自动化系统,依然要受到行政法以外的约束,例如,根据《宪法》第一修正案或平等保护条款(Equal Protection Clause)适用于所有政府行为的法律约束。事实上,算法偏见的可能性所引发的对平等的关切,很可能成为自动化系统在未来几年内所面临的最突出的法律问题。人类决策显然存在偏见,但机器学习算法也存在偏见,尤其是当用于训练这些算法的基础数据已经包含(人为制造的)偏见时。尽管如此,如果没有独立的敌意表现,基于机器学习算法的自动化系统很可能会顺利通过平等保护原则的审查,至少在平等保护原则没有随着时间推移而发生太大变化时是如此。㉚See Washington v.Davis,426 U.S.229,239(1976).
即使行政官员选择采用包括种族、性别或其他受保护的变量类型的数据,政府使用机器学习算法也能够避免根据平等保护条款的分析对其行为提起诉讼。只要算法编程时所要实现的目标不是以这种受保护的分类来表述的,我们就很难,甚至不可能证明算法将某类变量作为任何特定结果的决定性依据。这些算法生成的结果来自有效的自主数学过程,这些数学过程可以发现变量之间的模式和不同变量之间的关系。可以推断的是,在种族或其他受保护的阶级在政府决策中被赋予了明确的甚至是决定性的权重时,机器学习算法将很少会支持根据已经被最高法院否定的阶级相关变量而做出的决定。㉛See Fisher v.University of Texas at Austin,133 S.Ct.2411(2013);Grutter v.Bollinger,539 U.S.306(2003);Gratz v.Bollinger,539 U.S.244(2003);and Cary Coglianese and David Lehr,supra note①,at 1147.即使在使用阶级变量的数据时,机器学习算法的使用,整体上来说也可能会给受保护阶级的成员带来更好的结果。㉜对算法公平的技术问题所作的清晰解释,参见Michael Kearns and Aaron Roth,The Ethical Algorithm:The Science of Socially Aware Algorithm Design(New York:Oxford University Press,2019),pp.57-93.围绕数字算法如何产生比人类程序更公平的结果而展开的令人信服的讨论,参见Sandra G.Mayson,Bias In,Bias Out,128 Yale Law Journal 2218,2277-2281(2019).
此外,随着对基于算法的自动化系统的依赖不断加深,政府将获得一种新的能力,即通过对其算法进行数学调整,减少不必要的偏见,有时对准确度并不会产生明显影响。㉝例可参见Richard A.Berk and Arun Kumar Kuchibhotla,Improving Fairness in Criminal Justice Algorithmic Risk Assessments Using Conformal Prediction Sets(2021),arXiv:2008.11664[stat.AP];James E.Johndrow and Kristian Lum,An Algorithm for Removing Sensitive Information:Application to Race-Independent Recidivism Prediction,13 Annals of Applied Statistics 189(2019);Jon Kleinberg,Jens Ludwig,Sendhil Mullainathan,and Cass R.Sunstein,Discrimination in the Age of Algorithms,10 Journal of Legal Analysis 113(2018).以这种方式消除算法偏见肯定比目前消除人类隐性偏见更容易。在未来的自动化国家里,政府可能会发现自己不太会受到过度歧视的指控。
基于上述理由,长期存在的行政法原则,甚至宪法原则,很可能将继续在自动化国家中发挥效力,并鼓励行政机构负责任地行事,既能保留民主问责制,又能做出更明智、更公平的决定。但是,这并不是说现有的原则将一成不变。谁都不应指望任何领域的法律始终一成不变。鉴于一些学者和观察者已经开始以批判的眼光审视政府对算法的使用,在具体针对未来行政国家的自动化特征方面,公众态度的转变也许将导致新的、可能更为苛刻的行政法原则。㉞例可参见,Danielle Keats Citron,Technological Due Process,85 Washington University Law Review1249(2008);Karen Yeung,Algorithmic Regulation:A Critical Interrogation,12 Regulation and Government 505(2018).
尽管政府官员无疑将会继续强化自动化系统相关的规范和实践,正如为了利用收益-成本分析等其他分析工具而在过去多年里实现的发展一样,但是行政法的基本原理是否会在算法治理的时代发生巨大变化,这一点还远远没有达到明朗的程度。㉟例如,行政机关在设计算法系统时所作的选择,对此如何记录的规范肯定会发展起来。例可参见Timnit Gebru,Jamie Morgenstern,Briana Vecchione,et al.,Datasheets for Datasets(2020),(https://arxiv.org/abs/1803.09010).毕竟,法官们在审查机器学习算法时会遇到许多困难,就像他们过去在行政管理的其他统计和技术方面所遇到的困难一样,这可能会导致Baltimore Gas & Electric案所体现的司法尊重继续存在。㊱借用伏尔泰(Voltaire)的话来说,如果Baltimore Gas & Electric案没有发生,联邦各级法院仍会认为有必要给予尊重。See Adrian Vermeule,Law’s Abnegation:From Law’s Empire to the Administrative State(Cambridge,Mass.:Harvard University Press,2016).(伏尔泰曾经说过,如果上帝不存在,就应该创造一个。——译者注)此外,与其说公众的态度转向反对政府使用算法工具,不如说公众的期望将受到人工智能在生活其他方面被广泛接受的影响,甚至可能导致其对政府使用算法工具的肯定,而不是继续依赖与算法相比更慢而又更不可靠的程序。出于对算法治理陷入僵化的警惕,法官和行政法学者可能会克制对自动化增加设置学理障碍的冲动。㊲正如Steven M.Appel和我曾经指出的,“不难想象,在不久的将来,公众真的会期待他们的公务员依赖这些技术”。随着复杂机器学习算法在私营部门的迅速推广,公众很可能会期望政府提供类似的准确性和自动化服务。Steven M.Appel and Cary Coglianese,Algorithmic Governance and Administrative Law,in Woodrow Barfield ed.,Cambridge Handbook on the Law of Algorithms:Human Rights,Intellectual Property,Government Regulation(Cambridge:Cambridge University Press,2021),pp.162,165.他们还可能会认定现有的行政法理论包含了确保政府机构负责任地使用自动化系统所需的内容,这也是言之成理的。
因此,如果政府机构希望扩大负责任地使用经过合理培训、审计和验证的自动化系统,确保其符合法律要求,并提高行政机关实施关键任务的能力,他们几乎不需要改变传统的行政法原则就能适应这些创新。行政法也不需要做太多调整(如果有的话),以确保负责任地使用算法治理。总的来说,我们可以想见的是自动化的国家可以比以前更好地实现长期以来为行政法注入活力的善治愿景。
五
尽管行政法的主流原则能够充分应对公共部门对机器学习算法的使用,但是在自动化国家中有些重要的问题可能很容易陷入迷失。自动化国家中,政府可能会更智能,更具有民主可问责性,甚至更公平,但是它甚至可能比今天毫无生气的官僚程序更缺乏感情。通过智能手机和自动聊天与政府进行互动,对于在国家公园预订露营地,甚至报税来讲都是不错的选择,但是,当政府必须作出对于个人福利产生深远影响的重大决策时,这些互动方式可能会忽略善治的一项重要因素,即同理心。在这些情况下,同理心要求行政机构提供人际互动、倾听和表达关切的机会。未来几十年,行政法面临的一项重要挑战将是寻求方法以推动自动化国家同时成为具有同理心的国家。
当然,对同理心的渴求并不必然阻碍自动化的发展。㊳值得注意的是,技术人员甚至正在探索在自动化工具中构建同理心的可能性。例可参见,Pascale Fung,Dario Bertero,Yan Wan,et al.,Towards Empathetic Human-Robot Interactions,in Alexander Gelbukh ed.,Computational Linguistics and Intelligent Text Processing(New York:Springer International Publishing,2018).如果政府顺利完成向自动化国家的转型,那么自动化就有可能提高政府对公众提供同理心的能力,但前提是政府官员充分意识到这样做的需要。随着整个经济体越来越依赖人工智能和其他自动化系统,这种需求将会变得更大。社会需要重视并找到新的方法来完成那些人类擅长的涉及同理心的任务。正如技术专家李开复所指出的那样,目标应该是确保“人工智能处理的是日常的优化任务,而人类……带来个人的、创造性的和富有同情心的风格。㊴Kai-Fu Lee,AI Superpowers:China,Silicon Valley,and the New World Order(New York:Houghton Mifflin Harcourt,2018),p.210.
公共管理专家认识到,这是迁移到自动化国家的巨大潜在优势之一。它可以把政府工作人员从繁重的工作和积压的文件中解放出来,让他们有更多的时间和机会去联系那些受行政决定影响的人。㊵自动化国家的出现无疑将导致政府劳动力的变化,就像人工智能在私营部门的扩大使用将导致劳动力市场的变化一样。David Autor and Anna M.Salomons,Is Automation Labor-Displacing?Productivity Growth,Employment,and the Labor Share,Brookings Papers on Economic Activity,March 8,2018;and David Autor,David Mindell,and Elisabeth Reynolds,The Work of the Future:Building Better Jobs in an Age of Intelligent Machines(Cambridge,Mass.:MIT Work of the Future,2020),(https://workofthefuture.mit.edu/wp-content/uploads/2021/01/2020-Final-Report4.pdf).政府工作人员越来越多地围绕同理心组织起来,这与制造业经济向服务经济或进一步向“共享”经济的更广泛转变相符。See Cary Coglianese,Optimizing Regulation for an Optimizing Economy,4 University of Pennsylvania Journal of Law and Public Affairs 3-4(2018).公共服务伙伴关系(Partnership for Public Service)和IBM商业与政府中心(IBM Center for Business and Government)最近联合发布的一份研究报告解释了这种转变对政府雇员工作的重要性:
“许多展望人工智能在政府中更广泛应用的观察者认为,政府雇员和行政相对人之间将有更多面对面的互动,并有更多机会提供更多的个性化客户服务。政府雇员与行政相对人开展更多接触的转变,预计将成为自动化行政任务若干可能的影响之一。摆脱了繁重的文书工作之后,移民官员可以花更多的时间与签证申请人互动,或跟进处理个人移民案件。科学家可以把更多的时间分配给研究项目的参与者。政府拨款项目的经理可以花更多的时间来了解和支持个别接受拨款者。一项研究表明,联邦雇员现在平均只花2%或者每周不到一小时的时间与客户和机构以外的其他人沟通。与此同时,公民希望政府做得更好。行政相对人与公司之间互动的体验推动了他们对个性化政府服务的需求。在一项对美国等六个国家的6000多人的调查中,44%的受访者优先考虑个性化政府服务。”㊶Partnership for Public Service and IBM Center for Business and Government,supra note ⑯,at 8.
不仅相当一部分公众已经认识到自己需要与政府有同理心、个性化的接触机会,而且随着私营部门各个组织在个性化服务方面加大投入,这也会提高和扩大对政府具有同理心的类似期望。根据对程序公正的大量研究,我们已经知道,政府对待公众的方式会影响他们对所获得结果合法性的认知。㊷Allen E.Lind and Tom Tyler,The Social Psychology of Procedural Justice(New York:Springer International Publishing,1988).为了建立公众对自动化国家的信任,政府机构需要确保公众仍能感受到人与人之间的联系。正如政治哲学家Amanda Greene所指出的,“政府必须让人看到它在真诚地关心每个人的福利。㊸Amanda Greene,Competence,Fairness,and Caring:The Three Keys to Government Legitimacy,Centre for Public Impact,February 27,2018,(https://www.centreforpublicimpact.org/the-three-keys-government-legitimacy/).
行政法能否有助于鼓励有同理心的行政程序?有人可能会说,这已经构成了行政法上正当程序原则的基础目的。毕竟,Goldberg v.Kelly保证某些政府福利的领受人在福利被终止之前,有权在中立决策者面前举行口头听证会,这一权利至少为受到影响的个人提供了与理论上有同理心的行政法官接触的机会。㊹397 U.S.254(1970).See Lucie E.White,Subordination,Rhetorical Survival Skills,and Sunday Shoes:Notes on the Hearing of Mrs.G.,38 Buffalo Law Review 1(1990).但是,Mathews v.Eldridge所反映的如今成为经典的程序性正当程序测试标准,几乎完全没有注意到在政府与公众的互动中倾听、关怀和关切的作用。㊺424 U.S.319(1976).Mathews案对程序性正当程序的定义是基于下列三项因素的平衡:(1)受影响的私人利益;(2)减少决策错误的可能性;(3)财政和行政负担相关的政府利益。机器学习的自动化似乎很容易通过Mathews的权衡测试标准。其中,第一项因素即受影响的私人利益,与机器学习无关,而根据后两项因素,机器学习系统似乎总是表现良好,因为自动化最大的优势就是可以减少错误和降低行政成本。
这就是现有的行政法原则在自动化状态下的不足之处,也是需要更多远见的地方。听证权和说明理由的需要不仅仅是为了实现准确的结果,这也正是Mathews原则的框架所暗示的。相反,听证和说明理由并不总是擅长获得准确结果,至少不像自动化系统那样稳定。2011年的一项研究表明,在社会安全保障局某办公室15名最活跃的行政法官中,“不同法官批准福利的比例……从不到10%到90%以上不等”。㊻Social Security Awards Depend More on Judge Than Facts,TRAC Social Security Administration,July 4,2011,(https://trac.syr.edu/tracreports/ssa/254/).社会保障局对这项研究的某些方面提出了尖锐的异议。例如,该研究显示,同一办公室的三名法官批准不超过30%的申请人获得福利,而另外三名法官则批准超过70%的申请人获得福利。㊼Id.其他研究表明,社会保障残疾福利裁决可能存在种族差异,某些黑人申请者往往比白人申请者获得更不利的结果。㊽例可参见,U.S.General Accounting Office,Racial Difference in Disability Decisions Warrants Further Investigation,B-247327(Washington,D.C.:U.S.General Accounting Office,1992),(https://www.gao.gov/assets/160/151781.pdf);and Erin M.Godtland,Michele Grgich,Carol Dawn Petersen,et al.,Racial Disparities in Federal Disability Benefits,25 Contemporary Economic Policy 27(2007).与这样的历史记录不同,自动化系统具有独特的优势,能够提供更公平、更一致、甚至更快速的决定。
但是,对于那些向政府申请援助或其他决定的人,或者那些发现自己本身受到政府限制的人来说,人类仍然善于倾听和同情他们的困境。㊾关于同理心在行使监管权力中重要性的讨论,see Cary Coglianese,Listening,Learning,and Leading:A Framework for Regulatory Excellence(Philadelphia:University of Pennsylvania Law School,2015),pp.23-25,(https://www.law.upenn.edu/live/files/4946-pprfinalconvenersreport.pdf).我们应当让人类具有的同理心之品质引导程序性正当程序的行政法超越目前只强调减少错误和降低成本的做法。
对一些法官来说,对具备同理心的行政法之需要,可能会让他们发问,在自动化国家中公众是否拥有“接受人类决策的权利”。㊿对该问题的完美处理,参见Aziz Z.Huq,A Right to a Human Decision,106 Virginia Law Review 611(2020).但是,并非所有的人类决策必然具有同理心。此外,接受人类决策的权利可能会带来一种可能性,即只是为了保留人类参与的这一优点,法律需要接受人类决策的所有缺陷。如果事实证明自动化决策越来越比人类决策更准确、更少偏见,那么接受人类决策的权利似乎会让公众失去因算法应用而带来政府绩效改善的机会。
行政法不需要阻碍这些改进。它可以在使用机器学习算法的同时,推动政府寻求更多倾听和同情回应的机会。有时,富有同情心的反应甚至可能要求推翻自动决策,即让人类官员表现出仁慈,在个案基础上做出不同的决定。毕竟,自动化系统本身仍然会导致错误,而联合的人机系统在减少错误方面有时可能比单独操作的人或机器做得更好。然而,挑战在于要确保有足够的裁量权结构来推翻自动化的结果,以免人类的例外情况吞噬了自动化规则。See Cary Coglianese,Gabriel Scheffler,and Daniel E.Walters,Unrules,73 Stanford Law Review 885(2021).一种解决方案可能是创建专门用于帮助解决这个问题的自动化系统。如果自动化系统不仅能生成结果,而且还生成对该结果的置信度预估值时,那么只在系统的置信度预估值足够低的情况下,才能引导人类超越同情的倾听,并提供仁慈的例外。正如最高法院在Goldberg v.Kelly中坚持对福利领受人终止福利前举行听证一样,未来法院可以询问特定利益是否具有足够的品质和重要性,从而要求行政机关为受自动化程序影响的个人提供更多的接触和援助。各级法院可以通过这种方式强化行政机关工作中的最佳实践,以提供具有同理心的接触和援助。
最后,如果自动化国家的行政法要采用任何新权利,法院拒绝承认接受人类决策的权利,对社会更为有利。相反,法院可以考虑并尝试界定获得人类同理心的权利(right to human empathy)。