APP下载

超越“公平的不可能性”:从形式到实质性算法公平的转向

2023-11-21郭佳楠侯攀涛

甘肃理论学刊 2023年5期
关键词:实质性方法论公平

郭佳楠,侯攀涛

(1.郑州工商学院 马克思主义学院,郑州 450000;2.中国人民大学 数字人文研究中心,北京 100872)

目前,机器学习算法已被广泛使用,并且在商业和政府的自动化决策系统中变得越来越重要。以机器学习为主的决策算法凭借其处理海量信息和看似公平的输出的优势,被认为可以成功地支持决策公平的实现。然而,事实上,现实情况并非如此,因为机器学习算法并不总是像人们期望的那样客观公正,算法很容易受到社会偏见或其他歧视性观点的影响,从而导致“公平的不可能性”。此外,算法本身也可能导致算法不公平/歧视,因为算法可能会牺牲少数群体的高质量或性能来获得整体样本的更高准确率,同时使少数群体处于不利的社会地位。基于此,越来越多的人意识到如何从真正意义上来保证算法的公平决策具有重要的理论意义和应用价值。

本文首先阐释“公平的不可能性”的基本内涵与核心范畴,并分析了算法运行陷入“公平的不可能性”的现实困境,进一步表明形式算法公平方法论无法在具有关系性与结构性不平等的政策环境中促进公平与正义,通过探究实质性算法公平方法论,可以发现这个方法论对于实现算法公平性是十分有益的,并且能够将其应用于实现算法公平性的实践路径探讨中。

一、 公平的不可能性:算法的公平性及其现实困境

(一)“公平的不可能性”及其范畴嬗变

聚焦当下,社会公平往往由数学模型而非人来决定,人们进而期望利用算法重塑一个更加客观的现实世界,但事与愿违,改善问题的系统却反过来使问题更严重,算法“黑箱”、算法运行系统难以审查等内在缺陷引发的偏见与歧视备受公众关注与指责,社交媒体中的算法操纵、算法武器化所催化的假新闻泛滥让民众忧虑不已,数据科学家凯茜·奥尼尔称之为“数学破坏的武器”[1]。

2016年5月,据美国非营利新闻机构Pro-Publica的记者报道称,佛罗里达州布劳沃德县用于判断审前被告的风险评估算法“对黑人有偏见”[2]。这种被称为COMPAS的算法是由Northpointe公司创建的,并被美国许多法院系统所使用(1)COMPAS全称是Correctional Offender Management Profiling for Alternative Sanctions,意为“替代性制裁为目标的惩教犯管理画像”。它是用于评估被告人员将再次犯罪的几率,基于被告的犯罪记录以及其他一系列因素,来评估他们在未来两年内被再次逮捕的可能性。其风险评估的结果会影响到法官关于保释甚至判决的最终决定,也就意味着,如果算法不准确,一些低风险的被告反而会被判决更长时间,对任何受到影响的人都有着重大的危害。Northpointe 公司已更名为Equivant。。与其他审前风险评估一样,COMPAS会预测审前被告再次犯罪的可能性;而这些预测会呈现给法官,以告知或影响他们在审判前释放或拘留每个被告的决定。通过对7000多名罪犯的追踪调查,ProPublica发现,在那些接受评估后两年内未被捕的被告中,黑人被告被COMPAS错误分类为“高风险”(即受到误报预测)的可能性是白人被告的1.9倍[3]。

应该说,关于COMPAS程序的辩论涉及算法公平的两个不同定义。第一个定义是“分离(separation)”[4],即如果所有受算法预测影响的群体都经历了相同的假阳性率和相同的假阴性率,则满足该定义所规定的条件(2)“分离”的定义符合公平的标准,如错误率平衡和正/负类的平衡。。“分离”所要表达的是这样一种观点,即表现出相同结果的人应该得到类似的对待。ProPublica认为COMPAS程序是有偏见的,因为它与“分离”的概念相悖:黑人非累犯比白人非累犯更有可能被贴上“高风险”的标签。

关于算法公平的第二个定义是“充分性(sufficiency)”,如果在接受特定预测的人群中,所有群体都以相同的比率表现出被预测的结果,则满足该定义所规定的条件(3)“充分性”与公平的标准(如校准和预测奇偶性)具有内在一致性。。“充分性”所要表达的观点是,即同样有可能表现出感兴趣行为的人应该受到类似的对待。而Northpointe公司以及一些学者之所以认为COMPAS程序是公平的,则是因为它符合“充分性”的概念:“高风险”的标签意味着黑人和白人被告的再犯概率相似。很大程度上,“充分性”被认为是实现算法公平而最广泛使用的概念,特别是因为机器学习模型通常被默认应该符合这一概念及其相关原则与要求。

最终,在这场关于COMPAS程序的辩论中提出的一个涉及算法公平的基本问题是:一个算法能否同时满足“分离”与“充分性”的定义?而正如随后计算机科学家所发现的那样,答案是否定的:这些关于公平的定义之间存在着不可避免的相悖或紧张关系。这一发现结果也被称为“公平的不可能性”。而超越这种不可能性的唯一例外则涉及两种极为罕见的情况:即算法以完美的精确度进行预测,或者所有组/群体都以相同的“基本速率”显示预测结果。

大量的算法实践表明,算法公平的不可能性在某种程度上反映出人们通过使用算法促进甚至实现平等所面临的严峻而棘手的困境。这种困境在公共政策领域表现得尤为令人担忧,因为公共政策领域决策者通常会采用算法来提高离散决策过程的公平性。此外,算法公平的不可能性也对算法正义的支持者们提出了一个特殊的挑战:因为他们的提案会涉及为了支持替代措施而违反充分性,所以这种尝试通常会被反歧视法所禁止。也就是说,促进算法公平与算法正义的很多努力都是在“公平的不可能性”所施加的约束下进行的。本质上,“公平的不可能性”指的是变革者可以(1)选择满足某个单一的公平定义(及其规定性)而牺牲其他定义;或者(2)严格平衡多个定义之间互动关系。然而,也正是“公平的不可能性”的这一特质直接导致算法治理方式的狭隘变革,继而在实际意义上形成了不公正的社会条件、维护了不公正的社会制度。

(二)算法公平的概述及其类型界分

在风险社会袭来与智能技术勃兴相互叠加的时代,算法的有效运行成为了支持社会公平改革努力的决定性力量。算法的公平性主要是基于计算机科学,将算法设计与分析工具——尤其是将形式数学推理看成其重要一环——应用于实现社会公平。算法公平性的核心要素是制定公平决策的数学定义与公式,并针对这些定义与公式不断地优化改进算法,审查并改正违反这些定义的算法。在公共管理改革与发展的大趋势下,算法的公平性方法通常用于确定算法是否公平,进而确保这些算法是否适用于决策公平。

一般而言,算法公平更多地将其关注点放在公民个人的不良行为、社会个体的歧视性行为以及市场经济中有限的商品或服务上,在某种程度上这也反映出一些反歧视话语中最有问题的倾向被作为了一种实现平等的机制[5]。因此,公平性的数学评估与算法的现实世界影响之间往往存在着显著差距。为了满足公平标准的算法通常会加剧社会压迫并使不公正的制度合法化。对于这些批评而言,一些学者呼吁应该完全拒绝“公平”的算法治理框架,转而提出“正义”“平等”与“补偿”的可替代性治理框架[6]。

之于算法公平而言,可将其大致分为两类:一类是“形式算法公平(formal algorithmic fairness)”,因为它与形式意义上的平等相一致,强调基于个人在特定决策点的属性或行为对个人予以平等对待。形式算法公平代表一种系统化的问题表述方法,其中公平是在孤立的决策过程或情境中实现的。由于形式算法公平的概念构建过于狭隘,它会产生一种被误导的、以技术为中心的变革策略:通过使用算法优化决策过程来提高公平性。遗憾的是,这些算法干预往往会加剧社会压迫,并受到“公平的不可能性”的制约。因此,形式算法公平会使变革者陷入这样一种困境:似乎唯一的选择或解决方案就是采用表面上看似“公平”的算法,或者拒绝算法改革,保持现状。

另一类是“实质性算法公平(substantive algorithmic fairness)”,因为它借鉴并建基于实质性平等的法律规范与哲学理论,这些规范与理论旨在消除统治和形成社会压迫的条件。算法方法论变革的目标并不是要将实质性平等纳入形式的数学模型:因为这种策略将无法从根本上提供必要的方法论转向。实质性算法公平不是将公平视为算法的某种技术属性,而是关注算法是否以及如何在实践中促进公平。因此,可以说,实质性算法公平意味着一种双管齐下的变革策略,它超越了那些努力在决策过程中想要实现的形式平等。首先,它缩小普通公民与影响决策过程的社会上层之间的差距。其次,它减少在决策过程中算法偏见或歧视可能对社会底层群体造成的危害。由此视之,这种方法论变革所产生的算法干预不仅能够避免甚至超越“公平的不可能性”,而且反过来也有助于算法在应用实践中尊重人权价值、维护“数字人权”和促进社会公平正义。

(三)算法公平的现实困境

在社会实践中,实现算法公正的努力往往会受到基本的技术限制而导致“公平的不可能性”[7]。不少研究表明,算法不可能满足公平决策的所有理想数学定义与公式。一种算法在某个评估标准上是公平的,但是在另一个评估标准上不可避免地是不公平的。尽管算法公平的数学定义与公式还没有完全囊括公平或正义的哲学概念,但每个定义都包含着一个合乎规范的原则。

“公平的不可能性”似乎在很大程度上限制了算法促进实现公平的公共政策的潜力:任何使用算法改进决策的努力或实践都将违反至少一项规范性的公平原则。理查德·伯克(Richard Berk)等人认为,算法开发人员在实践中促进公平或正义的最佳方式是以牺牲其他公平的数学定义为代价,以求选择另外一些(有限的)公平数学定义来找到社会公平、个人权利保护在算法秩序中的理性回归。然而,这种策略在本质上具有局限性,正如伯克在其文章中所总结的那样,“不同类型的公平之间的权衡具有实质上的相互影响,这意味着算法无法实现绝对意义上的公平”[5]。同样,算法正义的支持者们认为,正是由于这些权衡公平正义的法律影响,很可能导致相关算法正义的方法论在实现过程公平与结果公平上不会取得较大进展[8]。作为对于这些困境的回应,本文试图从算法公平策略的角度切入,通过把握算法偏见或不公平产生的环节及其存在的社会等级制度差异及事实风险,认为有必要在算法公平的方法论领域进行变革,以期对构建算法正义的社会秩序有所裨益。

二、形式算法公平:应对“公平的不可能性”困境的探索

(一)公平竞争响应:重现不公平

针对“公平的不可能性”困境,第一种形式算法公平的回应就是“公平竞争响应”[9]。以美国非营利新闻机构ProPublica发布的COMPAS报告为例,大多数批评认为算法公平的正确定义是“充分性”(COMPAS报告能够满足这一定义),而不是“分离”(COMPAS报告违反这一定义)。这一响应方法论也恰恰运用了公平竞争的逻辑:应仅根据被告再次犯罪的可能性来对他们进行评估。按照这个逻辑,COMPAS的报告是公平的,并且提出黑人被告会产生更高的误报率,仅仅是因为他们更有可能再次犯罪。正如Northpointe公司所解释的那样,Pro-Publica提出的对“分离”定义的背离没有显示出偏见的证据,而是对恰好具有不同分数分布的群体使用无偏见评分规则的自然结果。

对此,持公平竞争响应观点的人认为,公平意味着仅根据人们表现出特定利益结果的可能性来做出关于他们的决定。在这种逻辑下,算法偏见可以被理解为一个系统性错误陈述的问题。在这里,实现算法公平的最佳方法就变成了提高预测准确性,并确保决策是基于对每个个体的准确判断。然而,由于这种观点对决策过程的狭隘关注,也必然促致公平竞争响应无法解释算法不公,并因此展现其他更广泛意义的不公正模式。在更深的层面上,公平竞争响应将风险视为一种个人的内在与中立的属性。这种响应作为社会压迫的产物,它使得社会群体的风险差异进一步自然化。

另外,这种公平竞争响应的观点忽视了算法可能促成或导致的不公平后果。当风险评估将被告标记为“高风险”时,该人可能会被拘留在监狱中直至审判。这种因被告的犯罪风险而拘留被告的做法,被称为“预防性拘留”[10],希玛·巴拉德兰(Shima Baradaran)批评这种预防犯罪的方式会严重侵犯人权,并进而损害被告的合法权利,在很大程度上加剧了大规模监禁行为的产生。同时,审前拘留对被告的现实生活也带来了巨大的负面影响,其中就包括失去自由、增加定罪的可能性以及减少未来的就业机会等。

最后,由于未能全面考量与审前决策相关的社会等级制度以及有害的社会政策的影响,尽管公平竞争响应提出了一种解决上述问题的策略,但是在这种策略中面对最佳的案例情境——完全准确的风险评估——也会使种族不平等永久化。从这种预测指导审前决定的角度出发,该风险评估将导致如美国黑人被告的审前拘留率高于白人被告。这实际上会天然地对黑人社区产生不良影响,因为他们首先不公正地受到了所处的犯罪环境的影响,同时却被要求提供一种看似公平的社会表象。

(二)形式主义响应:一种限制性改革

对于超越“公平的不可能性”的第二种形式算法公平的回应就是“形式主义响应”[11]。 这种响应不是选择单一的公平指标,而是侧重于平衡竞争指标之间的差异。持形式主义响应观点的人认为,正是由于算法的形式主义揭示并澄清了不同种类公平概念之间的不可权衡性,从而充分地说明算法在个案中的内在要求和具体语境,否则关于公平概念可能仍然是不透明且不明确的。在这种观点的指引下,他们认为算法可以成为维护社会正义的积极力量,因为算法让不同利益相关者能够精确地量化社会不同目标之间的差异,并迫使他们对基本原则做出更明确的判断。

尽管形式主义响应提供了关于特定决策点内权衡不同指标的数学严谨性,但它本质上是一种受限的、以技术为中心的改革策略。首先,形式主义响应让人们无法在两个有限的公平概念之间做出零和选择。虽然基于分离性的实现算法公平方案似乎是基于充分性的理想替代方案,但它也存在一定的缺陷。此外,尽管缺乏分离性意味着不同的社会群体面临着由于错误判断而导致的不同后果,但分离性并不能防止与准确预测相关的不公正现象的发生。其次,形式主义响应遮蔽了系统性的改革路径。风险评估中的公平性研究在分析之初就明确将结构性改革排除在外,将种族差异置于公平与算法开发者的责任之外。根据这一视角的假设,唯一可能的行动是释放或拘留被告,这表明改革仅限于在决定释放或拘留谁时平衡价值观之间的差异。如果按照这一逻辑,那么形式主义响应表明,唯一可能的替代性方案是使用算法来优化特定的决策过程。然而,作为一种实现公平公共政策的策略,这种策略从根本上是有局限性的:仅靠改革决策程序来纠正不平等的努力往往会掩盖并强化压迫的实际根源。

事实上,正是由于形式主义响应的狭隘适用范围使得“充分性”与“分离”之间的紧张关系显得如此棘手甚至陷入“一种令人不安的两难境地”[12]。 从严格意义上来说,“不可能”的是在不平等社会中对个人做出决定时,同时满足公平的所有数学定义。然而,由于它依赖于仅限于孤立决策点的高度受限的社会变革理论,形式主义响应在一定程度上放大了这种数学不相容的风险。当社会的其他方面都被视为静态或无关紧要时,公平决策的数学定义就开始代表了“完全公平”。 在这一有限的分析框架内,对公平决策的数学约束成为了根本意义上的“公平的不可能性”,这也表明该理论对促进平等的改革存在着不可避免的约束。

(三)形式算法公平方法论的局限性

实质性的平等分析法揭示了“公平的不可能性”以及形式算法公平所存在的局限性(见图1)。当人们在做出以下决策时,会就“公平的不可能性”产生争议或者担忧:(1)受压迫群体不成比例地表现出在给定背景下被视为“负面”的属性(如高犯罪风险指标),以及(2)政策惩罚显现出具有这些负面特征(如审前拘留)的个人。一旦这些关系性与结构性危害出现,任何使用算法改进决策的尝试都将无法超越“公平的不可能性”。图1恰恰描述了围绕决策过程的关系性与结构性危害如何使“公平的不可能性”成为算法决策的一个令人不安的难题。易言之,如果没有社会等级制度,或者如果相应的决策没有加剧社会等级制度导致的冲突与矛盾,那么就不会出现“公平的不可能性”。

图1 描述“公平的不可能性”原因以及形式算法公平有限性的流程图(4)在决策过程的上行环节,群体差异的关系性危害导致了“公平的不可能性”。如果相关社会群体以相同的比率表现出其感兴趣的结果,那么决策过程就有可能应用不完美的算法并同时满足“分离”与“充分性”的概念。在决策过程的下行环节,惩罚显现出相关“负面”属性的个人的结构性危害导致“公平的不可能性”,这甚至进一步巩固这种不公正。

同时,图1也进一步阐明了为什么形式算法公平在方法论上无法在具有关系性与结构性不平等的政策环境中促进公平与正义。导致这一问题的根本原因在于“问题构思方式上的缺陷”: 形式算法公平将分析限制在孤立的决策点上,而这一有限的分析范围意味着形式算法公平“不能全面地找到某些不公正产生的原因”[13]。这样,形式算法公平也就“无法帮助我们确定不公正问题的解决方案”[14]。 因此,为了制定一个积极有效的议程来解释关系性与结构性危害如何阻碍决策算法正义的实现,有必要建构一种新的算法公平方法论,从而将影响算法公平的关系性与结构性因素纳入其分析范围之中。

三、实质性算法公平:超越“公平的不可能性”

(一)面向改革的实质性算法公平方法论

在智能时代的算法治理视域中,与形式算法公平一样,实质性算法公平改革的出发点是关注并解决特定决策过程中的歧视或不平等。基于上文对实质性平等方法论的阐释,这里的实质性算法公平提出了在平等困境下促进并实现平等的三个步骤(见图2)。图2的流程图为实施这些步骤提供了指南,该流程图将实质性的平等目标转化为各个具体问题,从而更好地供计算机科学家、政策制定者以及其他参与者在开发和实施算法之前进行考量。同时,该流程图也有助于使实质性算法公平的努力免于重蹈以往由形式算法公平引导的狭隘的和以技术为中心的改革失败的覆辙。

图2 实施实质性算法公平的流程图(5)该实施过程从流程图的顶部开始,它着重关注特定决策过程中的歧视或不平等。该图反映了侧重于关系性与结构性不平等的实质性平等考量。如果关系性问题与结构性问题都不显著(即步骤1中两个问题的答案都是“否”),那么该过程将过渡到形式平等考量。在这种情况下,这些问题将类似于形式算法公平中已经存在的其他问题。从这个意义上说,实质性算法公平更多地代表了算法公平方法论的一种扩展,而不是对形式算法公平的完全拒绝或取代。

第一个步骤是诊断目前所讨论的所有不平等现象的实质。凯瑟琳·A.麦金农(Catharine A MacKinnon)认为,要完成这一步骤首先需要厘清相应社会等级制度之间的差异及其运行情况,并质疑社会和其他制度安排如何强化这些差异或情况。当面对数据差异时,实质性算法公平方法论所提出的问题是:这些差异是否反映了社会等级制度运行所依赖的社会条件或情境?同样,当面对特定的决策点时,实质性算法公平方法论的问题是:这些决策(以及它们倡导的干预措施)是否加剧了社会等级之间的分化或差异?如果这两个问题的答案是否定的,那么形式算法公平方法论会提供一条合适的前进道路[15]。然而,如果这些问题的答案是肯定的——就像在面对高风险决策中的不平等时所表现出的那样——那么以形式上的平等为指导的改革将是不够的。

第二个步骤是考量哪些类型的改革能够减少或消除第一个步骤中提到的实质性不平等。实质性算法公平的第一个方法论路径是关系性响应:即减少反映社会等级制度的尊严与物质差距。究其根本,关系性响应方法论试图减少算法在社会上层之间产生的不平等,因为这些不平等往往会影响到相关的决策过程。第二种方法论路径是结构性响应:即通过改变决策结构以减轻因决策而加剧的社会等级分化或不平等程度。结构性响应方法论则试图减轻算法歧视或不平等对那些在相关决策过程中处于劣势地位的人或社会底层群体所造成的伤害。显而易见,正是由于这些方法论改革针对的是产生平等困境的关系性与结构性因素,因此它们在治理逻辑上提供了一种超越“公平的不可能性”的可行性路径。

第三个步骤是分析算法是否以及如何巩固或促进第二个步骤中所确定的改革方案。而在这一步骤中所要强调的关键词是“巩固”与“促进”。因此,在估量算法潜在作用的过程中,计算机科学家应该首先警惕技术决定论以及算法可以解决所有社会问题的假设,其次应通过优先考量改革的“不可知论方法”来反思算法干预,而不是假设算法在此过程中能够发挥任何必要或特定的作用[16]。 这一分析的关键在于揭示当今社会中的许多算法运行过程是不必要的,甚至可能引发严重的信息不对称与隐私侵害问题,进而阻碍算法公平改革的实现。

(二)实质性算法公平方法论在审前程序改革中的应用

1.第一步:识别并诊断不平等现象

在应用实质性算法公平方法论进行审前程序改革之前,第一步是综合考量审前决策中表现出的实质性不平等现象。如前文所述,美国黑人和白人被告的累犯率差异反映了种族等级制度产生的关系性危害。这种差异不能简单地归因于偶然或固有的群体差异(也不仅仅是测量偏差的结果)。此外,预防性拘留措施或制度会带来结构性危害,它会通过剥夺高风险被告的正当权利并使他们遭受负面的社会影响或后果,从而进一步加剧种族等级之间的分化或不平等。

2.第二步:确定潜在的改革方案

除了通过审慎和理性地分析这些不平等现象产生的根源和特征之外,第二步应该考虑的是在什么场景下应用哪一种改革方案,从而从根本上消除第一步中发现的实质性不平等现象。实质性算法公平性更多地是提出减少群体行为经验差异的解决方案,从而最大限度地化解潜在种族等级制度带来的信息不对称和权利不平等。

一方面,关系性响应方法论要求改变定义“风险”的社会网络结构,从而减少风险在不同人群中的不平等分布。这就需要将研究的问题意识聚焦到算法运行的复杂化场景中,重新定义风险的概念与分布,并思考算法如何通过与特定社会既有知识形态、日常实践、政治和文化生态彼此融汇,进而识别此间涌现的诸般表象并揭示其背后的运作过程。这种反思会对审前拘留决定产生重要影响。鉴于此,通过与算法系统的直接接触,人们在与数字场景即时嵌入式的交互中认识到,经验层面上的种族风险差异更多的是偶然的社会制度安排的产物,对此,关系性响应方法论提供了一种改革策略,它可以在不忽视或否认这些差异的情况下使审前裁决更加公平。

另一方面,结构性响应方法论要求改变审前决策的制度安排或结构,以减少与高风险再犯相关的有害后果。这需要以超越释放/拘留二元化的方式来应对不公平的风险。不少学者和决策者认为,更公平的审前裁决会与公共安全产生直接冲突。相较之下,结构性响应方法论的价值意义在于通过发挥政府的调节作用,能够消除社会对高风险被告人的歧视或偏见而不仅仅是拘留他们。为平衡算法推送带来的信息不公,结构性响应方法论提供的改革策略是在不损害公共安全的前提下,使得审前裁决更加公平、公正,从制度结构构建层面抵御算法“黑箱”,纠正算法在决策应用中的不合理环节,保障算法运行中的科学和公正。

3.第三步:分析并考量算法的角色

通过上述根据不同场景类型确定对算法采取不同的规制方案后,第三步是分析并考量算法在推进关系性改革与结构性改革中潜在的作用与影响。在关系性响应方法论运用的过程中,关键问题是算法是否能够改善或推进已确定的关系性改革方案。沿着这一思路,可以明确的是通过使用算法,能够以清除不利犯罪条件的方式来降低美国黑人社区的犯罪风险概率。另外,通过使用算法还可以有效地减少或打击针对社会少数群体的刑事定罪行为。其中一种途径就是改变指导审前决策的“风险”概念。由于审前风险评估定义“风险”的方式未能考虑到拘留对被告及其社区的危害,而这些危害对于边缘化的被告来说往往更为严重。因此,重新界定关于“风险”的更全面的概念能够使人们更多地对“以比白人被告更高的比率拘留黑人被告”采取审慎的态度。

在结构性响应方法论运用的过程中,关键问题是算法是否能够改善或推进已确定的结构性改革方案。由此,可以发现通过使用算法,能够减少种族差异对累犯风险的危害。算法可用于针对风险做出支持性而非惩罚性的化解对策,进一步减轻而不是加剧被告高累犯风险背后的不公正程度。另外,通过使用算法还可以有力地支持更广泛意义上的结构性改革政治议程。同时,算法也可以通过赋予倡导刑事司法改革的社区权力,并支持承诺进行此类改革的政治候选人的竞选活动,从而使结构性改革更有可能实现。

总之,实质性算法公平表明了这样的社会变革理论,即通过对社会条件与制度的广泛分析,现有的社会系统将如何改变原有系统的行为和内在价值,以及这些变革理论如何为不受“公平的不可能性”影响的算法干预提供有价值的方法论[17]。应该说,实质性算法公平不仅仅为审前风险评估提供改进路径,还对审前改革的算法进行了不断完善。

(三)社会实践中的实质性算法公平

1.对算法相关从业者的启示

在人的数据化生存中,实质性算法公平方法论对计算机科学的未来发展具有重要意义,而该领域也最关注如何实现算法公平以及解决“公平的不可能性”难题。在这种方法论的指引下,以往仅仅根据数学测试来认定某个算法是否公平已经远远不够,而是还应该考虑到关系性与结构性不平等以及采用何种变革理论来弥补这些不平等,算法是否在真正意义上能够成为推进所需变革进程的有效工具。

实现这种方法论与治理的变迁就需要促进计算机文化及其实践的变革,从而夯实算法公平实现的理论基础。首先,对算法相关的从业者而言,未来计算机科学从业者的培训必须超越其传统意义上对算法数学特性的单纯强调,从而更多地纳入规范性推理、社会技术系统与社会变革理论。此外,计算机科学的培训还必须反复强调算法对现实世界的影响。除了侧重于开设道德和社会技术系统的课程外,其他相关课程还应包括基于社会实践的操作课程,从而使得学生能够在这些课程中与越来越多的社会组织进行协同合作。同时,此类课程还有助于相关从业者或学生根据更广泛的社会背景来考量算法的社会影响,并理解那些选择不设计可能加剧不平等的算法力量。其次,计算机科学从业者在推进实质性算法公平改革的过程中,还需要克服计算机科学中的文化与制度障碍。最后,在算法研究的类型方面,计算机科学部门也不应该鼓励那些单纯采用定性推理模式的研究,从而避免忽视这些新方法对社会影响的考量。

2.对算法政策制定者的启示

自主性的算法在创制自身的同时,也在形塑着国家治理结构,实质性算法公平要求现存的政府适时转变治理重点以及制度政策,以更多元的价值理念提升算法治理效能。基于此,政策制定者应该在算法治理过程中回归人的主体性,以清晰的认知、判断指导现实决策,从以往将算法视为技术工具的观点转变为将算法使用视为一种政治努力的观点,而非受制于算法,成为算法社会的囚徒。实质性算法公平方法论表明,实现算法公平的民主化不仅需要在更广泛的场域内进行,而且还需要实现决策的民主化。

严格说来,实质性算法公平改革是以涉及社区、社会运动和改革的倡导者的算法为中心议题,并通过不同相关主体在一定的算法规则之下围绕公共事务所进行的改进政策的过程。而这些社会群体在实质性算法公平方法论的指导下,也更清晰地认识到看似中立的、公平的算法如何代表一种狭隘的改革方法并可能固化相应不公正的政策。在这种情况下,不断创新并推进实质性算法公平改革才能帮助这些社会群体将算法纳入其更广泛的结构性改革愿景中,也是实现算法治理现代化的应有之义。

3.实质性算法公平改革实施中可能面临的挑战

在算法改革实施环节,尽管越来越多的计算机科学家、政策制定者和社区都开始关注实质性算法公平方法论的实践效果,但想要回答上图2中提出的问题仍然是一项艰巨且具有政治争议的任务。特别是实质性算法公平并未提供精确的改革路线图,而是提出了一系列实现算法公平不可忽视的政治社会问题,并提供了以原则性方式回答这些问题的概念工具。

同时,回答前文所述的实质性算法公平方法论在审前程序改革第一步中的问题还将涉及一些有争议的概念,即哪些类型的不平等是不公正的,哪些证据构成了社会等级制度的充分证据。就一般意义而言,形式算法公平改革面临的一个核心挑战是其支持者倾向于在第一步中对上述两个问题都回答“否”,甚至在分析审前裁决等情况时回答也是如此,因此不少学者与社区组织都选择谴责种族等级制度的存在。进一步而言,许多政治参与者和技术公司也受益于形式算法公平的方法论,这使他们能够在不做出重大政治或经济让步的情况下接受“公平”,此类事实的存在也更加凸显了应对这一挑战的必要性。

在对于设计具有公平性意识的算法的探讨中,第一步中的另一个挑战是要确定算法设计所考虑的层次结构的范围。而算法决策系统产生的歧视,很大程度上与种族、等级制度导致的社会不平等有关,这也是如何超越算法“公平的不可能性”的中心议题之一。然而一般来说,种族、等级制度存在于社会中的方方面面,包括不同社会个体的性别、阶级、能力、性取向和年龄(与种族等级制度并存或不存在)等,并且不同种族与等级制度的社会表征通常会以交叉与融合的方式表现出来。可以说,在回答第一步关涉的社会等级制度的问题时,重要的是要考虑多种形式的等级制度产生的原因以及这些等级制度如何实现交叉融合。之后在理想情况下,通过进行扩展分析,进一步判断并考量最显著的社会等级制度如何与其他特权和社会劣势群体实现相交融合。

在第二步中,相关计算机科学家、算法从业者和政策制定者面临的一项重大挑战是,制定一项战略来消除第一步中确定的实质性不平等现象。尽管关系性与结构性响应方法论为确定潜在的改革提供了一般性原则,但即使掌握了这些原则,不同的算法利益相关者也无法通过单一或直接的途径来实现变革[18]。 美国社会学家埃里克·欧林·赖特(Erik Olin Wright)为此提供了一种策略,可以将广泛的改革简化为更具体且可操作性的改革。首先,关注改革的合意性:在抽象意义上,制定一系列具有规范吸引力的替代性政策与社会制度安排。其次,关注改革的可行性:根据有关制度设计和社会组织的现有知识,评估如果在实践中实施哪些理想的替代方案可能会减轻社会等级制度带来的危害。最后,关注改革的可实现性:考虑哪些可行的改革实际上可以获得实施所需的支持与牵引力[19]。他认为按照这一策略安排,实质性算法公平并不假设或要求其建议的所有改革都可以立即实现。相反,它提供了一系列选项,改革者可以从在特定论争领域内看起来最有希望的多种路径中进行选择。

在第三步中所面临的挑战是算法是否能够推进第二步中确定的改革方案。尽管计算机科学教学法、企业广告和媒体提倡那种依赖技术为社会问题提供解决方案的理念,但是在第三步中不同算法利益相关者也需要接受算法可能根本不是促进或推动某些改革的有效工具的事实。也许只有当与更广泛意义的政策和治理改革方案相结合的前提下,算法才最能有助于促进社会变革的发生。而决定是否以及如何使用算法而不陷入解决方案主义的一种策略就是积极与倡导改革的社区进行合作互动,向社区成员说明并解释如何将数据分析与技术设计纳入社区驱动的改革努力,让每一位社区成员在理论与实践上都获得享受信息公平的可能。

四、结语

随着社会发展和网络技术进步,作为公民的基本权利之一以及社会公平重要组成部分的算法公平,不仅是学界业界的研究对象,更应成为整个社会和每个公民的共同追求。而算法公平正在为促进公平的公共政策实施提供一个越来越有影响力的工具性选择。在日常生活数字化过程中,算法的相关从业者与政策制定者必须考虑算法公平是否提供了合适的概念与实践工具来指导改革。由于形式算法公平将其分析逻辑局限于孤立的决策点中,因此导致它无法解释社会等级与算法决策的影响。这也促致形式算法公平的改革努力无法扩展到实现社会公平的类别及范围内,而使其变成了以维护社会等级制度为旨归的规则设置。与之相反,实质性算法公平为算法公平的实现指明了新改革航向,它更多地将算法纳入更广泛的政治改革议程中。在算法改革场域中,实质性算法公平不仅提供了一种超越“公平的不可能性”的新方法论,而且还为算法在减轻社会压迫方面发挥了积极作用[20]。除了使用技术方法对抗偏见,即使对于那些对实质性平等有着广泛且深刻理解的人来说,实现他们的算法公平愿景也还需要与致力于维护社会等级制度的人和机构进行博弈。实际上,实质性算法公平描绘了这样一个场域,在这个场域内改革者们应该为更平等的社会而奋斗。与实现实质性平等的所有努力一样,实质性算法公平需要持续性的社会政治改革,并不断创造出适合这项改革的条件与环境。

面对新的社会形态,构成实质性算法公平基础的正义与平等原则本身并不能作为唯一或最高的社会价值观,因为在社会内部以及不同社会形态之间,还有许多基本价值观是共存的,如正义、平等、自由、忠诚、同情、美德、尊严等。尽管这些价值观通常在内在要求和具体语境上是一致的,但它们在积极变革算法社会的构成中也会不可避免地发生冲突与矛盾,并且很多时候无法分解为清晰的层次结构。实质性算法公平并不能全面实现所有的社会规范性目标,它所追求的核心目标必须与其他社会价值观或评估标准相平衡。更准确地说,实质性算法公平提供的是一种确定算法如何促进公平的公共政策得以实现的方法论,其关注的焦点在于如何为涉及歧视与不公正问题的决策扫清法律和制度上的障碍。在这个意义上,即使实质性算法公平并不能为实现算法公平的社会改革提供精确或全面的路线图,但它却为这项改革提供了一个颇具价值的“指南针”,从而有助于计算机科学家与政策制定者思考算法在打击社会不公平问题方面应发挥的适当作用。总之,从对社会等级制度与社会变革的实质性分析开始,未来亟待实质性算法公平提出一种基于制度、技术、社会规范等多重维度的研究框架,为算法公平性问题提供一个更为合理的解决方案,从而让渐进式的算法改革与政府、市场和(市民)社会三者“各美其美、美人之美”,共同构建一个科学、人本、平等、包容、普惠、共治的算法社会。

猜你喜欢

实质性方法论公平
不公平
检察机关实质性化解行政争议实证研究
公平对抗
怎样才公平
拜登和习近平举行“广泛和实质性”视频会晤
孤独会造成实质性伤害
汉学方法论值得关注
方法论视角下的制定法解释
法本位的方法论阐释
UAF的方法论意义