APP下载

算法治理的正义尺度

2022-07-13马长山

人民论坛·学术前沿 2022年10期

【摘要】算法治理是数字时代的一个核心问题,它反映着数字社会的生活规律和运行逻辑,已经超出了工商社会的治理机制与体系框架,其价值尺度也突破了物理空间的正义范围,新型的数字正义则应运而生。因此,在算法治理过程中,应适时确立数字正义原则,框定数字正义领域,探索数字正义实现路径,从而构建科技向善、以人为本的算法治理秩序,促进我国的数字法治建设。

【关键词】算法治理  数字正义  敏捷治理  数字法治

【中图分类号】D90                                  【文献标识码】A

【DOI】10.16619/j.cnki.rmltxsqy.2022.10.006

在新兴科技革命的推动下,人类开始迈进“万物数字化、一切可计算”的新时代。算法不仅成为生产生活的重要组织者,还是社会秩序的重要建构者,但它所帶来的问题和风险也日渐凸显。为此,世界主要国家都在积极探索构建算法治理体系,从而促进科技向善,推动数字化转型和社会变革进步。然而,算法治理带有显著的技术性、风险性、迭代性,使其难以套用传统的治理模式与机制,信息技术伦理也突破了物理空间的正义视域和尺度,这样,确立与之相应的数字正义,就成为构建算法秩序的方向指引和价值支撑。

算法治理的正义原则

在当今数字社会,人类的一切活动都会生成数据、时刻都在交换信息,并通过数据分析、信息控制和建模计算来确保数字化生产生活的正常运行。正是基于这一全新的数字生态,多环信息圈开始在任何空间中弥散,[1]“不论是人的、动物的或是机械的,都是信息论的组成部分”。[2]因此,数据信息就在物理世界(世界1)、精神世界(世界2)之外,形成了一个独立平行的数据世界(世界3)。[3]这个数据世界固然是物理世界和精神世界的数字化呈现,但又不是对它们的简单映射,而是以信息中枢地位来实现对物理世界和精神世界的无界链接、分享重构和互动控制。其中,数据信息的分享利用是基础,它并不会像面包那样,你吃掉一半我就少了一半,恰恰是在不断的流动分享、复制挖掘和赋值利用中才能生成更多数据,附加更多意义,创造更多价值;但同时,如果这种分享利用不受节制,那也必然对数字人格、数字财产、数字交易、乃至分享利用本身带来严重威胁。相对于分享利用,算法的建模计算则是数字引擎,它既是一个数据信息处理系统,也是替代决策系统、透析评价系统,一方面,凭借算法可以创造出智能化、自动化的生产和服务,让全社会都能够分享数字化的发展福利;另一方面,算法也会形成多重穿透、让隐藏事物可视化、以及诱导操纵的能力,从而带来令人不安的数字化控制。由此看来,数据信息和算法的背后,蕴含着分享与控制的数字生活悖论。算法治理的核心就在于消解这一悖论,确立并遵循数字时代的正义原则。

自主选择原则。随着数字化转型的不断加速和智能化水平的不断提高,人们在日常生活中必然会面临越来越多的算法推荐和算法决策,进而享受智慧便捷的数字生活。但是,算法并不是无边界的,用算法来处理人类特有的一些活动,植入太多的计算机逻辑,就“有可能使这些活动丧失最根本的人性”;[4]而算法在生活中的泛化替代和误用滥用,也很容易演化成一种“要么接受、要么离开”的数字化强迫。因此,在算法决策之外保留必要的平行选项,维护人类的自主性、个人的选择性,无疑是数字正义的根本要求。我国的相关法律、法规也有相应规定,主要包括:一是关键领域的自主保留。即在涉及个人尊严和基本生存的服务领域,政府或者经营者应当控制算法决策的范围与功能,从而为公民(消费者)保留是否接受自动化决策的选择空间,提供人类决策(人工服务)的通道。二是个性服务的便捷拒绝。即在政府或者经营者基于个人敏感信息、或者针对个人特征而进行算法决策的情况下,应尊重公民(消费者)的同意权和拒绝权,确保用户有可以关闭这些算法的便捷渠道,并提供拒绝后的其他选项。三是通畅可靠的救济保障。即当公民(消费者)对算法决策结果产生质疑、并不能接受该结果时,应当为公民(消费者)提供人类决策的救济渠道。这样,才能有效制约算法决策可能产生的数字控制倾向,更好地发挥算法决策的积极效能、释放数字福利、分享智慧生活,因此,自主选择是算法治理必须遵循的重要价值原则。

公开透明原则。算法推荐和算法决策之所以备受推崇,很重要的原因就在于它具有胜出人类决策的一些优势,如基于大数据分析的科学性、没有情感立场的客观性、快速超能计算的高效率等。然而,算法并不是完美的,也不是万能的,它并不能“解决”所有问题。更为重要的是,无论是在政务服务领域还是在商业交易领域,算法服务的提供方与接受方都在信息和技术上处于明显的不对称状态,彼此之间也没有“面对面”的对话互动。此时,算法推荐和算法决策就犹如“盲盒”一样,“用户们无法看清其中的规则,无法提出不同意见,也不能参与决策过程,只能接受最终的结果”,[5]从而形成了众所周知的算法黑箱,其中难免会蕴含“不稳定、不公平和不劳而获的因素”。[6]为破解这一难题,世界各国的法律和伦理规范都要求算法具有可解释性、公开性、可责性。我国《个人信息保护法》第七条、《互联网信息服务算法推荐管理规定》第四条、第十六条也规定:信息处理者应当公开个人信息处理规则,明示处理的目的、方式和范围;提供算法推荐服务,应以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。这样才能大幅增强人们对算法服务的便利分享和理性监督,有效抑制算法误用与算法滥用,从而为强化算法治理、促进其友好向善提供必要的价值基准。

公平合理原则。近代以来,在工商社会逻辑和启蒙思想的基础上,构建了以人格权、物权、债权等为核心的现代法律制度,形成了私权神圣、契约自由、责任归己的正义价值观,并在公法和私法领域确立起相应的公平合理原则。然而,随着信息革命的到来,网络化、数字化、智能化转型颠覆了人类生活的惯常方式,“从开车到股票交易再到公司人员配置等一系列重大决策权,从人手中转移到算法手中”。[7]现代法律的正义价值观和公平合理原则正在面临严峻挑战,进而发生根本性重塑和时代转型。

首先,维护交换平衡。在万物互联、数据说话的时代,每个人都既是信息生产者又是信息消费者,数据信息也因此在生产生活中占据中枢地位。[8]人们面对网约租车、刷脸支付、个性化推荐、智能投顾、智慧医疗等数字化服务时,都需要提供或分享必要的个人信息才能完成。也即在线生活和算法應用提供了智慧便捷服务,但同时,人们也必须把一些必要信息交给平台和算法,从而形成互惠交换、合理利用的数字生态。此刻,就难以僵化地坚守个人隐私权利,也不能简单搬用“物理时代”的正义原则,而应秉持开放包容的精神,一方面加强对个人敏感隐私信息的保护,另一方面强化个人一般信息的商业利用和公共利用,[9]从而以算法服务提供方和接受方的互惠交换与利益平衡为基点,确立起数据信息处理和算法规制的新型公平合理原则,实现数字正义,构建数字法治秩序。

其次,秉持正当合理。算法无疑是人类的设计之物,无论是AI编写AI代码,还是复杂的神经网络算法,都是在人类的控制和教导下完成的。即便存在程序员也可能说不太清的算法黑箱,但算法也并没有失控,仍在人类的掌控范围内。事实上,从数据清洗标注、绘制知识图谱、到算法建模、代码编写,都不可避免地嵌入了设计者、操作者的价值理念,都“吸收了设计师的社会观念和社会目标,并试图在未来重制它们”。[10]因此,如何限定算法的价值偏好,将其纳入正当合理的规范框架内,无疑是算法治理的根本任务和重要使命。我国《互联网信息服务算法推荐管理规定》明确要求,“提供算法推荐服务,应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则”。具体包括:算法要坚持主流价值导向,避免非法虚假信息传播,不得利用算法实施屏蔽、操纵、诱导、歧视、不合理限制、不公平不公正对待、以及实施垄断和不正当竞争等行为。这些都是确保科技向善、正当合理的基本规范和价值尺度,需要基于不同的应用场景、不同的权益属性、不同的类别等级、不同的数字关系进行厘定和确认。

再次,遵循比例原则。如前所述,算法是一个数据信息处理系统,它必然以数据信息为基础,直接关乎用户、企业和政府等多方的数据信息权益;同时,算法又是一个决策系统,其决策结果也会对用户、企业和政府等多方权益产生重要影响。这样,算法治理就包含了私权利、私权力和公权力之间的相互关系和权益边界,也就应遵循比例原则来加以权衡。我国《个人信息保护法》在涉及信息处理、合同订立履行等方面的多个条款中,均有“不得过度”“影响最小”“最小范围”“合理范围”“所必需的范围和限度”“所必要的最短时间”等规定,这些规定正是比例原则的基本要求,也是算法治理的重要支撑。与以往比例原则所不同的是,应遵循以下衡量基准:一是立足数据信息的分享与控制属性;二是坚持算法服务于人、分享数字发展福利的主导方向;三是保护数字人格和数字生存发展等基本权利;四是对不对称关系中处于弱势地位的算法服务接受方提供必要的优先保护。

最后,避免误用滥用。算法是一种数字技术应用,在很多领域、很多方面的计算能力和处理能力都超过人类,但并“不是所有可以计算的东西都重要,也不是所有重要的东西都可以被计算”,[11]它也会有自身的局限,如算法错误、算法黑箱、算法歧视、算法共谋、算法操控等,这些都会产生严重背离公平合理的不良后果。因此,避免算法误用和滥用,是公平合理原则的底线要求,是维护算法治理秩序的重要保障。

数字人权原则。在数字时代,个人信息已经全方位覆盖了从摇篮到坟墓的全部私人生活,“直至在计算机数据库中形成一个‘人’。”[12]因此,在日常生活中,每个人都既是自然人也是数字人;而在数字政府的制度框架下,人们则是数字公民。其中,无论商业交易中的算法还是自动化行政中的算法,都有产生数字鸿沟、算法歧视、算法操控的可能,这就会给人们在数字社会的生存发展带来严重障碍,从而出现数字人权问题。算法技术应用应坚持以人为本,以提高人类的数字生活能力和生活质量为标准,而不能异化为限制人、操控人的自动手段。联合国教科文组织推出的《人工智能伦理问题建议书》就明确指出,人工智能这类技术极具侵入性,它们可能会侵犯人权和基本自由,且被广泛使用。因此,应明确禁止使用人工智能系统进行社会评分和大规模监控,个体也应该有权访问甚至删除其个人数据记录,各国应采取改善数据保护和保障个体对自身数据的了解和控制权的行动。[13]因此,维护和保障数字人权,就成为算法治理不可或缺的重要准则。

算法治理的正义领域

以往的正义观念和理论,基本上都是围绕身份、地位、财富、机会和条件的分配,以自由、平等和权利的形态来展开的。然而进入数字时代后,万事万物都会通过网络化、数字化、智能化方式加以表达、链接、交互和流转,数据信息与建模算法就担负起重要的关系建构和秩序塑造的功能。此时,公平正义的领域和范围就不再局限于物理方式的资源分配模式与机制,而是形成了数字方式的“分享/控制”模式与机制。它所产生的一个严重后果是,相当一部分自由、平等、权利、公正的内涵已被数字化掏空变现,只剩“外壳”尚在。例如,外卖骑手的劳动权利一直存在,但“逐低竞争”的算法派单机制却让他们形成了难以自控的严重“内卷”;商业交易中的合同权利依然如故,但大数据杀熟、算法歧视却悄然“釜底抽薪”;同样,老年人的各种权利都未改变,但数字鸿沟却使他们失去了实现自己生活权利的能力。这表明,算法治理的重心是应对数字控制、实现数字正义。这里的数字控制,并不是以实物流转方式和人为手段来直接分配资源,而是通过数据信息处理和算法控制来隐性地匹配资源与调动行为,于是就披上了技术的客观外衣,建立了自动实现的执行机制。因此,抑制数字控制也就成为数字正义的主要领域。

对数据信息的控制。对数据信息的控制,是指通过数据信息收集、存储、加工、传输、提供、公开、删除等方式,实现对相对方的数字锚定。它既是掌控目标对象的前提,也是算法建模的基础。众所周知,随着从商品经济向数字经济的迭代转型,数据信息已成为关键的生产要素,算法也成为重要的生产力。为此,信息“与其说是旨在储藏,不如说旨在流通”,[14]进而把数字经济打造成一种“不求所有、但求所用”“可用不可见”的分享经济样态。由于数字时代的一切社会行为都“围绕着生产与信息控制”,[15]因此,在大量数据分享利用的同时,对数据信息的控制就显得十分关键。具言之,一方面,社会生活中个人的数据信息随时会生产出来,也随时会以提供、传输、抓取等方式被互联网平台、技术公司和政府机构所收集存储和挖掘使用,从而形成了信息优势方和信息弱势方之间的明显分野。另一方面,算法治理并不仅限于代码编写和计算过程本身,而是一个包括数据信息处理在内的“数据输入—建模计算—结果输出”的系统化形态。收集、存储、使用、加工、传输、提供等数据信息处理过程,反映着信息处理者的不同价值观和利益偏好,而消费者或公民往往对此难以察觉、也无策应对。可见,数据信息控制上的不公平、不合理,实质上是数据信息控制能力和数字行动能力上的鸿沟,从而引发更严重、更广泛的社会不公。这就要求在算法治理中贯彻数字正义原则,设置合法、合理、安全的数据信息处理框架,强化消费者或公民的数据信息控制能力,从而将分享与控制置于数字正义尺度之中。

基于算法的控制。基于算法的控制,主要是指依托算法推荐或者算法服务,向相对方施加或明或暗的影响,从而干预诱导相对方思想和行为的控制方式,它属于一种由外及内的间接干预策略。这种控制主要通过如下步骤来完成。首先,全景敞视。即通过大数据收集、分析而进行数据画像。如果说在1993年一只狗匿名上网发表言论,人们并不知道它是一只狗的话;那么到了2013年,“新版的互联网不仅仅知道你是一只狗,它还了解你的品种,想卖给你一碗上等的粗粒狗粮。”[16]这时,每个人在大数据和算法面前,都只是一个全景敞视的“透明个体”,大数据和算法形成了一个“没人能够逃离的电子牢笼”。[17]其次,算法投喂。数字时代的一个重要特征是,“谁掌控数据信息、处理数据信息,谁就拥有了控制他人行为和思想的能力。”[18]曾经的脸书新闻就设计了一种投喂算法,计算出用户的个性特征喜好,然后通过“过滤泡”投其所好,定向推送信息。而在美国总统大选中,Facebook、Twitter、YouTube等平台公司通过大量用户信息分析,进行数据画像和个性化推送,从而操纵选民的意识和行为,“这种影响不会触发用户的意识,而是一种潜意识,使它们成为你思想的一部分,还让你觉得这是自己的主见。”[19]同样,英国脱欧决策过程中,也显示出一場“新型政治形态革命”——“未来操控政治的,将是数据,而不是你的大脑”。[20]最后,归纳偏置。有研究者指出,自动学习技术以及所有的人工智能技术几乎都反映了其创立者的一种先验偏置,他们在算法中给我们提供了一个预设性的、已经解释了的世界。这样,我们所看到的世界“恰好只是我们期望看见的或我们从训练中看见的”。[21]这些带有预设性的看法或者偏爱如果不受限制,将会“在更大程度上操控我们的生活”。[22]由上可见,基于算法的控制,会对人格尊严、自由选择、平等参与、民主权利等产生深刻影响,这就需要按照数字正义原则,防范算法对人们的偏好诱导、思想控制和行为影响,从而维护数字人权,实现算法治理的正义目标。

通过算法的控制。通过算法的控制,主要是指通过算法决策来预测、分类、调配或者判定某个事项,进而对相对方的权益和生活产生重要影响的控制方式,它属于一种自动执行的直接干预策略,主要包括以下几种类型。一是预测评估。近年来,国内外一些金融、投资、警局等公私部门都在大量开发算法预测评估系统,例如,2004年9月至2007年4月,美国科罗拉多的公共福利系统开发自动化服务系统;2013年1月,美国南加州阿罕布拉市警察局运用“预测犯罪”系统(PredPol);其他国家也在开发金融风险评估系统、城市安全风险评估系统;等等。然而,这些对个人的评分和评估——就业、贷款资格、危险级别,其目的主要是目标筛选,这就很可能形成一种有意或者无意的算法偏见。[23]更为重要的是,它将导致一种被重新分类、评价、比较、甚至被看透的“控制革命”,[24]平等、自由、公正和民主原则都将遭遇重大挑战和贬损危险。二是算法指令。例如,外卖骑手和网约车的算法派单、平台的算法定价、算法成交单、智能合约等,它们都是由算法发出自动化指令,进而实现对人力物力资源的调配。在这里,算法系统已经由简单工具变成了重要“决策者”和指令发布者,基于此,“依靠算法决定行动方向的人,可能会被导向固定的路线,就像演员只能照着剧本表演一样”。[25]一旦存在明显的价值偏好或者出现错误,就可能带来严重的不良后果。三是算法裁决。2021年8月,俄罗斯在线支付服务公司Xsolla使用算法作出的“不敬业、效率低下”判断,解雇了147名员工。无独有偶,2019年美国亚马逊内部的AI系统,就通过追踪物流仓储部门员工的工作效率,自动生成解雇的指令。[26]这些无疑都是缺少温度、漠视人性的算法滥用。在我国,自动化判定、自动化行政、智能裁判的情况也不断增多,如自动化招投标系统、自动化执法系统、自动化裁判系统(智能辅助裁判)等,这些系统都是通过算法决策,来对相应事项做出裁决,经由负责人员确认后生效。这些算法决策在效率性、客观性、一致性等方面固然能够超过人类,但它也存在着出现算法错误、算法偏见、算法歧视、算法黑箱、算法霸权等问题的可能,甚至会产生“数字决策系统锁定”的社会风险。美国的算法实践表明,算法裁决也可能会“将原有的歧视予以自动化,加剧了不平等”。[27]因此,需要按照自主选择、公开透明、公平合理和数字人权原则,对通过算法的控制加以有效约束和规制,建立科技向善的算法治理秩序。

算法治理的正义路径

算法治理是数字时代的全新课题,是一个融合技术、伦理和制度的高度复杂系统,其治理方式、治理策略和治理导向均已超出了传统治理范围。因此,需要构建新型的治理范式,践行数字正义原则,立足数字正义领域,探索实现数字正义的新路径、新策略。

确立敏捷治理的监管机制。敏捷治理是数字时代的新兴治理理念,旨在形成快速灵活、包容平衡、共同参与、以人为本的治理模式和机制,从而应对新兴技术挑战、解决创新发展难题和推进构建智慧治理体系。2022年3月,中共中央办公厅、国务院办公厅印发的《关于加强科技伦理治理的意见》就明确要求敏捷治理、伦理先行,“加强科技伦理风险预警与跟踪研判,及时动态调整治理方式和伦理规范,快速、灵活应对科技创新带来的伦理挑战。”为此,探索敏捷治理的算法监管机制,已经势在必行。

首先,秉持数字法治立场。即摆脱传统法治的惯性思维,从数字法治理念和立场出发,按照数据信息的基本属性、算法治理的基本规律、数字权益的基本逻辑,来制定监管规则、设立监管程序、实施合理规制策略,既要为创新“踩油门”,又要为秩序“踩刹车”,其标准就是算法“以人为本”、遵循数字正义,如国家七部委要求以“算法取中”来优化外卖送餐的派单机制等,就是重要的尝试和努力。

其次,探索精细敏捷的治理策略。包括基于算法服务和算法决策的相关重要程度、用户规模、动员能力、干预强度等,依法建立精细化的分级分类监管机制;建立网信、电信、公安、市场监管等政府部门的快捷协同机制、安全评估和监督检查机制;完善科技伦理审查和监管制度,建立及时高效的跟踪、监测、预警科技伦理风险机制;建立灵活多样、包容审慎的算法合规机制,实施及时有效的正向激励监管;等等。

再次,强化共同参与合作。针对算法的敏捷治理,技术性、复杂性、系统性、风险性都非常高,仅凭政府力量是难以做好的,因此,需要动员社会力量广泛参与,包括科技公司、网络平台、行业组织、技术人员、消费者、新闻媒体等,共同维护数字正义价值,创造遵规守法的算法治理环境。

确立责任明确的自律机制。算法治理在很大程度上依赖于技术规程和操作控制,因此,基于主体责任的算法自律机制就十分关键了。目前,世界各国都在积极探索算法治理的自治模式,如微软、谷歌、IBM等科技公司制定了人工智能开发的伦理原则。我国企业在《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》等政策规范的指引下,也正在积极行动,促进可信AI的发展应用。根据《互联网信息服务算法推荐管理规定》和相应伦理规范的要求,我国算法治理的自律机制主要包括以下四个方面。

一是落实算法主体责任。算法服务或者算法决策提供者应建立健全算法机制机理审核、数据安全和个人信息保护等管理制度和技术措施,进行严密的自我规范;应综合运用内容去重、打散干预等策略,优化检索、排序、选择、推送、展示等规则的透明度和可解释性;建立完善的用户自主选择机制,充分尊重用户的自主权、选择权等。

二是建立风险評估预警机制。定期审核、评估、验证算法机制机理、模型、数据和应用结果,发现问题及时整改修正。同时,可以借鉴美国推特2021年7月推出的“算法偏见赏金”,在社会上公开征求针对平台“算法偏见”问题的举措,以打造算法治理的“众包模式”,[28]从而推进算法自律的机制创新。

三是积极研发伦理工具。通过科技研发,推进以技术规制技术的能力和水平,向市场需求方提供合适的风险评估工具和相应的算法修复服务,推动伦理服务的精细化和专业化发展。[29]

四是推进AI伦理行业约束。这是一种全球趋势,联合国教科文组织于2019年启动撰写全球AI伦理建议书,于2021年11月在第41届联合国教科文组织大会上通过了全球首份《人工智能伦理问题建议书》。2019年欧盟委员会高级AI专家组(AI HLEG)发布了《可信赖AI伦理指南》,各主要国家也在积极响应和推进算法治理。在我国,2019年6月,国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》;2019年5月,人工智能伦理与安全研究中心、新一代人工智能产业技术创新战略联盟和其他学术机构及产业组织共同发布《人工智能北京共识》;2019年8月,深圳人工智能行业协会与旷视科技、科大讯飞等数十家企业联合发布《新一代人工智能行业自律公约》。此外,百度、腾讯等主要科技企业也提出了企业自身的AI伦理准则;旷视科技还在制定准则的基础上,成立了人工智能道德委员会,[30]进而推动人工智能安全可靠、可控可信和可持续发展。通过这些机制,就可以建立健全行业标准、行业准则、自律管理制度和服务规范,从而更好地促进算法治理,维护新时代的数字正义。

建立健全有效的社会监督机制。在数字时代,算法应用改变着生产生活的一切,对每个人都会有切实的重要影响。但算法具有很强的技术性、隐形性、复杂性、自动性特征,又让人们对其难以接近、难以洞察、难以把握。因此,亟需建立健全有效的社会监督机制。

其一,畅通社会监督渠道。《互联网信息服务算法推荐管理规定》明确要求,算法推荐服务提供者应制定完善服务规范、依法提供服务并接受社会监督,设置便捷有效的用户申诉和公众投诉、举报入口,明确处理流程和反馈时限,及时受理、处理并反馈处理结果。但这一规定要落到实处,尚需很多努力。而且,政府部门、行业组织等的监督渠道也有待畅通和拓展。

其二,激活监督能力。其实,我国的社会组织、基层组织、新闻媒体等并不少,但是并不都能发挥有效的监督作用。因此,激活它们的监督能力就至关重要。如2019年南京市建邺区要求环卫工人佩戴智能手环“监工”,2020年苏州推出“苏城文明码”等事件,受到社会的关注和质疑,当地政府最终在算法治理边界的建议下回归到审慎行政的策略上,社会监督起到了良好效果。

其三,强化数字能力。我们每个人都具有权利能力和行为能力,并藉此行使自己的权利、履行自己的义务。但进入数字时代后,每个人不仅要有权利能力和行为能力,还需要有掌握、运用、操作数字产品和在线处理事务的能力,这样才能适应和参与数字生活。因此,面对算法的社会监督,就需要人们形成良好的数字素养和数字能力,更好地认识算法、体验算法,并运用数字能力来监督算法,从而维护自身的合法权益。这无疑是推进算法治理,实现数字正义的广泛力量。

确立公正可靠的司法保障机制。在法治社会,司法救济是最后的权益保护和公平获得通道,也是社会治理的根本支撑。因此,算法治理也不例外。换言之,在算法治理过程中,司法救济无疑设置了一道维护数字正义的重要屏障。

由于算法推荐和算法决策带有调配性和控制性,因此,算法治理中的司法救济也会更为复杂,利益关系更加重要。其司法救济方式主要包括:一是算法的司法审查机制,即一旦发生算法诉讼,司法机关应启动司法程序上的算法审计,并根据算法审计结果来进行权益衡量和司法裁决;二是算法案件的公益诉讼机制,将涉及公共利益、弱势群体权益的算法案件,纳入公益诉讼来进行维权保护;三是重要领域、重要权益的重点保护,如对算法诉讼中消费者或数字公民的基本权益、反垄断和反不正当竞争、老年人和未成年人的基本权利、关乎生存和发展的数字人权等,均需要重点保护。只有这样,才能体现科技向善、以人为本的精神,也才能更好地实现数字正义原则,构建良好的算法治理秩序。

结语

事实表明,新兴技术应用既具有创造性,也具有破坏性。为此,联合国教科文组织发布的《人工智能伦理问题建议书》突破了“发展先行”抑或“治理先行”的两难选择,强调二者的协同共进。我国需要秉持包容审慎的治理策略,积极构建科技向善的算法治理制度。然而,科技向善的基准已不再是以物质分配为核心的“物理”正义;而是以信息分享/控制为核心的数字正义。这就需要基于数字生产生活方式和数字行为规律,有效探索并重建数字正义理念、数字正义原则、数字正义领域、数字正义程序等,从而为我国的数字法治建设提供核心动力,奠定坚实基础。

(本文系国家社科基金重大项目“数字社会的法律治理体系与立法变革”的前期成果之一,项目编号:20&ZD177)

注释

[1]参见[英]卢恰诺·弗洛里迪:《信息伦理学》,薛平译,上海译文出版社,2018年,第426页。

[2][14][美]维纳:《人有人的用处——控制论与社会》,陈步译,北京大学出版社,2010年,第12、109页。

[3]董春雨、薛永红:《大数据哲学——从机器崛起到认识论方法的变革》,北京:中国社会科学出版社,2021年,第37页。

[4][5][美]卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐等译,北京:中信出版社,2016年,第223、139~140页。

[6][美]弗兰克·帕斯奎尔:《黑箱社会——控制金钱和信息的数据法则》,赵亚男译,北京:电子工业出版社,2015年,第294页。

[7][美]克里斯托弗·斯坦纳:《算法帝国》,李筱莹译,北京:人民邮电出版社,2017年,第197页。

[8]参见马长山:《数字法学的理论表达》,《中国法学》,2022年第3期。

[9]参见张新宝:《从隐私到个人信息:利益再衡量的理论与制度安排》,《中国法学》,2015年第3期。

[10][11]Deakin, S. and Markou, C. (ed.), Is Law Computable? Critical Perspectives on Law and Artificial Intelligence, Oxford: Hart Publishing Bloomsbury Publishing Plc, 2020, pp. 135, 104.

[12][英]约翰·帕克:《全民监控——大数据时代的安全与隐私困境》,关立深译,北京:金城出版社,2015年,第14页。

[13]《193个成员国签署全球首份人工智能与伦理协议,应对隐私相关等问题 》,https://www.sohu.com/a/505874289_120076174,2021年4月29日访问。

[15][荷兰]约斯·德·穆尔:《赛博空间的奥德赛——走向虚拟本体论与人类学》,麦永雄译,桂林:广西师范大学出版社,2007年,第16页。

[16][美]伊莱·帕里泽:《过滤泡——互联网对我们的隐秘操纵》,方师师等译,北京:中国人民大学出版社,2020年,第6页。

[17][美]安德鲁·基恩:《科技的狂欢》,赵旭译,北京:中信出版集团,2018年,第177页。

[18][19]《算法操控大选,数据左右美国》,https://new.qq.com/rain/a/20201015a025hs00,2021年9月28日访问。

[20]《新型政治形态革命,用网络操控你有多简单?》,https://www.sohu.com/a/300329750_488672,2021年3月3日访问;《英国首相背后的男人:策划脱欧、赢下大选、改写历史》,https://ishare.ifeng.com/c/s/7sp1UqmIVAe,2021年3月3日访问。

[21][美]George F. Luger:《人工智能——复杂问题求解的结构和策略》,郭茂祖等译,北京:机械工业出版社,2017年,第483页。

[22][美]凯西·奥尼尔:《算法霸权——数学杀伤性武器的威胁》,马青玲译,北京:中信出版集团,2018年,前言第V页。

[23]参见[英]凯伦·杨等编:《驯服算法——数字歧视与算法规制》,林少伟等译,上海人民出版社,2020年,第232页。

[24][德]克里斯多夫·库克里克:《微粒社会——数字化时代的社会模式》,黄昆等译,北京:中信出版社,2018年,前言第VII~VIII页。

[25][美]卢克·多梅尔:《算法时代:新经济的新引擎》,第138、126、127页。

[26]《被算法“监控”的打工人,这家公司150人被算法裁定为“不敬业”》,https://www.sohu.com/a/484291096_115128,2022年5月17日访问。

[27][美]弗吉尼亚·尤班克斯:《自动不平等——高科技如何锁定、管制和惩罚穷人》,李明倩译,北京:商务印书馆,2021年,第5、173~174页。

[28]佘宗明:《人,是算法的尺度》,https://www.163.com/dy/article/H7AP8V3Q0521N4E0.html,2022年5月18日访问。

[29]参见曹建峰、胡錦浩:《伦理即服务:科技伦理与可信AI的下一个浪潮》,https://36kr.com/p/1358610582701448,2022年2月5日访问。

[30]孙明春:《人工智能技术发展中的伦理规范与行业自律》,https://finance.sina.com.cn/review/jcgc/2021-01-13/doc-ikftssan5687816.shtml,2022年5月18日访问。

责 编/陈璐颖

马长山,华东政法大学法律学院教授、博导,国家“万人计划”哲学社会科学领军人才,教育部“长江学者”特聘教授,华东政法大学数字法治研究院院长,《华东政法大学学报》主编。研究方向为法学理论、数字法治、法社会学。主要著作有《迈向数字社会的法律》《国家、市民社会与法治》等。