APP下载

人工智能治理原则的实践导向:可靠性、问责制与社会协同

2023-10-19周江伟

治理研究 2023年5期
关键词:问责原则人工智能

□ 周江伟 赵 瑜

一、通过原则治理:从伦理声明到行动框架

随着人工智能技术的迅速发展与应用,如何实现对人工智能的有效治理成为国际社会面临的共同问题。技术变革与制度调适之间存在的步调差异(1)Wallach W. and Marchant G.E., “Toward the Agile and Comprehensive International Governance of AI and Robotics”, Proceedings of the IEEE, vol.107, no.3(March 2019), pp.505-508.造成了不可忽视的治理鸿沟,对现有的监管体系和治理结构提出了严峻的挑战。制度调适有着明显的滞后性。现有的立法、监管和司法框架往往基于一种静态的社会和技术观点,(2)Marchant G.E., “The Growing Gap Between Emerging Technologies and the Law”, International Library of Ethics, Law and Technology, vol.7, no.1(April 2011), pp.19-33.对于可能出现的变革缺乏预见性和灵活性。而即便公共部门能够以某种方式迅速响应,及时为新兴技术制定和调整法规,也可能因为无法充分预测技术的发展趋向而产生阻滞创新或强化风险的负作用,或是在“墨水没干的时候”就已经失去现实效力。不过,正如美国前最高法院首席大法官沃伦·伯杰所说,“应该理解,完全跟上科学的步伐并不是法律的作用和功能”,(3)Burger W.E., “Reflections on Law and Experimental Medicine”, UCLA Law Review, Vol.15, no.2(February 1968), pp.475-493.法律系统在设计上被赋予了保守性,其关键功能之一就是在快速变革中维系社会稳定并提供制动能力。(4)Van Alstine M.P., “The Costs of Legal Change”. UCLA Law Review, vol.49, no.3(February 2001), pp.789-871.

为了填补持续存在且难以避免的治理缺口,在人工智能领域,通过“原则”进行治理成为一种趋势。在过去的几年里,出现了大量被冠以“原则”“指南”“战略”的文件,它们由不同的行动者撰写并发布,在极短的时间内井喷式地出现在公共领域。这些文本围绕如何对人工智能的部署和应用进行有效治理,提出了一系列纲领性的建议和要求,这些文本往往是倡议性的,也有着较高的抽象层次。一些学者将这类实践统称为对人工智能治理的原则方法(Principled Approach)(5)Mittelstadt B., “Principles Alone Cannot Guarantee Ethical AI”, Nature Machine Intelligence, vol.1, no.11(October 2019), pp.501-507.或原则主义(Principlism)路径,(6)Seger E., “In Defence of Principlism in AI Ethics and Governance”,Philosophy &Technology, vol.35, no.2(April 2022), p.45.因而在下文中,我们也将这些文本统称为“原则”。相较于由国家强制力保障实施的、结构完整且规范清晰的“硬法”,这些原则文本往往被归类为“软法”。

“软法”是指那些效力结构未必完整,缺乏强制力和执行力保障,但能够在社会运转过程中发挥实效的规范。(7)罗豪才、宋功德:《认真对待软法》,《中国法学》,2006年第2期。相对于“硬法”,“软法”具有更好的敏捷性,往往可以绕开官僚机构的流程和授权限制,较快地实现应用和修订。尽管“软法”缺少直接的执行力,但通过保险、行业协作、媒体监督等方式实现了间接执行,(8)Marchant G.E., “‘Soft Law’Mechanisms for Nanotechnology: Liability and Insurance Drivers”, Journal of Risk Research, vol.17, no.6(February 2014), pp.709-719.能在“硬法”缺位的情况下发挥一定的现实效力。而“软法”在经过实地测试后具有被纳入政府监管体系的潜力,因此“软法”也被视为在必要时颁布“硬法”的准备阶段。

这些具有“软法”性质的原则文本,往往是伦理声明和实践准则的混合体。其中,伦理声明注重价值理性,回应着一系列价值问题,包括珍视谁的价值(价值立场),珍视何种价值(价值目标),如何正确对待有价值的事物(正义原则),特别是如何对其进行合理的分配。(9)赵瑜、周江伟:《人工智能治理原则的伦理基础:价值立场、价值目标和正义原则》,《浙江社会科学》,2023年第1期。而实践准则通常基于实践理性,关注通过怎样的手段或行动方式来实现给定的伦理目标。由于这些原则在发布时通常将伦理声明内容置于首位,学术界在讨论这些文本时,也表现出对伦理问题的关注倾向。虽然这些伦理声明积极地回应了人工智能技术引起的伦理争议,为社会成员识别并概念化伦理挑战提供了共同话语,帮助缺乏系统伦理学知识的人形成道德判断。但是,仅仅建立有关技术的伦理期望或评估技术的道德后果还不足以帮助我们实现期望或应对后果。伦理学反思的中心目标不是“从外部”评价技术的发展,而是“从内部”伴随技术发展。(10)Verbeek P.P., “Designing the Public Sphere: Information Technologies and the Politics of Mediation”, the Onlife Manifesto, edited by Floridi L., Berlin: Springer Nature, 2015, p.223.一味地进行伦理承诺可能使原则文本成为“道德的遮羞布”和利益相关方的“避风港”,用于回避真正的问题。

为了在伦理声明和治理实践之间搭建桥梁,使原则成为具有操作性的治理工具,本研究将聚焦于原则文本中的实践准则。通过对原则文本的分析,研究发现对人工智能进行治理的实践准则可以归纳为三项:可靠性原则、问责制原则、社会协同原则。它们分别回应了三个有关治理实践的问题:一是能够胜任伦理期望的技术系统应该具备怎样的品质;二是如何应对技术的社会后果,特别是那些非预期的后果;三是应该以怎样的社会组织形式开展治理实践。

二、研究方法

研究涉及的原则文本具有“软法”性质,与其敏捷性和过渡性相伴而来的,是文本形式的灵活性和多样性。这意味着我们的研究对象是一个构成复杂、边界模糊的合集。许多研究也是采用更加务实与灵活的方式,即通过给出示例、沿用惯例或说明共有特征来说明研究对象的范围。例如曾毅等人在“连结人工智能原则”中对研究范围的描述:“我们将研究限制在与人工智能治理有关的不同原则,包括指南、准则和倡议。这些原则通常被逐项列举,表达提议者对人工智能的理解、开发和利用的价值观和态度。”(11)Zeng Y., Lu E. and Huangfu C., “Linking Artificial Intelligence Principles”,arXiv preprint: 1812.04814(December 2018).本研究在搜集和筛选文本的过程中也延续了这样的方式。研究涉及的原则文本具有以下特征:(1)以如何对人工智能的部署和应用进行治理为主题,有时针对特定的应用领域(如劳动、司法、金融等)或核心要素(如数据、机器人、算法等);(2)通常以清单化的方式逐项列出建议和主张,这意味着它们通常是多条原则的集合而不是对单一事项的陈述;(3)在形式和性质上区别于正式的、具有强制约束力的法律、法规和政策,通常是发布者对自身态度的公开表达和对特定事项的公共倡议;(4)内容具有较高概括性和一定的抽象水平,通常以短句、短语或关键词表达核心意旨并随附一段内容阐释。

为了尽可能全面地搜集文本,研究组合检索了三类数据源,分别是主题数据库、元分析文献和互联网搜索引擎。具体而言:首先,发现并检索三个人工智能治理的主题数据库,分别是: “AI Governance Database”“AI Ethics Guidelines Global Inventory”“Linking Artificial Intelligence Principles”。将检索范围设定在2010年后,通过对数据库中收录的文本进行逐一查阅,依据上文所述特征进行判断,筛除不符合条件的文本后形成文本清单。其次,发现了三篇有关人工智能治理原则的元分析文献,(12)Hagendorff T., “The Ethics of AI Ethics: An Evaluation of Guidelines”, Minds and Machines, vol.30, no.1(February 2020), pp.99-120.(13)Jobin A., Ienca M. and Vayena E., “The Global Landscape of AI Ethics Guidelines”,Nature Machine Intelligence, vol.1, no.9(September 2019), pp.389-399.(14)Floridi L. and Josh C., “A Unified Framework of Five Principles for AI in Society”, Machine Learning and the City: Applications in Architecture and Urban Design, edited by Carta S., Hoboken: Wiley, 2022, pp.535-545.根据它们给出的文本清单进行了整合、对比和补充。最后,根据从主题数据库和元分析文献中获得的文本名称,确定了一个检索关键词清单,在谷歌搜索进行补充检索。这个关键词清单主要由两类构成,其一是主题性的关键词,包括“人工智能”(Artificial Intelligence,AI)“机器智能”(Machine Intelligence, MI)“算法”(Algorithm)“机器学习”(Machine Learning)等,其二是描述文本性质的关键词,包括“原则”(Principle)“准则”(Code)“指南”(Guideline)“宣言”(Manifesto)等。在检索过程中,分别组合使用两类关键词,在输入搜索指令时,通过“OR”连结同类关键词,“+”连结两类关键词,以实现组合检索的目标。其中,检索以英文和中文分别进行。检索前清除浏览器cookie文件,并采用无痕模式确保此前的使用记录不会影响检索结果;检索时间也被设定在2010年之后,检索的结果选项为“所有结果”(模糊匹配);对检索结果的前15页链接进行人工访问和筛选。此外,前述数据库中存在一些无法访问的链接时,研究也相应地根据其文件名称和关键词进行了补充检索。在检索完成后,我们对结果进行比对,在去除无关项和重复项后,获得了88份原则文本。(15)具体文本参见后文附表,研究遵循三篇元分析文献的惯例,将研究涉及的原则文本在附录中逐一列出,既为本研究的结论设定了边界,也以开放的态度接受其它潜在文本的检验。

现有的元分析类文章普遍采取了“议题公约数”的分析策略,不论是通过算法进行关键词聚类或是人工进行内容分析,都试图通过提炼特定的关键概念来概括原则内容,进而实现对文本的归类与整合。由于原则中的许多关键概念具有较高的语境依赖性,这意味着每个概念背后都存在多重的解释空间。一些概念的边界在使用过程中日渐扩张,试图涵盖过多的涵义,成为了“概念伞”(Concept Umbrella)。而现有的分析路径在一定程度上忽视了语境差异,分析结果也不能很好地处理概念之间的关系,使得彼此重叠或不同层次的原则被不恰当地并列在一起。其结果常常是将多个原则清单汇总为一个更全面的清单,而通过计量和列举关键词的方式也难以建立对特定事项的系统理解,更无法洞见文本间实际的共识和分歧。

为了克服现有分析路径的局限,研究采用了以下分析步骤:首先,在各个学科和专业领域的文献中定位文本中的关键概念,厘清领域内与之相关的基本共识和分歧,理解不同范畴间的关系,并由此建立了初步的编码框架。其次,对原则文本进行逐条录入和编目,每个原则作为一个分析单位,分析的内容包括原文中对该原则的概述和相应阐释。在完成数据整理后,进行逐条人工编码。首先分离伦理声明和实践准则的内容(二者常常交织在单一原则中),随后对实践准则进行编码,主要分为两个方面:一是提炼主题,二是提炼有关该主题的关键陈述并加以概括。这些主题由上述的文献研究过程初步得出。由于编码过程中会不断涌现出无法被涵盖的新内容,研究者也会根据实际文本内容动态调整编码框架。因此编码的过程更像是修补结构,在先验的结构和现实的材料之间往复,而不是单向“按图索骥”。这样的动态编码过程也意味着,分析的结果和用于分析的框架往往会在最后同时浮现出来。因而在某种意义上,这个研究的核心就在于建立这样一个用于分析与整合的编码框架,促进不同原则文本之间的有效对话,并把握其中的共识与分歧。

三、可靠性原则:构建符合预期的技术系统

(一)作为术语集的可靠性

在科学和工程领域,可靠性(Reliability)是一个复杂、多义的概念,在宽泛意义上指技术系统按照其设计目标持续运行的能力。(16)Dhillon B.S., Design Reliability: Fundamentals and Applications, New York: CRC press, 1999, pp.1-8.可靠性作为一个术语集(70)(17)即附表70号文件《可信赖的人工智能应用》,简写为文件序号“(70)”,下文涉及相关原则文本的表述同理。通常是对各类技术系统的总体性要求,囊括了一系列评价指标。我们对原则文本中与可靠性相关的术语进行了梳理,形成一个相对完整的概念框架,它包括有效性、稳健性和优化三个维度(见下表)。

有效性指系统实现其既定目标的能力,它通常指向难以割裂的两个方面:一是可验证性(Verification),即是否可以证明系统满足了预期目标;二是准确性(Validity),即确保系统在满足既定目标的同时不会产生意料之外的行为与后果。(18)Russell S., Dewey D. and Tegmark M., “Research Priorities for Robust and Beneficial Artificial Intelligence”,AI Magazine, vol.36, no.4(December 2015), pp.105-114.在现有原则中有效性的两个维度均有所体现。一些原则主张应该建立用于持续监测和检验的系统,在充分了解系统运行情况的基础上,验证它们是否与设计者预期保持一致(38)。而那些偏离设计者期望的运行过程也应该受到持续的监控和处理,确保系统不会以意想不到的方式运转(46)。人工智能的两大支柱是算法和大数据,(19)赵瑜:《人工智能时代新闻伦理研究重点及其趋向》,《浙江大学学报(人文社会科学版)》,2019年第2期。系统的有效性不仅依赖于算法设计,往往还受到数据质量的影响。因而也有原则认为有效性的前提是高质量的数据输入(21),而抽样过程所造成的偏差,往往是数据质量不足的首要原因(39)。

可靠性原则构成及内容示例表

稳健性(Robustness)通常被翻译为“鲁棒性”,最早是统计学概念,用于表示计算方法中关于误差的灵敏性。(20)Saleh J.H. and Marais K., “Highlights from the Early (and Pre-) History of Reliability Engineering”, Reliability Engineering &System Safety, vol.91, no.2(March 2006), pp.249-256.随着控制论的兴起和发展,稳健性的概念被迁移到各类系统的设计中,用于表示系统受到外部扰动或内部参数摄动等不确定因素干扰时,保持其结构和功能稳定的特性。在人工智能领域,特别是对机器学习算法而言,稳健性通常会被理解为算法对数据变化的容忍度有多高。但人工智能系统也往往涉及传感器和执行器等实体设施,因此稳健性也意味着它们在物理环境的变化中保持稳定。

相较于稳定性,稳健性被认为是一个更广泛的概念,前者通常指系统随时间流逝或在微小扰动下自我维持的特性,而稳健性还意味着系统在多种功能之间切换以适应环境的能力,因此也被称为“复杂自适应性”。(21)Jen E., Robust Design: A Repertoire of Biological, Ecological, and Engineering Case Studies, Oxford: Oxford Press, 2005, pp.7-20.通常而言人们无须担心石头的鲁棒性。因为石头仅仅具有一种在时间和环境的扰动中维持自身原有状态的能力(稳定性),而不具备在多个应对策略之间做出适应性选择的能力(稳健性)。广义上看,稳定性可以被视为稳健性的一个方面。

安全性(Security)描述了特定情况下的稳健性,即一个系统在面对恶意攻击或对抗性干扰时能否有效抵御攻击、维持系统正常运转的能力。技术系统的稳健性水平往往在恶意攻击和恶劣环境下才能得到充分评估,例如通过精心设计的样本来“毒害”训练模型,通过研究输出来窃取模型,或是借助对抗性扰动来愚弄算法。因此有时候自行创建攻击也是提高稳健性的重要手段(66)。

稳健性常常也被认为与有效性相关,但二者通常被区分使用。有效性的关键在于实现既定目标,而稳健性的关键在于持续运行和对抗干扰,因此一个系统可能是有效的,但却不是稳健的,甚至一些研究指出稳健性和有效性(准确性)在神经网络中不可兼得。(22)Yang Y.Y., et al., “A Closer Look at Accuracy vs. Robustness”, the 33th Advances in Neural Information Processing Systems, article no.720(December 2020), pp.8588-8601.有学者在概念范围上对二者进行了区分,认为有效性通常指在规约范围内的系统活动,而稳健性则关注规约之外的系统活动。(23)接婧:《国际学术界对鲁棒性的研究》,《系统工程学报》,2005年第2期。但不可否认,这两个概念也常常彼此混用。有原则指出算法随着环境改变而具有的“有效性半衰期”(5),如在证券交易的应用场景下,算法在变化的市场环境中预测行情的有效性会随着时间而减弱。该原则所描述的特征更多地侧重于稳健性而非有效性。

面对系统内部和外部的变化,稳健性并不是唯一的要求,在维持自身状态和选择适应策略之外,系统还应该被持续优化,特别是递归式的自我优化。但这种自我优化往往依赖于大量数据输入和人类的反馈与训练。系统独立的自我优化,在现在看来仍然是一种面向未来的想象,正如有原则表示“下一代人工智能系统可能会变得越来越有‘自我意识’,具有发现和纠正错误、不准确或不道德决策的内置能力”(64)。人类主要通过两种方式促进系统优化:一是要求人类通过评估输入和输出来改进系统(45),这同时还涉及到将用户及利益相关者纳入沟通和反馈的信息传播过程(79);二是要求人类动态地确定行业最佳实践(1,23,41),并通过设立行业标准将其制度化,以更广泛地促进系统迭代升级。

(二)人类处于循环中

可靠性原则并不单一地指向技术物,它更根本地着眼于人和技术互动模式。随着人工智能的自主性和可靠性日益增长,我们已经看到许多自动系统在没有人为干预的情况下实现正常工作,甚至在一定程度上,人类的介入正在被视为多余,比如在安全系统领域的一些研究者通常将人类视为“链条中最薄弱的环节”。(24)Schneier B., Secrets Lies: Digital Security in a Networked World, Hoboken: Wiley, 2000, pp.255-270.而过多的干预也被认为会阻碍人工智能的应用效率,正如有原则指出“对每一个决策进行人工审核和干预,意味着限制或阻止某些人工智能或算法的应用”(22)。但在现有的技术水平下,完全脱离人类的人工智能系统尚未实现,人类参与人工智能的训练、监督和调试依然是必要环节。而根据保障人类自治的伦理要求,被置于工具地位的人工智能系统也必须要受到人类的控制。

出于不同原因,人类处于循环(Human in the Loop)的设计思路正在成为主流模式。这种设计思路提供了对人工智能系统的另一种理解方式,并不主张将自动化视为从任务中去除人类参与,而是将其想象为选择性地包含人类参与,(25)Wang G., “Humans in the Loop: The Design of Interactive AI Systems”, Journal of Artificial Intelligence Research, vol.64(February 2019), pp.243-252.在利用自动化技术提升效率的同时,保持它对人类的反馈和服从,这在一定程度上还减轻了构建“完美算法”的压力。但是将人类置于循环必须保障人类的知情同意,人类需要了解自己正处在与机器的互动中(51),而这种告知必须清晰且明确(2)。

从某种意义上来说,这种设计思路在两个层面保障了人类控制:其一是在系统运行过程中人类的有限控制,通常是持续的监督,并在必要时予以反馈、调整和干预。这意味着超越单个决策范围进行干预并考察其效用,从而将审核与干预的焦点从单一决策扩展到系列决策(22),这也被认为是一种“适当的人类控制”模式(41)。其二是人类对于系统所拥有的最终的控制权以及人类对相关事务的最终决策权和处置权。这要求人类能够从根本上为系统设置目标,并保持干预和终止系统的能力,同时要求人类能够挑战和质疑系统给出的结果,并有权从人工智能系统中退出,转交人类决策(35)。而保障这种人类控制的前提是人类对人工智能系统的持续监督,以及对其运行状态、决策和行动结果的知情。

人类处于循环的设计思路往往也体现在可靠性的其他原则中,成为实现它们的路径,比如人类需要持续地检验系统运行和自身期望之间的一致性,根据检测和评估的结果来给予系统反馈或调整算法和数据集,从而实现对人工智能系统的持续优化。而可靠性的技术指标也应该充分考虑置入其中的人类行动者。正如有原则提到的,人工智能应用程序的可靠性都应该根据使用它的人的能力进行配置(70)。特别是当人类不再有能力对人工智能施加控制的时候,系统便应该自己终止运行(32)。

四、问责制原则:对技术的后果负责

可靠性要求技术以符合期望的方式发挥作用,而问责制则着眼于这些效用的社会后果,关注与之相关的责任问题。如今,问责制已然成为人工智能治理领域的重要工具。在搜集到的88份原则文本中,有37份明确将问责制列为一项原则,另有33份提及了责任分配、追溯和承担等与问责制相关的内容。

(一)问责概念的最简范式

问责(Accountability)在历史语义上和会计(Account)密切相关,核算账目就是问责最早的意义。根据杜布尼克的说法,问责的概念最早可以追溯到英王威廉一世统治时期,他要求领地内所有的财产持有者对他们的财产进行计算并上报,经过皇室评估后将其列在所谓的末日审判书中。(26)Dubnick M.J., “Seeking Salvation for Accountability”, the Annual Meeting of the American Political Science Association, vol.29(August 2002), pp.7-9.随着现代国家的形成,问责逐渐在语义上脱离了账目核算的意义,演变为提高公共治理有效性和效率的工具。再后来,问责成为了一种治理目标,表达出对公正治理的强烈承诺,被奉为“善治”的标志。随着问责的概念不断扩张,有学者也认为它变成一个“概念伞”,涵盖诸如透明、公平、民主、效率、负责和诚信等多个方面。(27)Behn R.D., Rethinking Democratic Accountability, Washington D.C: Brookings Institution Press, 2001, pp.1-21.

为了防止概念过度扩张而致使其实际意义失效,有学者主张采取最简概念范式来理解和构建问责制。问责就最基本意义而言是指“对其他人负责,有义务解释和论证作为或不作为的正当性”。(28)Olsen J.P., “Accountability and Ambiguity”, The Oxford Handbook of Public Accountability, edited by Bovens M., Robert E.G. and Thomas S., Oxford: Oxford University Press, 2014, pp.106-124.博文斯对此做了更具结构化的说明,将狭义的问责制理解为一种存在于行动者(Actor)和问责者组成的公共论坛(Forum)之间社会关系,其中,行动者有义务对其行为进行解释和辩护,问责者则需要提出问题并做出判断,行动者最终可能面临某种后果。(29)Bovens M., “Analysing and Assessing Accountability: A Conceptual Framework”, European Law Journal, vol.13, no.4(June 2007), pp.447-468.在这个定义结构里,问责制至少包含了以下方面:责任的分配,包括由谁负责,对谁负责,负有何种责任;问责的必要过程,包括提供信息、影响评估、开展讨论和做出判断;问责的结果,包括惩罚、纠错和补偿等。

(二)责任分配

大多数原则主张在责任分配时采用分布式的责任结构,使责任在参与人工智能设计、开发、制造、部署、运营、操作等各环节的行动者之间进行分配。而分配的结果,特别是责任和主体之间的匹配关系,应该是明确并可识别的(76),换言之是一种“大声说出来的责任”(58)。现有原则就具体的行动者所负有的责任进行了不同程度的规约,但治理的焦点落在了技术专家或专业群体上。他们被要求明确自身的资质、专业知识和局限性(8),告知利益相关方技术目的和潜在影响(87),降低风险和预防不当后果(82),向社会发出通知和警告(17),并在损害发生时能够有效减轻其程度,共享和发展行业标准和最佳实践(38)等。但这种责任声明显得十分宽适,几乎是对通用原则的重申。

规范的模糊性同样存在于有关问责主体及负责对象的表述里。最常见的问责主体是“利益相关方”和“受不利影响者”,在由企业发布的原则中也表述为“用户”或“客户”,而在公共部门的主张中则往往是“公众”。但在这些宽泛的主张中,鲜有与上述社会角色相匹配的权利和义务声明。另一些原则主张通过代理机构进行问责,包括独立的外部审计机构、公共部门或是多方组建的伦理委员会等(38,8,28,49)。当利益相关方和受不利影响者不具备问责能力时,通过这些代理机构,他们可以更有效地参与问责过程,维护自身的权益。而在科技和工程领域,专业同行成为了一类重要的问责主体,作为共享特定实践标准和伦理规范的共同体能够对其成员的行为产生实际约束力,特别是在复杂技术的情境里,往往只有专业同行才具备问责所需的各种知识和能力。

(三)问责过程

问责的程序首先涉及信息的披露和获取,特别是与行动者行为及其后果相关的信息。只有改变问责者和行动者之间的信息不对称的处境,问责流程才能有效运转。一方面,这构成了被问责者的义务。被问责方需要记录过程数据并保证结果的可追溯性(10),以便向问责方提供及时、准确和完整的信息(75),同时这些信息还必须易于访问和理解(44),因此解释也成为了必要环节(72),这些信息披露的方式往往被要求以制度化的方式确定下来,以构成问责制链条的一环(82)。另一方面则是对问责方的能力提出要求。对于个体而言,提高对人工智能技术的理解是有效参与问责过程的基础,一些原则甚至将之视为智能时代的新型“公民素养”(55)。对于公共部门而言,为了持续地评估和审查行动者,应该扩展政策工具箱,组合利用监管和非监管方法实现敏捷和灵活的问责行动(83)。

在信息充分披露的基础上,问责有赖于对行动的实际或潜在影响进行评估。现有的原则中,既有基于功利主义的利弊衡量或风险与收益评估,也涉及对人权影响与社会公平的评估,关注人工智能的技术后果在多元群体间的分配。基于影响的评估和特定的评判标准,问责者往往会在充分辩论后做出判断。但问责评估所依据的标准并不总是明确的,问责实践涉及到对相互竞争的目标、主张和规范标准以及内部和外部期望之间的复杂权衡。(30)Busuioc M. and Lodge M., “Reputation and Accountability Relationships: Managing Accountability Expectations Through Reputation”, Public Administration Review, vol.77, no.1(August 2017), pp.91-100.在现有的原则中出现的问责依据也各不相同,但大体可以分为四类,一是科学技术自身的规律,如“依据科学和信息技术的流程”(83)“最佳技术实践”(87);二是现有的法律框架,如“法律应当明确责任和设计问责制”(20)“遵守法律(如《通用技术条例》)是对数据和隐私进行道德评估的良好起点”(82);三是各类规范,如“国际社会、国家、行业和团体制定的标准规范”(73);四是社会的道德原则,如“符合道德责任……使这些原则具有可操作性”(64)。尽管现有的原则注意到了当前问责依据的多样性,但却并没有进一步讨论如何化解这些相互竞争的问责依据间的内在张力。这些问责依据似乎和不断扩张的问责制一样成为了治理合法性的话语资源,在一个结构完整的治理框架中承担着象征性功能。

(四)问责结果

问责的最终目的是要构成一种治理实践,基于判断结果对责任方和受影响者采取行动,或者在预防意义上避免特定行为及其影响的产生。就事后处置的角度而言,通常包括对责任方做出惩戒,对受不利影响者予以补偿,或在非个体层面对损害进行修复或补救,并对既有的行动策略和技术系统进行调整与修正。基于“设计出的问责制”思路,将诉讼和纠纷解决机制嵌入在智能系统中也体现在现有原则中,成为了问责结果兑现的一种路径,如“机器人的决策路径必须以诉讼和纠纷解决为目的进行重构”。(3)另一种兑现路径则是通过创新保险机制以在社会范围内分摊行动成本(73),在保证救济和补偿的同时,又避免行动的责任成本过高而使智能技术的发展和应用受到限制。就事前预防的角度而言,问责制本身就对行动者构成了一种常规的约束,促使他们为了避免惩罚而预先防范。不仅如此,防范不良后果和向社会预警等事前预防行为本身就是问责制框架下相关行动者应该承担的责任和义务。

五、社会协同原则:治理的行动结构

不论是建构符合期望的人工智能系统,还是对技术的社会后果负责,这些治理行动都有赖于特定社会行动结构的支持。我们应该以怎样的社会组织模式来促进技术的发展和应用,应对技术造成的一系列后果?社会协同成为了具有共识基础的答案。在我们搜集的文本中,有53份主张在人工智能治理中促进社会协同。而在具体的语境中,社会协同原则指向了以下两个方面。

(一)社会协同作为信任基石

社会协同首先作为一种信任培育机制发挥着作用,在认知和控制能力始终难以臻于完备的情况下,为技术的发展和应用提供必要的文化准备和制度安排。对技术失控的畏惧构成了一种“现代性”的恐慌。对此,科林格里奇提出了“技术控制困境”进行阐述。(31)Collingridge D., The Social Control of Technology, New York: St. Martin’s Press, 1980, p.13.他认为,一方面技术信息始终处于一种时序上的不对称状态,即只要新技术没有广泛的发展和应用,就难以对其社会影响做出预测,另一方面则是新技术一旦得到广泛使用就很难控制和改变其社会影响。这种困境要求我们在潜在影响难以预测和失控风险不可消除的情境下妥善处理技术的发展和应用问题,并避免陷入“技术放任”和“技术拘禁”的极端情况。现代社会通过“脱域”机制得以急剧延伸,我们不可避免地被卷入到一系列赖以生活的专家系统中。(32)安东尼·吉登斯:《现代性的后果》,田禾译,译林出版社2000年版,第24页。由于个体无法详尽地验证这些专家系统背后的专业知识的可靠性,于是出现了普遍的安全感缺失。这就涉及到了社会信任的问题,正如吉登斯指出寻求信任的首要原因本就是“缺乏完整的信息”。(33)安东尼·吉登斯:《现代性的后果》,田禾译,译林出版社2000年版,第29页。在这个意义上信任并不是要完全消除潜在风险,反而往往与风险交织在一起,通过对风险的估算与之达成一种平衡。换言之就是我们在何种程度上可以信任技术,这种信任如何通过一种社会制度的安排得以实现?

按照吉登斯的观点,现代制度中的信任模式就其性质而言,实际上是建立在知识基础的模糊和片面理解之上的。尽管信息缺失和不对称的情况难以消解,但许多原则依然主张有效的信息交换和社会沟通。

一些原则的制定者依然没有放弃缩减知识鸿沟和打开技术黑箱的尝试,对于从根本上缓解技术恐惧并将信任建立在充分理解的基础上抱有持续的期望。但更多的情况下,这种主张的目的是促成一种对技术-社会环境的默认。对卢曼而言信任是社会复杂性的简化机制,用于解决社会复杂性在个体层面带来的无所适从的选择困境,从而使个体能够投入社会生活,驱动社会行动。(34)尼克拉斯·卢曼:《信任:一个社会复杂性的简化机制》,瞿铁鹏、李强译,上海世纪出版集团2005年版,第3-11页。在这个意义上沟通并不是制造理解而是促成适应。所以这种沟通传递的往往是一些印象或承诺,这包括了专家系统能力的可靠性,公共部门监管的有效性,以及人工智能系统的道德一致性。甚至有的原则还要求制造一种参与感来增强信任,“改善与人工智能有关的沟通,这样人们才会觉得自己是人工智能发展进程中的一部分,而不是被动的接受者,甚至是受害者”(39)。

有时候保持沟通的态度本身就可以带来信任。吉登斯认为对特定抽象体系的信任或不信任态度很容易受到在抽象体系入口处经验的强烈影响。(35)安东尼·吉登斯:《现代性的后果》,田禾译,译林出版社2000年版,第79页。保持沟通的态度在一定程度上传递了尊重和友好,为非专业人群提供了更为良好的“入口处”体验,有助于促进信任关系的形成。尽管信任始终存在一定盲目性,但这并不意味着专家系统对非专业人士的单方面操纵。荷兰学者瑞普提出了建设性技术评估方法,他主张增强开发者与社会行动者之间的互动,从而将否证性技术社会学的价值批判带入技术研发共同体内部,迫使技术开发者严肃对待相关批评,与批评者合力寻求更好的解决方案。(36)Johan Schot B. and Arie Rip A.,“The Past and Future of Constructive Technology Assessment”,Technological Forecasting &Social Change, vol.54, no.2 (February 1997), pp.251-268.在这个意义上,“入口处”的这些经验也在一定程度上更新了知识,并促成了彼此间实质的互动和共同的行动,正如有原则所说的:“在人工智能科学家和工程师之间创造一种合作、信任和开放的文化,以帮助我们更好地实现这些目标。”(6)

(二)社会协同作为治理模式

人工智能作为一项系统工程,其开发、部署和应用往往涉及到社会多层次的协作。随着人工智能治理所面对的现实情境日益复杂,参与治理实践的主体也日益多元。而治理这一概念本身也包含着权力下放、多方参与和去中心化的意涵。多元协作的治理模式正在成为人工智能领域的共识,要求积极开展合作建立跨学科、跨领域、跨部门、跨机构、跨地域、全球性、综合性的人工智能治理生态系统(77)。通过对原则文本的整理和分析,我们发现多元协作治理的主张建立在三个制度逻辑上:

其一是突破局部的制度或技术壁垒,促进全局治理。人工智能技术与信息通信技术高度重叠,具有“去疆域化”(37)Floridi L., “Hyperhistory and the Philosophy of Information Policies” ,The Onlife Manifesto: Being Human in a Hyperconnected Era, edited by Floridi L., Berlin: Springer Nature, 2015, P.56.的特征,民族国家在其主权范围之内难以有效行动,因此有原则呼吁一个跨国家和跨区域的全球治理体系(73)。另一方面人工智能技术应用的广泛性使之牵涉到不同的社会领域,局部管辖权和行动能力无法跨越制度和技术的壁垒应对全局性的治理需求。为了保障治理的有效性,需要通过构建共同规范和协同制度促进跨领域和跨部门的治理活动(83)。

其二是共享知识和经验的需求。这一方面要求在人工智能技术领域开放行业经验,特别是有关错误、缺陷(11)、网络攻击或黑客行为(19)的经验,以促进行业共同面对挑战,寻求最佳治理实践。正如有原则指出的“访问代码的人越多,越有可能解决程序漏洞,化解潜在风险并获得长期机会”(39)。另一方面则要求人工智能专业领域之外的各种文化、专业、学科进行组合,以广泛的知识、视角、理念为基础用于识别和解决数据处理的社会和道德后果,最大限度地减少未经考虑的风险(75)。

其三是人工智能的开发和应用过程广泛影响了多元人群,基于对自治价值的尊重,在人工智能治理的进程中引入多利益相关方机制,能够有效地保障人们自我管理和自主决定的权利。在这个意义上,协作治理还意味着民主制度和公共秩序的调整,避免因市场、技术和信息资源的垄断而带来权力的垄断,摧毁民主协商的公共秩序,同时也充分尊重不同人群的价值和需求,避免由代表性不足造成的歧视和压迫。例如有原则指出,在人工智能应用开发与实施的所有阶段,都应该支持弱势群体和边缘化个体作为创造者、利益相关者、领导者和决策者参与其中(37)。从而确保人工智能技术与公民对美好生活的各种观念相适应(42)。

治理主体的多样性意味着需要更有效地进行协调与统合。因此元治理的理念也被引入到了人工智能领域。元治理被认为是对治理的治理,是一种二阶治理的形式,涉及到为其它治理行动者制定规则和规范,创造治理行动开展所需的条件(38)Jessop B., “The Rise of Governance and the Risks of Failure: The Case of Economic Development”, International Social Science Journal, vol.50, no.155(March 1998), pp.29-45.,对不同治理方式进行协调,减少碎片化和重叠性。许多公共部门正在改变自己在治理框架中扮演的角色,通过在内部促进部门间协同,在外部构建治理网络的形式承担元治理的功能。不过也有观点认为公共部门也仅仅是治理网络中的节点,应该构建一个更加超越性的元治理机构,如多利益攸关方组建伦理委员会(55),以推动多元治理主体间的协同。在某种意义上,这些原则文件本身就意味着元治理的尝试,通过建构伦理共识和行动框架来促进参与和协同。不过激增的原则文本也是当下治理实践多元化和碎片化的写照,显示了不同治理主体和治理范式之间的竞争。

六、结语

结合对88份治理原则的整合与分析,研究为人工智能治理领域勾勒出了一幅具有整体性视角的图景。通过聚焦原则文本中蕴含的实践导向,研究发现在激增的文本和多元化的主张之下,虽然观点张力依然存在,但一个具有共识基础的行动框架已经初具雏形(见下图)。

人工智能治理原则的共识框架图

这个框架建立在三项实践准则之上:可靠性原则、问责制原则、社会协同原则。可靠性作为对人工智能系统的总体性要求而提出,它包含了有效性、稳健性和优化三个彼此关联的技术指标。而可靠性原则在更深层次上着眼于人和技术互动模式,要求在设计和部署人工智能系统时将人类置于循环中,这一方面意味着人类行动者的参与是实现可靠性的重要条件,另一方面则回归到了以人为本和尊重人类自主性的伦理主张上,要求技术系统最终由人类所控制。尽管我们希望人工智能系统能够以符合期望的方式持续运转,但也必须抱以现实的态度考虑如何应对非预期的技术后果。由此,问责制原则被提出,成为与可靠性原则相互补充的重要维度。问责意味着行动者要接受公开的审查并为自己的行为承担相应的责任,它建立在行动者和问责者之间的社会关系之上,依靠信息告知、质疑与辩护、评估与判断等必要过程来促进责任的追溯和承担。然而,不论是构建可靠的人工智能还是应对它产生的社会后果,这些治理行动都离不开特定社会行动结构的支持,而社会协同原则就回应了这个层面的问题。在技术风险难以根绝的现实之下,充分且有序的社会互动和信息交换被认为是社会信任的基石,能够帮助我们避免陷入技术放任和技术拘禁的极端境地。而面对人工智能治理系统化、全局性的特征,多元协作的治理模式也日益成为共识。

此外,不可忽视的是这三个原则都内在地指向了另一项被频频提及的重要原则——透明性。在人工智能的语境下,透明性是一个颇具相对性的复杂概念,涵盖了可观测、可解释和可预测等方面。(39)Chen J.Y., et al., “Situation Awareness-Based Agent Transparency and Human-Autonomy Teaming Effectiveness”, Theoretical Issues in Ergonomics Science, vol.19, no.3(February 2018), pp.259-282.在不同的治理目标和现实语境下,透明性的内涵也各不相同。也正是因此,虽然透明性在许多原则文本中被单独列出,但往往是践行其他原则的必要条件。佛洛里迪在其统一框架中就表示要“通过可解释性原则实现其他原则”。(40)Floridi L. and Josh C., “A Unified Framework of Five Principles for AI in Society”, Machine Learning and the City: Applications in Architecture and Urban Design, edited by Carta S., Hoboken: Wiley, 2022, pp.535-545.在可靠性的要求下,对机器效用的检验需要有效评估机器的运行状态,而人类处于循环中的原则同样也要求人机之间进行有效的信息交换以确保人类参与。在可问责的要求下,信息告知和解释是一切问责制的前提,外部审计的过程本身就带有逆向工程学破解黑箱实现系统透明的意味。在社会协同的要求下,社会信任的议题本身就围绕着透明度能在何种程度上实现,以及基于这种随时被校准的信任来调整人机关系。而去除人为的信息垄断,积极地推进信息共享,也是多元协作治理的基础。在这个意义上,透明性原则成为了内在于这一行动框架的核心,支撑起了构成框架的三项原则。

对于这一框架的理解也应该置于人工智能发展的现实背景下进行。当下人工智能正在经历第三次发展浪潮,基于大数据的深度学习是当下人工智能发展的“引擎”,大数据、超级计算能力和新的数学方法被认为是深度学习取得突破性进展的基础。(41)徐雷:《人工智能第三次浪潮以及若干认知》,《科学》,2017年第3期。以GPT-4为代表的万亿级参数的大模型正是这一技术进展的代表,并将人工智能技术推向了变革前夜。不同于早期逻辑主义关注证明、推理过程和抽象逻辑表达,深度学习依赖于大量高质量的数据进行训练。这意味着人们不再定义运算的规则,而是通过持续的输入和输出训练,使算法自己形成判断。人们往往无法完全评估算法的“黑箱”是如何得出特定答案的,这也使得“可解释”问题成为第三次人工智能浪潮的核心困境和讨论焦点。研究中涉及的文本大多伴随着深度学习的浪潮而生,有关数据科学和数据应用领域的探讨成为原则文本的焦点和热点,有15份原则文件直接将其作为主题。正如上文所述,对数据质量的评估和维护成为可靠性原则的重要方面,通过优化数据集来优化人工智能也成为行业共识,而算法的稳健性也越来越多地被理解为应对数据变化的能力。对数据的追溯和对算法结果的解释也成为问责制面临的主要问题。而以GPT为代表的“大模型”和“大算力”的发展模式,正在使人工智能技术的开发中心化,仅有资源雄厚的大公司才能够参与这场“军备竞赛”,这也意味着资源的共享和流动可能受到前所未有的挑战。但另一方面大数据本身并不产生于大公司,而是来自丰富的人类数字活动,移动互联网挑战了万维网的开放结构,通过独立APP构建起数据壁垒,而这也将成为当下人工智能发展的结构性约束。第三次浪潮之下,社会协同的重要性也空前凸显。

2017年中国发布的《新一代人工智能发展规划》中确立了伦理规范、法律法规、政策体系“三步走”的整体战略。如何迈出步伐,走通治理之路不仅是中国,也是全世界面临的重要挑战。在一定程度上,一个凝聚共识的行动框架是宏观的伦理主张转化为治理实践和制度体系的桥梁。现有的治理原则文本不仅围绕以人为本,福祉与尊严,效益与公平的价值主张构建了一个伦理框架,(42)赵瑜、周江伟:《人工智能治理原则的伦理基础:价值立场、价值目标和正义原则》,《浙江社会科学》,2023年第1期。为治理行动赋予了目标,其中还包含着一系列有关如何实现这些目标的实践准则。这项研究通过嵌入语境的分析与跨文本的整合,提炼出这个具有共识基础的行动框架,希望能使它成为从伦理规范迈向法律法规和政策体系的踏板与桥梁。

附表 研究涉及的人工智能治理原则文本

猜你喜欢

问责原则人工智能
让事故问责生威
监督执纪问责如何“备豫不虞”
“滥问责”的6幅画像
2019:人工智能
人工智能与就业
坚守原则,逐浪前行
数读人工智能
对“数字脱贫”要问责
下一幕,人工智能!
无罪推定原则的理解与完善