APP下载

人工智能应用“责任鸿沟”的造世伦理跨越
——以自动驾驶汽车为典型案例

2022-10-31王天恩

哲学分析 2022年1期
关键词:智能算法鸿沟伦理

王天恩

人工智能日益普遍的应用,将给人类带来目前所能想象到的最大红利,但这一巨大红利的兑现,同时伴随着巨大挑战。在这些挑战中,最迫近也是最困扰人类的,就是人工智能应用造成的“责任鸿沟”(responsibility gap)。由此带来的归责困境不解决,人工智能的应用就会遇到难以突破的瓶颈,由人工智能应用带来的巨大红利也难以顺利兑 现。

一、人工智能应用中的“责任鸿 沟”

随着智能算法(smart algorithm)的不断发展,人工智能应用所涉及的问责困境越来越可能成为其难以跨越的障碍。人工智能应用中的算法追责困难,不仅有透明度方面的挑战,而且由于“处于自动决策循环中的人类可能不具备识别问题和采取正确行动的能力”。这主要与发展到机器学习之后的人工智能算法有关,机器学习开启的智能算法自主性发展进程,在人工智能应用造成的相关问责上带来了日益严峻的挑 战。

算法透明性问题发展到一定层次,就涉及智能算法的发展和人类的关系。21世纪初,安德烈亚斯·马蒂亚斯(Andreas Matthias)就注意到与此相关的归责问题。他指出:“传统上,机器的制造商/经营者对其操作的后果负有(道义和法律上的)责任。基于神经网络、遗传算法和主动体(agent)体系结构的自主学习机器开创了一种新的局面,即机器的制造商/操作者在原则上不再能够预测未来的机器行为,因此不能在道德上承担责任或对其负责。社会必须决定是不再使用这种机器(这不是一种现实的选择),还是面临‘责任鸿沟’,这是传统的责任归属观念无法弥补的。”可想而知,随着人工智能越来越普遍的应用,问题就会越来越大,越来越严重。“我们面临不断扩大的责任鸿沟,如果处理不当,对社会道德框架的一致性和法律责任概念的基础都会构成威胁。”在初步系统研究的基础上,马蒂亚斯作了以下总结:目前正在发展或已在使用的机器,能够决定一个行动过程并在不受人类干预的情况下采取行动。它们的行为规则不是在生产过程中固定,而是在机器运行期间由机器自己改变的。这就是我们所说的机器学习。传统上,我们要么要求机器的操作者/制造商对其操作的后果负责,要么认为“无人”(在无法识别个人失误的情况下)负责。现在可以看出,机器行为的种类越来越多,传统的归责方式与我们的正义感和社会的道德框架不再相容,因为没有人能够对机器行为有足够的控制,能够为它们承担责任。这些情况构成了我们所说的“责任鸿沟”。随着智能算法的发展,这一“责任鸿沟”正不断凸显和扩 展。

如今,智能算法的发展已经进入自主编程阶段。在自主编程的遗传算法中,“遗传算法本身扮演着程序员的角色”。因此,“具有学习能力的算法提出了特殊挑战,它挑战了设计者责任这一传统观念。该模型要求系统定义明确、易于理解和可预测;复杂和流变系统(即一个有无数决策规则和代码行的系统)抑制整体决策途径和监督依赖关系。机器学习算法在这方面尤其具有挑战性”。 “这一挑战的核心是与机器学习中使用的特定技术相关的不透明性。机器学习算法的不透明性在更基础层面提出挑战。……基于训练数据的机器优化并不自然地符合人类的语义解释。手写识别和垃圾邮件过滤的例子,有助于说明机器学习算法的工作原理是如何逃脱人类的完全理解和解释的,即使对于那些受过专门训练的人甚至计算机科学家也是如此。”在人工智能发展过程中,“责任鸿沟”是机器智能和人类智能融合进化过渡阶段特有的重要课题。在自动驾驶汽车越来越普遍的应用中,这一课题研究的突破显得尤其迫 切。

人工智能应用所造成的“责任鸿沟”,在自动驾驶汽车发展中表现得最为典型和突出,影响也最为广泛。“新发展的自动驾驶车辆领域最近出现了一个现实世界的电车困境,由于在实际遇到这种情况之前,车辆的编程必须用到一个决策程序,这是一个在发生之前迫切需要解决的问题。当一辆自动驾驶汽车驶向另一辆车或一群行人,却没有足够时间停车时,就会出现这种两难局面。在这种情况下,车辆可以快速转弯,使自己的乘客面临受伤的危险,或者在继续危险路线的同时尽可能放慢速度。”但由此发生的事故责任由谁承担?由于自动驾驶汽车具有一定的自主性,很多情况下事故不能由算法设计者或使用者负责;当智能算法还不是道德主体时,责任也不可能由算法承担。自动驾驶汽车应用凸显的这一责任鸿沟,将随着自动驾驶汽车的推广很快构成发展瓶颈。深化对于责任鸿沟的理解,对于这一发展瓶颈的突破具有前提性意 义。

在人类设计的人工智能自主性不断增强的过程中,人工智能的应用必定经历一个责任主体的过渡衔接过程:由智能算法的人类设计和使用者到完全自主进化的机器智能体。在讨论“机器伦理”的必要性时,这一点得到认同:“程序员将其对产品的部分控制转移到操作环境。对于在最终操作环境中继续学习和适应的机器来说,尤其如此。”在这样的情况下,“设计师的控制和算法的行为之间创生了一条责任鸿沟,其中归责可能会被同时指向几个道德主体”。这是智能算法向自主进化过程中,在从人类设计到机器智能体自主进化过渡阶段必定出现的问题。“关于算法伦理的系统研究表明,算法可以用于将数据转化为给定结果的证据,从而得出结论;然后将这一结果用于触发和激励一种在伦理上可能不是中性的行动。这项以复杂和(半)自主方式进行的工作使算法驱动的行为效果的归责复杂化。”从一般算法发展到智能算法,从智能算法到机器算法自主进化,都属于这样一个过渡衔接阶 段。

正是在这一过渡衔接阶段,必定出现非单一责任主体的现象,而多个道德主体势必导致复杂的责任关系。随着责任关系的复杂化,在智能算法发展过程中,责任鸿沟是一个必定要出现的重要问题。正是在智能算法的这样一个发展阶段,会存在一个人工智能自身还不具有完全自主性,而人类又不可能通过把控智能算法具备完全责任人角色的环节。温德尔·瓦拉赫和科林·艾伦从机制层次指出:“计算机系统的模块化设计可能意味着,没有一个人或小组能够完全掌握系统与复杂的新输入流相互作用或对其作出响应的方式。”在机制基础上,关于人工智能算法应用所涉及的责任鸿沟问题,随着智能算法本身的发展越来越清晰。所谓责任鸿沟,实质上是一种机器智能体在自主性不断增强但又尚未获得责任主体地位阶段的责任无着落现 象。

人工智能应用所带来的“责任鸿沟”,与随着人工智能发展呈现出的一种渐进过渡密切相关——从主要是算法设计者和使用者的责任向自主进化的机器智能体负责逐渐过渡。因此在智能算法还没有发展到自主进化之前,智能算法的设计、生产者和使用者的责任是清晰的。在这一发展阶段,智能算法的可问责性原则至为重要。关于可问责问题,在微软公司就人工智能开发应用提出的六项伦理原则中有一个具体阐述。“如果是机器代替人来进行决策、采取行动出现了不好的结果,到底是谁来负责?我们的原则是要采取问责制,当出现了不好的结果,不能让机器或者人工智能系统当替罪羊,人必须承担责任。”责任人必须承担责任,这是基本原则,但随着智能算法的复杂化,传统意义上的追责甚至存在技术上都难以克服的困难。“在由线性编程转向自编程算法的当下,这种趋势变得越来越明显。由于可追溯的伦理评价总是要对伤害找出原因和确定责任,因此责任很可能会被分摊到多个参与者或主体,这使得归责问题变得更加复杂。”计算量太大在一定发展阶段是一个难以逾越的障碍,而算法评价则更是越来越复杂的环 节。

随着人工智能的发展,特别是当智能算法进入自主进化,算法评价就必须根据其执行的效果;而效果又必须在尽可能高的整体层次评价,因此涉及关于目的和效果甚至动机和效果之间关系理解的深化。对黑箱不可能也似乎没有必要进行动机分析,只有最后输出的结果才具有实际意义。最后输出结果则随着智能算法的发展而不断改变,这就使问题变得越来越复杂。即使随着技术的发展,一些问题可以得到解决,也仍然存在这样的发展形势——在智能算法发展的特殊阶段,随着智能算法发展而产生的伦理问题,不仅由于人类偏见变得更为复杂,而且传统范式难以应对这种形势,进而需要讨论的便是人工智能社会应用的可行 性。

智能算法的可问责性是其社会应用的先决条件,智能算法的问责将是一个其性质随着人工智能的发展而不断变化的过程。“最终,我们需要决策算法中的可问责性,这样才能明确谁来承担由其所作决策的责任或算法支持。透明度通常被认为是促进问责制的关键因素。然而,透明度和审计不一定足以承担责任。事实上,……即便隐藏了一些信息,但这里采用了能够提供可问责的计算方法。”为此,人们提出类似会计制度等问责方式,同时得出如下认识:“可问责并不仅仅是一个会计问题。……可问责是可解释的质量或状态。相应地,可解释的又被定义为:一方面有责任(就像给某人的行为)给出解释,即是可回答的;另一方面定义可以解释,即是可解释的。在第一种情况下,可问责将是一个行为主体的属性,或者至少是一个有自主意见的行动主体。在第二种情况下,可问责将是一种对象的质量或状态,因此必须有外部意见才能进行实际说明。”但是在智能算法发展过程中,可问责性的问题将变得越来越复杂,其中就包括没有自主意见的行动主体不仅可能造成严重事故,而且会造成明显的责任鸿沟,使“‘责任伦理’因此声名狼藉”。而且在当前发展阶段,一方面要确保智能算法设计和使用的可问责性,另一方面必须首先明确责任鸿沟的应对困境及其形成的深层根 源。

二、智能算法“责任鸿沟”的应对困境

在享用和期待人工智能带来的巨大红利的同时,迎接与其伴生的归责困境的挑战,已是当务之急。由于在人工智能自主性发展的特定阶段,智能算法可以给人类带来严重威胁,相应责任问题的解决就越来越迫切。安德鲁·图特(Andrew Tutt)认为:“至少在某些情况下,算法能够造成异常严重的伤害。当机器学习算法负责维持电网运行、协助手术或驾驶汽车时,它会对人类健康和福利构成直接而严重的威胁,这是许多其他产品所没有的。”应对这种威胁,必须对智能算法的设计和使用进行有效规制。鉴于智能算法的发展,这种规制涉及分层次的整体应 对。

在适用通常法规的范围内,人工智能应用的相关法规治理不成问题,例如,限制其使用范围:“算法可以有条件地获得批准,但必须受使用限制——例如,一种用于巡航控制的自动驾驶汽车算法,只有在公路运行的条件下才可以获得批准。一种算法超出范围的使用,或者营销一种未经批准的算法,可能会受到法律制裁”。无论就伦理还是风险应对来说,对智能算法使用范围的限制都是必不可少的。但是,相关智能算法的法律治理遇到了新问题,例如:“即使算法编程特别注意明确的法律规范,也很难知道算法在任何给定的情况下是否根据法律规定行动。”对于算法设计和使用的规制,最根本的是责任追溯,而正是在这个根本环节中,存在着现有理论和实践难以解决的算法归责难题,这就构成了责任鸿沟的应对困 境。

关于算法责任,图特在系统研究的基础上概括出前所未有的挑战。“机器学习算法的复杂性不断提高,用途也越来越广泛,这些算法在伤害到人们时,将带来许多挑战。”这些挑战与追责主要有三个相关方面:“第一,算法责任难以度量;第二,算法责任难以跟踪;第三,人的责任难以归属。”人工智能发展所带来的这些追责困难,完全是新发展带来的新问题。

智能算法的应用极大地增加了衡量算法责任的难度:“这个问题是多方面的。算法很可能会在各种不同的情况下作出前所未有的决定,有些情况没有人遇到过,甚至也不可能遇到。这种决定可能是‘漏洞’或‘特点’。一辆自动驾驶汽车也许会故意导致意外事故,以防止更具灾难性的车祸。股票交易算法可能会根据诚意信念(无论这对算法意味着什么)下一个坏赌注,认为某一特定的有价证券应该被购买或抛出。而问题在于:对于一个人的疏忽行为,或者相反——以在法律上应受惩罚的方式行事,会有一个普遍可行的看法;但对于算法这样做意味着什么,我们并没有同样明确的概念。”由于机器智能不同于人类智能的基本特性(最基本的比如速度),智能算法可以进入人类不可能进入的情境。在这种情境中,行动者的归责就可能不像人类所经历或可能经历的情境那样有成规可 依。

智能算法的应用也极大地增加了跟踪算法危害的难度,这多少与智能算法的人为操控观念有关。如果根据行为结果跟踪算法危害,那么问题就要简单得多,只不过由于主动体(agent)的情况较复杂,还必须有一种更高层次的处理。如果智能算法处于专用人工智能水平,就按工具对待它;如果达到通用人工智能水平,那就跟对待人一样,以其行为为根据;但如果介于二者之间,由于从算法设计到具体使用情境的复杂关联,则会出现隐性的责任鸿沟及其应对困境,这主要与确定人类责任的困难密切相 关。

智能算法应用中的人类责任问题,源于智能算法特定发展阶段的性质,即人机结合日益复杂化。在复杂的使用情境中,这种性质甚至可以使归责成为一个似乎无解的问题。“算法可以用许多其他产品都不具备的几种方式被分割和切割。一家公司只能出售一个算法的代码,甚至可以赠送它。然后,该算法可以被复制、修改、定制、重新使用,或在作者当初从未想象过的各种应用程序中使用。对于在未来一系列使用中造成的任何伤害,要确定最初的开发者应当承担多少责任将是一个难题。”关于智能算法归责,这是最具挑战性的核心问题,实际上,正是这一问题构成了人工智能应用中责任鸿沟的应对困 境。

责任鸿沟应对困境的构成,不仅涉及智能算法本身以及与人类关系的复杂因素,而且涉及更复杂的人为因素。这方面的研究表明:“人们已经给予算法很大信任,在某些情况下,这会影响到人类行为者,产生去责任化或者‘躲在计算机后面’的倾向,并默认自动化过程是正确的。将决策委托给算法可以将责任从人类决策者身上转移开,正如关于官僚机构的研究所表明的那样。在人与信息系统的混合网络中也可以观察到类似的效应,其特征是个人责任感的降低和不合理行为的执行。例如,涉及多学科利益相关者的算法可能会导致一方假定其他人将为算法的行为承担道德责任。”诚然,类似情况以前在人类当中也一直在发生,但在智能算法应用条件下,情境有很大不同。“赋予人工智能体以道德主体地位,可以允许人类利益相关者将责任转嫁给算法。”在一种本来就非常复杂的关系中,再增加一个关键因素,问题的复杂性就会呈几何级数增加,以致我们不能再于原有的伦理范式内解决问题。随着人工智能算法的发展,人工智能应用中的归责困境会越来越严 重。

毫无疑问,“归责”困境处于人类和人工智能关系中伦理问题的核心。但是,对于这样一个处于核心地位问题的研究,现在还没有取得真正的进展。一方面,对于如何重新实际定位被自动化取代的社会和伦理责任,人们还没有取得共识;另一方面,“人们经常在既定的程序中寻求庇护,这些程序将责任分配得如此广泛,以至于无人可被认定为造成灾难的罪魁祸首”。目前,这方面的研究主要还处于探索阶段。人们认为,不论选择何种设计哲学,开发者有责任在不同道德框架支配下的不同语境中进行设计。一些研究甚至涉及智能算法伦理问题研究的话语重建,认为“可以在纯粹认知和伦理基础上,用来原则性地组织当前描述对算法伦理关注的学术话语”。无论语境还是话语,都可能关系到范式转换,这就可能不仅涉及人工智能发展过程中人类在更高整体层次上的掌控,而且涉及人工智能发展的人类理解问 题。

正是智能算法的介入,使责任归属问题空前复杂,一种自然而然的想法应运而生——人工智能算法发展所带来的责任归属难题,必须借助人工智能算法本身的发展来解决。最近有研究试图从可预测性入手解决问题,从可验证性走向可验证的伦理机器人行为。由于认识到“确保自主系统合乎伦理地运作既复杂又困难,研究形成了由‘后果引擎’(consequence engine)组成的调控器,该引擎评估行动的未来可能结果,然后应用安全/伦理逻辑来选择行动”。关于这一尝试,有进一步的研究认为:“拥有一个外加的‘管理者’来评估系统所拥有的选项,并对其进行调整以选择最符合道德的选项这一想法,既很好理解,也很吸引人,但不可能确定最合乎道德的选择是否真的被采纳”。鉴于这种批评的合理性,可预测性研究进路又“将一种著名的代理验证方法推广到其结果引擎,使之能验证其伦理决策的正确性”。设置“后果引擎”的设想表明,即使用人工智能的发展来解决责任鸿沟问题,也具有明显的局限性,比如外加“管理者”的做法在专用人工智能初期发展阶段应当是管用的,但随着人工智能的通用化发展,“管理者”会渐失其作用和意义,并迟早会失 效。

随着人工智能的发展和应用的普及,人工智能介入所导致的责任主体模糊,引出了越来越多的责任和义务难题。这类难题目前最突出的表现就是自动驾驶汽车的事故责任。这一领域的归责问题具有广泛的社会渗透性,人工智能应用中归责困境的解决也就越来越迫切。在智能算法所引起的关于人工智能应用的责任鸿沟应对困境问题中,自动驾驶汽车不仅最为典型,而且由于应用越来越普遍的发展形势,解决方案的获取也最为迫切。这个在人类语境中都颇显棘手的问题,在涉及自动驾驶汽车的复杂道德抉择中更是让人一筹莫展。“涉及自动驾驶车辆(AVs)的事故不仅凸显了难以解决的伦理困境和法律问题,而且带来了新的伦理冲击。有人认为,自动驾驶汽车应该编程杀人,也就是说,当损失不可避免时,它们应该配备预先规划好的方法来选择要牺牲的生命。”正因为涉及这类前所未有而富有挑战性的问题,在人工智能的应用中,涉及归责问题最突出也最普遍的,就是自动驾驶汽车领 域。

由于人工智能应用发展的急迫需要,关于责任鸿沟问题,人们作出了很多解决尝试,特别是在自动驾驶汽车领域,更是集中了关于如何走出算法应用责任鸿沟的大量研究。自动驾驶汽车面临的责任困境更典型地凸显了“电车困境”,因此相关研究成了最理想的选 题。

关于自动驾驶汽车面临的“电车困境”,德里克·莱本(Derek Leben)提出了“罗尔斯算法”,并以这种解决策略来作为功利主义解决方案的替代选择。这一策略在罗尔斯理论的基础上得到一个假设,即“获益最多程序是在原初立场的自利代理人所使用的”。“罗尔斯算法的基本思想是:收集车辆在每一动作中对每个涉事者生存概率的估计,然后计算出如果一个自利人处于公平的初始约定地位,他或她会同意采取哪种行动。”“罗尔斯算法”基本上是传统伦理范式在自动驾驶汽车责任鸿沟问题上的应用,既有其局限,也有其特殊意义。“罗尔斯算法的主要优点是平等地尊重人,不愿意为了某一个体的利益牺牲其他人的利益。当然,这可能会产生令人惊讶的结果,但那是因为任何罗尔斯主义者都相信道德基础是不可避免的。”“罗尔斯算法”着重关注的,主要是所有涉事者意愿的统计平均值,结果可能是所有涉事者都满意,也可能都不满意,更多的情况则是有的满意,有的不满意,因此不可能顾及所有人的利益和权利,更不可能考虑到大多数人的责任和义 务。

在自动驾驶汽车归责困境研究中,人们考虑得更多的是车外的事故受害者,车内涉事者则较少被考虑在内。一旦涉及车内涉事者,就会直接触及智能算法设计者的责任关系问题。为了避免必要时自动驾驶汽车必须“编程杀人”的困境,朱塞佩·孔蒂萨(Giuseppe Contissa)等试图探索“一种不同的方法,赋予用户/乘客一个任务,以决定自动驾驶车辆在不可避免的事故场景中应该采取何种合乎道德的方式”。因此,他们设想给自动驾驶车辆配备一种“伦理旋钮”,“一种使乘客能够在道德上定制他们自动驾驶车辆的装置,即在与不同道德方法或原则相对应的不同环境中进行选择。因此,自动驾驶车辆将负责实现用户的道德选择,而制造商/程序员的任务则是使用户能够选择,并确保自动驾驶车辆实施”。关于自动驾驶汽车的道德选择,到底应当在智能算法中预先编程决定,还是仅仅让智能算法提供乘客选择的机会,由乘客来决定?这些问题都还是传统伦理层次上的,而且由此致思也不能更合理地解决自动驾驶汽车的道德选择问题。相对于车外的可能受害者来说,车内人的选择会面临相同的问题,甚至还会有其他新的问题。在自动驾驶汽车智能算法设计中,到底是首先考虑用户的安全还是行人的安全?智能算法决策怎样协调车外人和车内人的关系?无主事故责任由谁承担?诸如此类问题的解决都已经超出了已有理论的考虑范围。自动驾驶汽车应用中的责任鸿沟应对困境表明,在传统伦理范式中,不可能真正解决人工智能应用中的责任鸿沟问题。问题得不到合理解决,人工智能的社会应用就会给人类带来严峻挑战,其结果必定是人工智能难以充分发展,人工智能的巨大红利也就形同画 饼。

人工智能应用中责任鸿沟问题的应对,必须有更高理论层次上的整体把握,为责任鸿沟的跨越提供基础,并寻获可行的解决方 式。

三、自动驾驶汽车“责任鸿沟”的跨越

作为普遍出现在日常生活中的具体问题,人工智能应用中的责任鸿沟不仅涉及人工智能引发的同类问题的实践解决,以及现实事故的实际处理,而且涉及哲学等相关理论问题研究的深化;不仅广泛涉及实际归责迫切需要研究的大量现实问题,而且涉及机器智能主体地位等哲学理论问题。总之,人工智能应用中的责任鸿沟问题,根本上是一个理论和实践一体化的问题,深入涉及哲学基础理论。其中,自动驾驶汽车的责任鸿沟问题最为典型。一方面,自动驾驶汽车事故的伦理甚至法律责任问题,在传统伦理和法律框架中不可能得到合理解决,暴露了责任鸿沟应对的理论困境;另一方面,关于以自动驾驶汽车为典型领域的跨越人工智能应用责任鸿沟研究,目前为止还没有取得令人满意的成果,这也在实践领域表明该问题不可能用传统方式处理。就当前范式而言,“罗尔斯算法”和“伦理旋钮”解决方案基本上考虑到了问题的基本方面,但仍然存在根本缺陷,由此可见,这类问题必须在更高层次上得到处 理。

在传统伦理学的视野中,只有工程师和机修工才有必要知道汽车发动机如何运作,但每位司机都必须明白转动方向盘会改变汽车的方向、踩刹车会让车停下。而在更高层次看,关于人工智能所带来的归责问题,智能算法的设计者和司机以及相关的更多要素都必须考虑在内。在自动驾驶汽车情境中,困扰人的“电车困境”伦理问题,一方面因为更复杂而表现得更为棘手,另一方面又由于涉及人类创构而可能带来新的解决进路。从创构活动到造世活动,从工程伦理到造世伦理,伦理领域的相应发展为自动驾驶汽车责任鸿沟问题的解决提供了新的理论基 础。

自动驾驶汽车在目前发展阶段还不具有真正意义上的自主性,赋予其道德能动性,显然为时过早,沿着这一方向,也不能解决相关应用中的责任鸿沟问题。目前的汽车没有道德能动性,通常用于这些机器的“自主”一词具有误导性,并导致关于这些机器如何保持伦理的无效结论。人类几千年来作出的道德选择,可以解决人工智能装备带来的很大一部分挑战。因此,即使从一开始就可以做到这一点,也没有必要给机器传授伦理。将极端离奇的场景(如“电车困境”)作为概念化当前道德问题的基础,是一个严重的错误。在目前条件下,道德能动性仍然只有人类才可能具有,只有当智能算法的自主进化到一定阶段,机器智能体的道德能动性问题才会提上议事日程。由于智能算法意味着规则和规律一体化,机器智能体的道德能动性问题与人类道德能动性问题将有很大不同。对于机器智能体来说,伦理的确不是教会的,而是一件与建立关系从而获得语境有关的事情;但无条件地认为汽车没有道德能动性,显然没有意识到自动驾驶汽车智能算法的自主发展,那会是一个从被动工具到充分自主的展开过 程。

当自动驾驶汽车具有完全的自主性,其伦理地位与人相似,机器智能行为遵循人类伦理规范;而当自动驾驶汽车还不具有完全的自主性时,人类既不可能完全通过外在规制,也不可能通过内在规范防范和处理自动驾驶汽车的事故归责问题。这时候,人类的责任主要集中于人工智能发展的前提性规 定。

随着自主进化的发展,智能算法对人类来说越来越成为黑箱,人们只能从其输出结果对智能算法进行评价,而最后输出结果的可信性,则必须建立在规则和规律一体化的基础之上。这样一来,人类责任的权重越来越向智能算法的前提性预设倾斜。正是在这个意义上说,关于智能算法的责任问题,最深的根源在于创构过程中作为前提性预设的规定层次。在人工智能的人类创构中,越是涉及前提性规定,伦理后果关涉越长远而越难预测,因为在相关因素体系中,前提性规定的地位和作用随着算法所在智能体的自主性而强化。关于算法伦理的一项综合性研究表明:“由于种种原因,确定算法的潜在和实际伦理影响非常困难。识别人类主观性在算法设计和配置中的影响,常常需要对长期、多用户的开发过程进行研究。即使有足够的资源,在成问题的使用案例出现之前,问题和潜在价值通常也不会很明显。”由此所凸显的伦理风险将是存在性层次的,智能算法的存在性伦理风险可想而知,而因此越来越重要的则是人类对未来的把控能力。在人工智能的当下发展中,由于智能算法仍然处于工具层次,人们从算法看到的更多是人工智能的工具性应用风险——特别是缺乏信任的人类应用。只有从机器智能的自主进化方面,才能看到通用人工智能可能给人类带来的存在性风险。正是在存在性层面,集中了人工智能给人类带来的最基本也是最核心的问题,而可问责问题必须在这些最基本问题的基础上得到理解和解决。由此可见,前提性规定的根本性和更深层次、更广范围扩展,一方面前所未有地凸显了目前人工智能发展的人类责任,另一方面启发我们必须在更高层次上理解“责任鸿沟”。只有在更高的整体层次,才能实现对“责任鸿沟”的跨越。凸显规则和规律一体化的造世伦理,就提供了这样一个更高整体层次。在造世伦理层次,人们才可以更深刻地认识到目前发展人工智能的责任,应对人工智能应用中的责任鸿沟等新问 题。

从造世伦理的更高整体层次,我们可以看到一个完全不同的更广景观。由于在越来越大范围内解放了人的体力和脑力,人工智能的发展,将给人类带来虽然机会和风险深度交织,但也是可能拥有的最大红利。自动驾驶汽车就是最典型的例子,这方面的研究也最多。“人工智能所带来的进步将比以往任何时候都更加突出汽车未来的本质。即使是自动驾驶,机器学习过程也是可能的——这是汽车工业的最大机遇。”自动驾驶汽车首先凸显了一个真正的危机和机遇深度交织的发展阶段。“人工智能正预示着下一波巨大的发展浪潮,……但对许多人来说也是危险的。……这种发展的后果可能非常严重——大约十年后,世界上最大的汽车制造商中有三到五家将不复存在。”自动驾驶汽车的发展动力,源自人类流动和物流的全自动化需要,其中最为重要的内容,就是人类流动的自动化。在奥斯陆能源会议上,马斯克曾不无根据地表示,特斯拉的自动巡航功能至少可降低50%交通事故发生率。有的估计甚至认为,无人驾驶汽车的发展将能使交通事故率的降幅达到90%。在这方面,目前的任何具体估计可能都具有局限性,而随着自动驾驶汽车应用普及程度的提高,在事故率不断降低的同时红利不断涌现,则是有充分根据期待必定出现的效应。虽然关于交通事故率的降幅存在不同结论,但自动驾驶汽车的普遍使用将带来巨大红利这一点显而易见。这就富有启示地意味着,必须在更高整体层次,才能看清人工智能应用问题的性质。也就是说,从整个人类或整个社会层次看,必须在更高整体层次,才可能进一步厘清由人工智能应用引发的责任和义务,更合理、更到位地处理相关问 题。

正是在智能算法的归责困境中,可以更清楚看到造世伦理层次处理的必要性。如果说人工智能发展中的有些伦理问题还具有传统伦理和造世伦理之间的过渡性质,那么智能算法的责任鸿沟则纯粹是一个造世伦理问题。机器智能体的责任涉及新的伦理和法律问题,其基础涉及创构过程中规则和规律的一体化,应当在造世伦理的层次理解和处理。在现有研究成果的基础上,问题变得越来越清楚——在造世伦理层次,可以真正解决由人工智能算法带来的自主性发展相关责任问题。由责任鸿沟造成的人工智能应用归责困境,甚至必须在造世伦理层次理解;智能算法责任鸿沟的跨越,必须有建立在造世伦理基础上的更高层次方案。人工智能应用中的责任鸿沟,可以在造世伦理层次真正跨 越。

人工智能应用中责任鸿沟的跨越,涉及两个基本方面:一是规则和规律一体化条件下的道德责任衡量标准;二是人工智能应用条件下伦理观念本身的发展。两方面都与造世伦理密切相关,前者涉及功利主义道德理论的造世伦理重新审视,后者涉及从适世伦理到造世伦理的范式转 换。

“造世”是相对于“适世”而言,因而“造世伦理”相对于“适世伦理”,两者的性质和特点有着重大差别。其中最基本的差别,就是造世伦理的整体性、类特性和共同性。造世伦理的整体性,意味着责任和义务的一体化。在人工智能应用中,相关责任和义务主要涉及两类:一是智能设备的设计和使用责任;二是受益方伦理义 务。受益方包括社会和自动驾驶汽车利益关联各方。

智能设备的设计和使用责任,仍属人工智能应用中的传统伦理责任。在自动驾驶汽车的具体案例中,相关智能设备包括自动驾驶汽车及其所有配套设施,设计责任则包括自动驾驶汽车制造和保养所有环节的合理性或缺陷。这方面,波音737 Max系列的两起事故,就是具有借鉴意义的例子。使用责任包括在自动驾驶汽车使用过程中,使用人和汽车拥有者所涉及的所有导致事故的人为因素。如果事故主要由于设计缺陷或使用不当,那么责任主要由设计制造者或使用责任人承担,这与普通交通事故责任归属没有原则不同。但是,在自动驾驶汽车的具体应用中,责任鸿沟意味着可以出现责任归属困难,而且确实是无责任主体的情境。这种情境可以从完全无责任主体到部分非主体责任呈可量化分布。在人工智能发展过程中,由于自主性要素的复杂化,其应用会造成从非主体责任到完全无主体责任的问题。这种无责任主体的问题是适世伦理情境中不存在的,因为这种问题源于造世过程,属于造世活动产生的特有问 题。

正是从非主体责任到无责任主体的系列问题,决定了不可能完全按照有责任主体条件下的归责处理方式,而必须在造世伦理的更高整体层次处理相关伦理问题。必须在更高层次的造世伦理理解中,这种全新的道德选择问题才能得到更合理的解 决。

受益方伦理义务则属于新的责任和义务,涉及人工智能应用中的造世伦理内容。从造世伦理的层次看,不仅自动驾驶汽车的拥有人和使用者,相关类群甚至整个社会都是人工智能巨大红利的享有方,因此,自动驾驶汽车的事故风险,既与责任人又与相关义务方有关。因此,造世伦理遵循类群伦理原则,目的是实现类群利益最大化。这种类群伦理原则基础上的利益最大化,与功利主义伦理观念具有表观上的相似性,但二者有根本区别。虽然都以实现利益群体最大化为目的,但类群伦理原则与功利主义伦理原则的根本不同在于:它在造世伦理维度达到了个体伦理和类群伦理的统一,而不像功利主义伦理原则那样,由于个体伦理和群体伦理的分离甚至对立,应用于个体会存在个体和群体之间的伦理冲突——因群体伦理考虑而造成对于个体的伦理不合理性。因此,即使在传统伦理范式看来最棘手的问题,在造世伦理层次也可以得到合理解 决。

在造世伦理层次,也可以合理解决由自动驾驶汽车应用责任鸿沟涉及复杂的人与人关系而出现的更复杂问题。在遇到刹车失灵等造成自动驾驶汽车是冲向人群还是用户冒风险避免人群更大范围伤害的选择时,按照最大利益原则,智能算法应当有选择自动驾驶汽车损毁以避免更多人受伤害的设计。但如果智能算法这样设计,这种自动驾驶汽车的销售就可能遇到问题。在传统伦理范式中,这个问题也是没有办法解决的。而在造世伦理层次,由于规则和规律的一体化,自动驾驶汽车算法按照群体最大利益这一更高层次原则设计,就不是具体个人可以选择的,而必须有更高层次的整体性原则。因为在造世伦理层次,任何人都可能既是自动驾驶汽车的使用者,同样也是其可能的伤害者,在一个具体局部事件中存在利益不对称,而在更高整体层次,最大利益原则却符合每个人的利 益。

现有自动驾驶汽车的决策设计已经采用功利主义伦理观念,所反映的正是造世伦理的整体性观照。“在某些情况下,自动驾驶汽车需要被编程来有意杀死人(行人或他们的乘员),以尽量减少整体伤害,从而实现功利主义道德。事故调查人员解构未来的事故,可能想知道事故是道德功能的结果,还是一个严重的算法错误。自动驾驶汽车算法的可解释性将是这一调查的关键。”而自动驾驶汽车算法设计要在“功效论”和“义务论”伦理价值观间进行选择,正是造世伦理的一个低层次写照。在人工智能算法设计中,这种造世伦理层次更为典型。由于达到了个体伦理和类群伦理统一的层次,造世伦理视域中的自动驾驶汽车事故责任问题,就能得到更合理的解 决。

如果自动驾驶汽车所发生的事故不是设计和使用责任,由于没有人事行为责任主体,不存在事故责任,只存在受益者义务问题,相关损失应由自动驾驶汽车受益方承担。其法理根据是:自动驾驶汽车不仅使交通事故率和损失大大下降,而且使相关效益极大提升,从而给社会带来巨大红利;但自动驾驶汽车的应用本身具有无责任主体风险,由于自动驾驶汽车应用所带来的巨大社会红利,无责任主体事故意味着受益方有承担相关风险的义务。因此非设计和使用导致的事故,责任应由受益类群以义务的方式承担,这不仅是合理的,也是完全可能的,因为采用自动驾驶使类群交通安全和效率大大提升生成的红利,只需拿出很小一部分用于承担无责风险义务。至于具体应当怎样实现,这只是一个技术操作问题。在解决自动驾驶汽车应用责任问题的研究中,有人提出增设保险的方式解决自动驾驶汽车事故责任问题——虽然这类方案不可能在现有保险意义上实行。由于关系完全不同,购险关系不明确,只在原来范式中采用保险方式解决自动驾驶汽车带来的责任鸿沟问题,没有可行性。非自动驾驶汽车用户不可能买这一险种,而由于自动驾驶汽车算法设计的受益义务原则,用户也具有与非用户同样的地位,也没有理由买这种保险。退一步说,即使用户购买保险可以推行,但自动驾驶汽车发展在很长一段时间内,也积累不起提供这种保险的足够资金保证。然而,在自动驾驶汽车事故责任的造世伦理层次解决基础上,就可以看到跨越人工智能责任鸿沟的具体现实路径。这样不仅使自动驾驶汽车自身风险有了保障,能够解决事故责任等相关具体问题,而且可以确保人工智能本身的顺利发展,从而为人类带来更大的红利,使人工智能的社会应用进入良性循环。这正是从造世伦理而不是适世伦理层次才能看到的更高层次问题及其解决方案,是在造世层次看到的更高层次伦理关 系。

在具有更高层次整体性的造世伦理中,自动驾驶汽车发生涉人伤害的交通事故,伦理和法律责任就不仅仅是自动驾驶汽车与事故受害者之间的关系了,而是涉及社会更高层次甚至最高层次的整体关联。一方面,在造世伦理中,伦理和法律的一体化发展趋势越来越明显,在理论研究中,伦理义务和法律责任越来越不能分割;另一方面,在自动驾驶汽车事故处理中,个体责任和社会义务的一体化也越来越明显,二者之相应也越来越必须同时考虑。这正是人工智能应用所涉及的伦理甚至法律责任问题,必须在造世伦理层次处理的基本根据,也是造世伦理为处理人工智能应用引发的伦理问题而打开的新视域,为相应责任鸿沟所提供的跨越途 径。

猜你喜欢

智能算法鸿沟伦理
浅析“老年数字鸿沟”的弥合路径
鸿沟为何不可逾越
浅谈我国社会工作伦理风险管理机制的构建
鸿沟为界
亲组织非伦理行为研究
亲组织非伦理行为研究
改进的多目标快速群搜索算法的应用
烟草香级智能集成分类方法
基于Robocode的智能机器人的设计与实现
基于云模型的单路口交通信号智能控制系统研究