试论人工智能的伦理责任
2020-12-25戴益斌
戴 益 斌
(上海大学 哲学系,上海 200444)
人工智能正快速进入人类社会,在为我们生活带来越来越多便利的同时,也带来了一系列问题。比如说,人工智能的运作模式超出了我们对一般机器的理解,我们应如何看待人工智能产品的社会地位;如果人工智能产品带来危害性的后果,我们现有的法律、伦理体系能否为这些危害性的后果找到合适的责任主体;人工智能的发展速度超出很多人的想象,是否可能会出现电影中机器控制人类的局面;等等。本文试图探讨人工智能的发展给现有责任体系带来的冲击,以及学者为处理这种冲击提出的三种解决方案,即新工具主义、机器伦理与混合方案,并尝试为混合方案辩护。
一、责任与责任主体
一般来说,当我们讨论责任问题时,一定会预设责任主体,也就是能够承担责任的主体。很多学者认为,对责任主体的经典解释来源于亚里士多德,我们遵循这一理解思路。关于责任问题,亚里士多德在《尼各马可伦理学》第三卷中,至少提出了以下几个论点:(1) 承担责任的行为必须在我们的能力范围之内;(2) 该行为必须出于行为者本身的意愿,而不能是被迫的;(3) 承担责任行为的起始因不能是出于无知。[1]
亚里士多德主张的第一个论点认为,当我们将行为责任指派给某个责任主体时,必须首先明确,该行为处于主体的能力范围之内。这个标准排除了那些处于主体控制能力之外的事件,如地震、台风等自然事件。因为这些自然事件的发生并非处于某人的能力之内。因此,由此类事件引起的后果通常不会为其指派任何责任主体。第二个论点强调了主体实施某种行为必须是出于主体的自愿选择。这实际上包含有两点:其一,主体选择实施某种行为时,有众多可能性,并非只有该行为这一种选择;其二,主体实施此种行为是主体的自由选择,并非是出于外部压力。因此,我们通常认为,某人在受到外部威胁不得不做某事时,不应当承担此事带来的社会责任。亚里士多德主张的第三个论点认为,如果主体是在无知状态下实施某种行为,那么他不应该承担责任。这个论点与亚里士多德的第二个论点有关,因为亚里士多德认为,主体处于无知状态中的选择无论如何都不能被视为出于主体的意愿。当然,我们还需要注意的是,亚里士多德强调免除某人的行为责任时,必须是因为该行为的起始因是出于无知,而并非任何无知状态下的行为都可以免除主体的责任。比如说,如果某成年人醉酒驾车酿成车祸,那么即便该人的行为是在无知状态即醉酒状态下做出的,他仍然需要为其行为负责。因为醉酒驾车的起始因并非是出于无知,他已然成年,并且应该知道醉酒驾车违法。因此,醉酒状态下酿成车祸,并不能免除他的责任。这也就是说,在考虑主体的行为责任时,我们必须要考虑他的起始状态。
亚里士多德对责任主体的经典解释从主体个体的角度很好地阐明了能够担负责任的主体应符合的标准。虽然这些标准在现代法律体系之下,可能有不同的体现,甚至可能会因为有其他因素如人道主义因素的加入而出现相互冲突的地方,但从概念阐释的角度来说,亚里士多德的观点仍然有其合理性。可以补充的地方在于,亚里士多德主要是从责任主体的视角解释责任概念,并没有充分考虑责任关系方。而仅从语词的角度,我们就可以看出,责任一词蕴含有关系成分。这一点在西语体系中体现得更为明显。比如说,英语中表达责任含义的概念“Responsibility”来源于它的动词形式“to respond”,其含义为回复,即向……回复,表达至少两者之间的关系。因此,就像加德纳(J. Gardner)所说的那样,责任必须从关系的角度来理解。[2]
考虑到关系方是从关系角度思考责任问题不可或缺的内容,我们认为,有必要在责任主体之外,思考其责任关系对象。通常情况下,责任的关系对象被认为是人。比如说,在一个正常家庭中,父母对儿女的成长负有责任,父母是责任主体,儿女是责任对象。但是在有些情况下,对象还可以是非人的存在者,比如动植物,甚至人造文物等。因为在很多时候,我们都有责任保护某些特定的动植物以及人造文物。由于责任主体是基于其与责任对象之间的关系承担相应的责任,因此,在考虑责任关系时,责任主体应能清楚地知晓自己与责任对象之间的关系,并且能够预知自己的行为会给他者带来什么样的后果。如果某人无法预知其行为带来的后果,那么即便他的行为给他人带来了伤害,他也无法完全承担其行为责任。我们经常听到的“不知者无罪”表达的即是这层含义。
通过以上讨论,我们可以总结出现有责任体系为责任主体指派责任时的基本预设:责任主体能够控制其自身的行为,知道他的行动,并且原则上能够预知他的行为给他者带来的后果。任何不满足这些条件预设的主体都不能完整地承担其行为责任。
二、人工智能导致的责任空白问题
我们现有的责任体系具有很强的适应性,能够解决现实世界中出现的绝大多数伦理责任问题,直至人工智能出现。人工智能极大地促进了社会的发展,但同时也对我们的责任体系造成了巨大的冲击。现有的责任体系很有可能无法为人工智能的行为后果指派其责任归属。马提亚(A. Matthias)将这种现象称为“责任空白”。[3]176在他的论文《责任空白》中,马提亚列举了很多例子来说明这个问题。由于篇幅有限,我们仅讨论火星探测器这个例子。
马提亚让我们设想这样一个火星探测器,它不但可以被地球上的人员控制,也可以根据内置于其中的导航系统自动地控制其自身的行动,以避免撞到火星上的障碍物。重要的是,该探测器的自动导航控制系统可以自我学习,即根据已走过的火星地面推知下一次如何走过类似的路径。问题在于,如果发生意外,该火星探测器掉入火星坑里,那么应该由谁来担负责任呢?根据马提亚的分析,我们不能将责任指派给地球上的控制人员,因为火星探测器掉入坑中并非是在控制人员的操纵下完成的,而是处于火星探测器自动控制之下的。我们也不能将此责任指派给制作自动导航系统的程序员,因为该程序员制作出的程序是正确的,并已经合乎规范地将其安置在火星探测器之内。除此之外,没有其他任何人能担此责任。[3]176
必须承认的是,在现有的责任体系下,马提亚的分析很具有说服力:首先,火星探测器本身不是一个责任主体,它无法承担自身掉入坑中的责任。[4]其次,地球上的控制人员无法为探测器掉入坑中负责,因为火星探测器掉入坑中并非是地球上控制人员的行为导致的,地球上的控制人员甚至都不清楚火星探测器的具体行为,他们不满足现有责任体系指派责任主体的预设条件。唯一值得讨论的地方在于程序员。由于火星探测器是在自动导航的情况下掉入坑中的,而火星探测器的自动导航系统是由程序员完成的,因此,有人直观上倾向于认为是程序员的失误导致火星探测器掉入坑中。马提亚反对将责任指派给程序员。在他看来,程序员的工作是合乎规范的,并没有任何失职的地方。双方争论的焦点可以总结如下:程序员的工作是否合乎规范?内置于火星探测器的自动导航系统是否正确?
如果火星探测器的自动导航系统没有自主学习能力,它所有的行动都可以由程序员根据相关的程序推测出来,那么火星探测器掉入坑中的后果应该由程序员负责。问题在于,火星探测器的自动导航系统具有自主学习能力,它能够根据个体经验判断下一步的选择。在这种意义上,火星探测器的行为已经超出了程序员的控制范围。程序员无法知晓火星上的环境,他无法判断火星探测器的下一步行动。判断程序员的工作是否合乎规范的依据是程序员在地球上的工作状态,判断火星探测器的自动导航系统是否正确依据的是未上火星前火星探测器的原始状态。从这个角度来看,程序员的工作是合乎规范的,他所设计的程序本身也是合理的。因此,要求程序员为火星探测器掉入坑中这一后果负责有失公允。
马提亚认为,当今社会使用的人工智能的所有技术模型,不论是符号系统、联结主义还是基因算法,都会导致程序员失去对人工智能产品的控制。这意味着,一旦人工智能产品出现故障,或者对人类造成某种伤害,现有的责任体系都将无法为其找到责任方。我们既不可能要求人工智能产品对其行为负责,也不能要求其设计者为它的行为负责。
三、新工具主义
针对人工智能导致的责任空白问题,学界有很多讨论。贡克尔(David J. Gunkel)将这些讨论概括为三种不同的观点,它们分别是:新工具主义、机器伦理和混合方案。[5]1-14贡克尔的这种概括是可行的。因为从智能机器能否承担责任这一视角来看,新工具主义和机器伦理分别代表两种极端观点,而混合方案则是一种折中方案。这三种方案大体囊括了所有可能的观点。我们首先考虑新工具主义。
新工具主义是相对于工具主义而言的。工具主义方案主张将所有的人造机器视为工具。在这种视角下,传统的机器被当作工具,人工智能技术产品也被视为工具。工具没有任何意义上的主体地位,它并不是独立的,而是依赖于其使用者,归属于其所有者。人类创造工具的目的在于增强其所有者的能力。因此,就像利奥塔指出的那样,工具本身不涉及伦理上的问题,如正义、公平等,而只与效率相关。[6]在这种视角下,使用者使用工具造成严重后果将会由使用者承担责任。但是经过第二节的分析,我们指出,这种工具主义视角并不适用于人工智能技术,因为人工智能技术的发展有可能使得其使用者无法为人工智能产品负责。新工具主义正是在这种情况下诞生的。
布赖森(J. J. Bryson)是新工具主义的代表人物。布赖森的核心观点是,应该将机器人设计成奴隶,并按市场销售,而不能将其当作人类的同伴。[7]虽然“奴隶”这个词带有歧视的嫌疑,但布赖森认为,使用这个词语并不影响他的论点。布赖森希望表达的是,机器人应该是人类的仆人,而不是人类的朋友。为了支持这一论点,布赖森给出了两点理由。
第一个理由是:从事实上说,机器人是由人类设计、制造、生产并操作的,如果没有人类,将不会有机器人。因此,在思考机器人与我们人类之间的关系问题时,我们不能忽视机器人本质上是为我们服务的这一事实。布赖森认为,如果我们看到这一点,那么我们完全没有必要将机器人视为人类的同伴,而只需要将其视为人类的服务者即可。布赖森更进一步指出,我们之所以过分关注机器人的伦理问题,而且对它们有不合理的恐惧,主要来源于人类同一性的不确定性,而人类的同情心被滥用则是人类同一性不确定的根源。换句话说,正是因为人类滥用自己的同情心,才导致人类对机器人有各式各样的伦理思考与担忧。如果人类不滥用自己的同情心,我们完全可以将机器人视为自己的奴隶。
布赖森否认将机器人视为人类同伴的第二点理由是:将机器人视为人类的同伴将会浪费很多资源。这个观点非常容易理解。从个人层面上说,机器人是一个与人类完全不同的个体,将其视为人类同伴,势必要求个人重新处理自己与其他个体之间的关系。为此,个人需要花费大量的时间与其他资源,而且很容易忽视其他的可能选择。从社会组织层面上说,将机器人视为人类同伴,不但需要社会组织花费大量的时间成本、人力成本,而且在文化层面上,也面临着很多挑战。
毫无疑问,新工具主义看到了工具主义的一些弊端,将机器人视为奴隶而非完全的工具无疑是一种进步,但它的立场本质上仍然是工具主义。从直观上说,这种立场与我们对一些事实的认识是相符的,比如机器人的确是由人类创造出来的,并且人类创造机器人的目的的确是为人类服务的,但这一事实并不意味着我们必须将机器人视为奴隶。布赖森认为人类应该将机器人视为奴隶,这是从人类整体的意义上考虑的,但是我们无法忽视在个体层面上,有人会将机器人视为朋友,并进而影响社会整体的判断。就像狗的地位一样,最初人类将狗当作捕猎或看家的工具,但是现在,越来越多的人倾向于认为狗是人类的朋友。布赖森认为将机器人视为人类的同伴会浪费很多资源,但这并非一个决定性理由。事实上,每个新事物在诞生初期,都会浪费很多资源,但是随着技术的进步以及社会的发展,这种资源的消耗与我们由之获得的便利相比,往往不值一提。由马车进化到汽车这一历史过程可以鲜明地证明这一点。因此,布赖森支持将机器人视为奴隶而非朋友的两点理由都不能成立。
从责任视角来看,布赖森的新工具主义还面临着很多问题。根据新工具主义,机器人的责任归属在它的生产方或操作方,因为机器人只是人类的奴隶,受人类的控制,它自己并不能承担责任。问题在于,如果简单地将责任归属于生产方或操作方,那么就像贡克尔所说的那样,“这将会导致工程师和生产商在发展技术和将技术商业化过程中,变得非常保守。因为他们需要保护自己免于追责”。[5]8更重要的是,人类善待他者,并不是同情心泛滥的表现,而是人作为感性动物的本质使然。将机器人当作奴隶,很有可能会影响人的价值判断,使得人类习惯于奴役他者,并最终给人类本身带来恶果。
四、机器伦理
机器伦理作为处理责任空白问题的第二种可能方案,主张将伦理规则植入到机器之中。当然,机器伦理所说的机器并不是普通的机器,而是指那些可以不依赖于人类控制、能自主决断的机器。人工智能机器人是其中的典型代表。机器伦理方案得到了很多人的支持,其中的典型代表有瓦拉赫(W. Wallach)、艾伦(C. Allen)、摩尔(James H. Moor)、麦克尔·安德森(Michael Anderson)和苏珊·安德森(Susan L. Anderson)等人。我们以瓦拉赫和艾伦为例来考察机器伦理的核心观点。
瓦拉赫和艾伦认为,人类应该教会机器在正确与错误之间进行选择。[8]这是他们合著的《道德机器》一书的主题。在瓦拉赫和艾伦看来,将机器行为纳入人类伦理道德领域的考虑范围是不可回避的问题,因为有些机器的自主行为已经带有伦理属性,这些行为所产生的后果让我们不得不从伦理道德的角度思考它的合理性。瓦拉赫和艾伦的这个观点毫无疑问是合理的。随着科技的进步,机器自动化程度和智能化程度越来越高,人类必须要考虑机器行为可能带来的严重后果,它们有可能会给人类带来重大伤害。比如说,武器的人工智能化毫无疑问在战争中会带来大面积的伤亡,从人道主义的角度来看,设计这种武器不符合人道主义原则;情感机器人的出现在一定程度上可能会满足某些人的需求,但它可能会破坏现有的家庭伦理;大数据的发展会促进社会的进步,但它有时会侵犯人的隐私。所有这些机器的自主行为都有可能会涉及伦理道德问题。不论人类是否喜欢,自动化、智能化的机器已经在逐步进入人类社会,从伦理道德的角度思考机器的自主行为是不可避免的。
瓦拉赫和艾伦认为,我们必须从伦理道德角度思考机器自主行为的另一个重要原因在于,人类总是期望智能机器能够预先判断其行为后果可能带来的伤害,并据此调整自己的行为,这与人类对道德主体的要求一致。换句话说,人类已经不满足于机器只是按照固有的程序重复操作,而是要求智能机器能够对其行为后果有所考量。这无疑凸显了智能机器与非智能机器之间的不同。非智能机器也会对人类造成伤害,但它只是机械的重复操作,人类并不会将这类行为纳入伦理道德领域之中,就像人类并不会从伦理道德的视角思考自然灾害对人类的伤害一样。智能机器能够适时地调整自己的行为,这是智能机器的优势。比如说,智能无人驾驶汽车在面对危险时,可以选择保护乘客,也可以选择保护路上的行人,无人驾驶汽车具备自主判断的能力,人类也希望这样的智能机器能够做出合乎道德的判断。从这个视角来看,智能机器与道德主体更为相似。因此,瓦拉赫和艾伦认为,程序员在设计制造智能机器时,应设计出具备伦理道德判断能力的智能机器,以便智能机器的自主行为能够符合人类的道德判断标准。
麦克尔·安德森和苏珊·安德森的思考则更向前进一步,他们甚至认为,如果我们能够设计出符合道德规范的智能机器,那么我们有理由相信,这种机器在遵守伦理规范时比大多数人要表现得更好。[9]因为大多数人在他们的道德推理过程中,总是表现得不一致,尤其是涉及复杂的道德问题时,更是如此,但这些对于智能机器而言都不是问题。麦克尔·安德森和苏珊·安德森相信智能机器在处理道德问题时比人类更优秀,因为他们相信在计算与执行力方面,智能机器远远优于人类;他们还相信,一旦智能机器被嵌入伦理原则之后,那么它们在处理伦理问题时,不会遇到任何障碍。
沿着机器伦理的思路,如果这样的智能机器被创造出来,那么一个自然的倾向是,机器伦理学家们将会承认智能机器的道德主体地位。换句话说,机器伦理学家们会倾向于让智能机器本身承担它的行为责任。虽然在一些人为组织上,我们可以看到同样的理解思路,比如在对待公司问题上,很多国家的法律都已经赋予公司主体地位,但在考虑智能机器的道德问题时,仍然有很多问题值得我们思考。
首先,在伦理学界,学者们并没有确定哪些原则是伦理的基本原则。我们并不清楚到底是应该支持功利主义,还是义务论,抑或是德性伦理。即便从技术的角度来看,将伦理原则内置于智能机器之内是一件很容易的事情,我们也无法断定究竟应该选择哪一种原则。这意味着,如果我们选择通过确定道德原则以规范智能机器的自主行为这种方式来构造智能机器,那么机器伦理的支持者从一开始就会在实践领域中遇到决策上的困难。
其次,智能机器的核心是计算,将一些道德原则内置在智能机器之内,意味着程序员是通过计算的方式将道德原则具体化。问题在于,我们可能无法用计算的方法完全地将道德原则表达出来。因为在很多场景中,人类都是通过直觉来判断一个行为是否合乎道德,而并非通过一种理性的计算。直觉与计算的判断过程以及判断理由可以完全不同。不同场景下的电车难题很鲜明地体现了这一点。这意味着,通过计算获得道德判断能力的智能机器不可能总是获得与人类一致的道德判断结果,因而不可避免地会碰到道德领域之内的冲突。
再次,将智能机器设计成能够做出道德判断的样子,并不意味着智能机器真的能够进行道德判断,理解什么是道德行为。因为智能机器是通过遵守内置于其中的道德规则而做出行为判断。换句话说,智能机器的行为是根据规则而形成的,并不是出于它的自由意志。虽然从行为主义的视角来看,我们可以认为智能机器的行为在一定程度上符合人类的道德标准,但这并不意味着该智能机器一定是道德的。基于我们对道德行为的一般理解,一个行为之所以是道德的,往往是因为该道德主体在众多可能性之中,出于爱、同情等因素自由地选择执行某种符合伦理道德规范的行为。但如科克贝夫(Mark Coeckelbergh)所言,智能机器似乎并没有爱,也没有同情或担忧。[10]它的自主行为也不是完全的自主行为,而是在一定限度内符合规则的自主行为。
最后,机器伦理的支持者倾向于将智能机器视为道德主体,这意味着如果此智能机器做出的行为不符合社会道德规范,那么最后承担责任的应该是该智能机器。问题在于,要求机器担负其行为责任没有任何意义。因为机器只能是机器。至少就目前来看,在很长的一段时间内,它们都不会具备任何主体意识,不能成为完全意义上的主体。即便我们将此智能机器肢解破坏,也不能达到道德上的惩戒作用。因此,将智能机器当作道德主体最后的可能结果仍然是由生产者或设计者来承担相应的后果,而根据我们的探讨,这实际上并不符合我们对责任主体的理解。
五、混合方案
我们现在来讨论责任空白问题的第三种解决方案即混合方案。混合方案的核心主张是将责任问题从个体视角跳出来,从整体上思考责任问题。这种方案是一种折中方案,因为它并不主张完全由行为主体担负起人工智能的责任问题,也不主张完全由人工智能产品本身担负起其伦理道德责任问题,而是倾向于将行为主体与人工智能涉及的各相关方综合起来考虑人工智能可能带来的责任归属问题。
一般认为,道德责任的承担者即道德主体是人。支持混合方案的人不同意这一主张。在他们看来,将道德责任限制在人身上,是一种方法论上的个体主义(methodological individualism),这种方法论上的个体主义已经无法满足社会发展的需求,他们期望采用整体论的视角来处理道德责任问题。汉森(F. A. Hanson)是混合方案的代表人物之一,以他的思想为例可以清楚地阐述混合方案的核心观点。
汉森试图通过区分三种不同的信息处理模式即口语模式、文本模式和自动模式来修改我们常用的主体概念。在汉森的这种区分中,前两种信息处理模式是人类处理信息的模式,后一种信息处理模式是人工智能的处理模式。在他看来,包含有自动信息处理模式的行动无法用人类的决定和倾向来解释,而必须用一种能够将人工智能考虑在内的行动者概念来分析。汉森称这种概念为“扩展的主体(extended agency)”。[11]“扩展的主体”这一概念的提出,意味着行动主体不仅包括人类个体,还包括此行动涉及的他者以及其他非人类的实体。[12]92以学生在图书馆电脑里查找资料这一事件为例,我们可以清楚地发现扩展的主体理论与个体主义理论之间的差别。在个体主义理论看来,当学生在图书馆查找资料时,此任务的行动主体只是该名学生;但是在扩展的主体理论中,扩展的主体不但包含学生,还包括图书馆的数据系统以及电脑的软硬件等。
与扩展的主体这一概念相对应,汉森提出了联合责任(joint responsibility)这一概念。利用联合责任这一概念,汉森试图向我们表明,当我们承认扩展的主体这一概念时,我们至少应该支持这一观点,即责任不仅适用于人类,也适用于非人类的个体。他写道:“如果行为的道德责任取决于从事该行为的主体,并且如果主体既包括人也包括非人,那么道德责任可能也是如此。”[12]93也就是说,责任的承担方不应只是个人或者某个个体,而应该是扩展的主体。因此,当某个伦理事件发生,所有与此伦理事件相关的扩展的主体都应当承担责任。比如说,在一个枪击事件中,受到指责的不但包括杀人犯,还应该包括杀人犯使用的手枪。
通过以上论述,我们可以总结混合方案的基本观点:(1) 行为的主体不仅包括人,也包括非人的实体;(2) 承担行为责任的是扩展的主体,既包括人,也包括非人。从直观上说,混合方案有些地方似乎是反直觉的,比如在枪击事件中,手枪似乎只是一个工具,但混合方案要求手枪也承担责任。汉森非常清楚这一点,他提醒我们,拿手枪的人和不拿手枪的人对于我们来说,是完全不同的。不可否认,汉森的观点是中肯的。面对拿手枪的人和不拿手枪的人,我们无疑会感觉到,前者的威胁更大。混合方案可以帮助我们解释这一点。
汉森主张利用混合方案解决人工智能领域中出现的责任空白问题,贡克尔对此提出了质疑。在他看来,混合方案至少有以下三个方面的问题:[5]12首先,混合方案仍然需要在扩展的主体中区分出哪些主体应该承担责任,哪些扩展的主体不能承担责任。也就是说,混合方案期望从整体论上考虑责任问题,但最后还是需要落实到具体的责任方之上。其次,在确定扩展主体责任方时,存在不同的分析模式,而不同的分析模式可能会导致不同的责任归属。最后,从混合方案的视角来看,一个事件的发生有可能会导致没有任何人、任何组织能承担其相应的责任,而这恰恰与我们的初衷相违背。
不可否认,贡克尔的质疑有其合理性,但这些质疑对于我们处理人工智能的相关问题而言,不会成为障碍。首先,混合方案要求我们从整体上考虑责任归属问题,只要我们最后能找出相关的责任方,贡克尔的第一个担忧就是没有必要的。其次,在考虑责任问题时,不同的分析方式的确可能会导致最后的责任归属有所不同,但只要我们规定了相应的分析原则,这种分析方式的差别应该不会成为障碍。在贡克尔举的例子中,有些低层官员为了逃避责任而宣称自己只是服从命令,而高层官员为了逃避责任则宣称下层官员的行为是自主的,面对这种冲突,我们只需要根据事实原则,核实低层官员的行为是服从命令还是自主行为便可判断其是否应该承担责任。最后,某种事件的发生的确有可能会导致没有任何人能够为该事件负责,但这并不是混合方案的问题,而是因为这种事件本身的特殊性,比如贡克尔所说的金融危机。在这种特殊的事件中,不但混合方案无法为这种事件指派责任方,其他方案也没有办法为其寻找合适的责任承担者。因此,我们不能因为这种特殊案例而否定混合方案在其他领域中的应用。
在新工具主义和机器伦理无法解决责任空白问题的情况下,混合方案似乎是唯一有希望的解决方案。不过,利用混合方案思考人工智能领域的责任归属问题,需要适当地修改扩展的主体和联合责任这两个概念。根据汉森的理解,扩展的主体可以延伸到非人的实体,比如他所说的软硬件、手枪等。理论上,我们可以支持这种理解;但是在实践领域,如果我们不能在这些扩展的主体背后寻找到人的因素,那么这种扩展没有太大的意义。因为在考虑联合责任问题时,我们只能为人指派责任。因为只有人才关心他所承担的责任。因此,当我们解决人工智能领域中的责任空白问题时,需要关注的是那些与人相关的扩展的主体。
就目前来看,在人工智能领域之中,人工智能消去的责任主体是个体主义理论中的个体主体,它并没有消除扩展主体理论中的所有主体。而根据混合方案的解释,如果人工智能产品引起了伦理道德问题,那么所有与之相关的扩展的主体都应担负起相关的责任。一般来说,一个人工智能产品至少与以下几种扩展的主体相关:设计者、生产方、检测机构、销售方、使用者等。因此,从混合方案来看,当人工智能产品出现某种问题需要有人为它的自主行为所造成的后果承担责任时,我们需要追究的是它的设计者、生产方、检测机构、销售方和使用者共同的联合责任。当然,至于他们各自应承担多大的责任,则是一个具体的经验判断问题。我们需要做的是,依据公正原则,根据不同类型的人工智能产品设计出不同的责任指派方案。
(感谢:匿名评审专家的审稿意见和我的同事杨庆峰给出的若干重要修改意见,让我完成此文的修改与完善,在此表示感谢。)