人工智能产品侵权的责任承担
2018-02-07■梁鹏
■ 梁 鹏
(中国社会科学院大学政法学院教授)
自20世纪上半叶以来,人工智能在世界范围内呈现了加速发展的趋势,其实际应用逐渐出现在机器视觉、人脸识别、自动规划、智能搜索、智能控制等领域。人工智能的发展在给人类带来巨大福利的同时,也带来了人类的恐惧。法律界人士的担忧之一是,人工智能产品发生的法律责任如何承担?其中最重要的一个方面是:人工智能产品能否独立承担责任?如何承担责任?例如,美国东部时间2018年3月19日,一辆优步自动驾驶汽车在亚利桑那州坦佩市的公共道路上与一名行人相撞,致该行人死亡。这一事件迅速发酵,人们的一个追问是,自动驾驶真的安全吗?倘若自动驾驶汽车发生交通事故,究竟由谁承担法律责任?是车辆的所有者?还是车辆的制造者?抑或其他责任者?这一问题的棘手之处在于:人工智能产品具有自主思维能力,可以自我决策、自我执行,其作出的行为,应否自我承担责任?本文拟从人工智能产品的法律地位出发,探讨人工智能产品的责任承担及其责任保险问题。
一、人工智能产品的法律地位
如前所述,高级人工智能产品具有自己的思维,能够作出并执行决策,其已经具有一个“人”的能力,是否应当赋予其一定的法律地位?人工智能产品的法律地位,与其性质密切相关,在探讨人工智能产品的法律地位之前,必须对人工智能产品的性质进行研究。
关于人工智能产品的性质,学界有工具说、电子奴隶说和代理说三种观点*Kalin Hristov: Artificial Intelligence and The Copyright Dilemma. 2016-201(57):442.参见袁 曾:《人工智能有限法律人格审视》,载《东方法学》,2017年第5期。,在法律上分别对应着三种法律地位。工具说认为,人工智能产品只是人类身体的一种延伸,是为人类服务的一种工具,其并非独立的主体。在这一观点之下,人工智能产品不是一个法律上的独立主体,其既无行为能力,亦无权利能力,对应之法律地位可以称为“非法律主体说”。电子奴隶说认为,人工智能产品服务于人类,完全听从人类的指挥,虽然能够作出一定的行为,但它没有权利作出行为,除非人类对其作出指示,故而,在某种意义上,其地位正如古代的奴隶,不过是没有情感和肉体的电子奴隶而已。在这种观点之下,人工智能产品亦不是一个独立的法律主体,其虽具有行为能力,但是缺乏权利能力,对应之法律地位可称为“无权利能力的法律主体”。代理说认为,人工智能产品的工作,只是代替人类为之,它是一个独立的主体,有权利,亦有能力作出一定的行为,其行为具有一定的独立性,但行为结果归属于人类,与人类之间是代理关系。在这种观点之下,人工智能产品在法律上是一个独立的主体,既有权利能力,又有行为能力,只是无法承担自己行为的后果,对应之法律地位可以称为“具有权利能力和行为能力的法律主体”。
上述三种关于人工智能产品的观点,似均有缺陷。工具说主张人工智能产品只是人类身体的一种延伸,这一观点明显与高智能产品的现状不相符合,如果人工智能产品只是人类身体的延伸,是一种工具,那么,其智力不应超过人类,但是,目前似乎已经存在一些智力超过人类的机器人,譬如,在围棋对弈中,机器人阿尔法狗完胜柯洁,计算能力远胜人类,据说阿尔法狗还在飞速进化,它一天要和自己对弈五万局,这在人类显然不可能实现。因此,人工智能产品绝不仅仅是人类的一种工具。由于性质认定的错误,其所支持的“非法律主体说”也便失去了依据。电子奴隶说承认人工智能产品是一个主体,但认为其完全听从人类指挥,不具有权利能力,比之工具说虽有进步,但其仍然忽视了现代人工智能产品已经具有自我思考、判断并作出行为的能力。鉴于人工智能产品能够自我思考和作出行为,难说它是完全听从于人类的电子奴隶。在法律地位的问题上,电子奴隶说不承认人工智能产品的权利能力,而如果人工智能产品没有权利能力,意味着人工智能产品作出的行为无法获得法律的承认,从而导致人工智能产品的运用受到极大的限制,这显然与时代潮流相违背,故“电子奴隶说”支持下的“无权利能力的法律主体”之观点亦难获得认可。代理说将人工智能产品作为一个代理人,其行为结果归于所有人或使用人,这一学说,大体是可以接受的,这一学说支持下的“具有权利能力与行为能力的法律主体”亦有一定的合理性。不过,这一学说忽略了的一个问题是,人工智能产品虽然可以具有权利能力和行为能力,但其不具有承担责任的能力,这使得它与普通的法律主体有所区别。
仔细分析可以发现,人工智能产品的法律地位类似于未成年人的法律地位。没有民事责任能力是未成年人行为能力受到限制的重要原因。法律之所以将未成年人作为限制民事行为能力人,除了受其自身年龄、智力发展状况的制约之外,很重要的一个原因是其没有承担责任的能力,“即使具有完全的判断能力,倘若不具备承担责任的能力,便不应承认该主体为完全行为能力人。”[1]现代民商事法律上,承担责任的主要形式是财产,未成年人处于求学状态,一般没有独立的财产,也便不能独立承担责任,故而,其行为应当受到限制。
人工智能产品亦不具有承担责任的能力,在这一视角上,可以将其法律地位定位为类似于未成年人的法律地位。人工智能产品是没有情感和肉体的机器,从目前来看,这种机器不需要财产,设计者也不会为其设计出财产归属程序。依照代理说,其在交易过程中获得的财产应当归于被代理人,故其不可能具有财产。倘若不具有财产,也便不具有承担责任的能力。在这一点上,人工智能产品的法律地位似可比拟于未成年人。
二、人工智能产品侵权的责任形态
人工智能产品侵害他人权益的事件已经出现。2017年,网络上出现了“儿童邪典视频”,视频制作者在制作视频时,利用儿童熟悉的卡通形象,加入色情、暴力等危害未成年人的内容,再通过人工智能的算法推荐给未成年人,导致未成年人权益受损。在这一侵权过程中,视频制作者自然难脱干系,但是,人工智能的算法推送亦起到了推波助澜的作用,理应承担相应责任。2016年3月,谷歌制造的一辆无人驾驶汽车与一辆公共汽车发生剐蹭,谷歌公司承认自动驾驶汽车应当承担责任。作为人工智能的主要代表,自动驾驶汽车面对公共汽车这样的庞然大物尚能发生事故,面对其他物体自然也可能发生事故。由于少年儿童的身高与判别能力均有不足,未来自动驾驶汽车最主要的侵害对象很可能是少年儿童。
人工智能产品侵权的法律责任,可以仿效未成年人责任的形式,即替代责任。替代责任是指“责任人为他人的行为和为人之行为以外的自己管领的对象所致损害负有的侵权赔偿责任形态”[2]。替代责任的主要表现形式是监护人对未成年人的行为后果替代承担责任,即未成年人作出一定行为需要承担后果,但因其没有承担责任的能力,其法律后果由监护人替代承担。如前所述,人工智能产品没有独立的财产,而财产是承担民事责任的基础,故而,人工智能产品无法独立承担责任,但其责任又必须有人承担,如此,只能寻求其他主体替代其承担责任。这与未成年人责任的替代承担非常相似。对此,已经有学者表示:“如果智能机器人实际上‘代理或者代表’某个法律主体从事行为或者进行决策,那么可以比照父母对未成年人子女的责任或者说监护人对被监护人的责任,或者雇主对雇员的责任,让部署智能机器人的人承担替代责任。”[3]
然而,由谁来替代人工智能产品承担责任呢?
人工智能产品致人损害的情形大致可以分为三类:一是由于人工智能产品使用者操作失误导致的损害,即人工智能产品本身不存在问题,损害的发生是使用者操作失误造成的;二是人工智能产品制造者的人为失误造成的损害,即使用者的操作不存在问题,损害的发生是制造者的设计失误造成的;三是因无法解释之原因造成的损害。即,使用者的操作和制造者的设计均不存在问题,损害的发生是由于人工智能产品的自我判断失误造成的。在这三种情况下,承担替代责任的主体应当有所不同。
人工智能产品使用者操作失误造成的损害,应当由操作者承担责任,此时不适用未成年人的替代责任。损害由使用者操作失误造成,意味着人工智能产品对此没有过错,过错完全在操作者本人,操作者具有财产,能够承担责任,应承担自己责任而非未成年人的替代责任。
人工智能产品制造者设计失误造成的损害,应当由制造者承担责任,可以适用未成年人替代责任的理论予以解释。人工智能产品属于产品的一种,产品质量致人损害,适用产品质量法,当然应由产品制造者承担最终责任,这是来自产品质量法理论的解释。但是,这一解释可能遭遇一些困难,其原因是,要求承担责任需要由原告证明产品存在缺陷,而证明人工智能产品,特别是人工智能产品系统层面的缺陷相当困难,如果不能证明,制造者将不承担责任。对此,倘若适用未成年人的替代责任理论解释,或许是一条更为有效的解释进路。未成年人替代责任理论的解释可以是:人工智能产品具有特殊性,不同于作为“物”而存在的其他产品,“物”的产品不是法律主体,自然不能承担责任,但是,人工智能产品是一类特殊的法律主体,作为一类法律主体,本应承担责任,只是因为没有承担责任的能力,其责任才由制造者承担。在这个问题上,人工智能产品的责任与未成年人的责任有一定的类似性,产品制造者类似于监护人,人工智能产品类似于未成年人,监护人因未能履行监护职责而承担对未成年人的替代责任,制造者则因制造失误而承担对人工智能产品的替代责任。
因无法解释的原因造成的损害,应当由制造者和使用者共同承担责任,其责任承担可以用未成年人的替代责任进行解释。此种损害的造成,并非制造者的制造缺陷或使用者的操作失误造成。多数情况下是人工智能产品自主决策造成的。高智能的人工智能产品,能够自主学习新的信息,利用新的数据作出决策,甚至能够修改人类对其设定的规则,其自我决策造成的损害,很难归因于人类。这便如一个未成年人,随着年龄的增长已经具备了独自决策,独自行为的能力,依照谁决策谁负责的原则,其应当独立承担责任,但其没有承担责任的能力。与未成年人的情况非常相似,高智能的人工智能产品也没有责任能力,其责任应由他人替代。由谁来替代承担责任呢?显然,人工智能产品制造者和使用者是与该产品联系最密切的主体,应当由他们承担责任。不过,私见以为,人工智能产品的制造者应当承担较大份额的责任,因为,制造者比使用者更有能力预见损害结果的发生。
三、人工智能产品责任保险的特殊性
如上所述,人工智能产品造成的损害,应当由其他主体替代承担,其中,产品的制造者是主要的责任承担者。然而,如果责任过重,必然阻碍制造者发展人工智能的积极性。为此,必须有相关制度帮助责任主体承担人工智能产品的风险,这一制度便是保险制度。
然而,一个重要的问题是,保险应当保障何人?亦即,谁应当作为被保险人?
既有的思路认为,人工智能产品或许可以作为被保险人。例如,英国汽车技术和航空法案规定,“在自动驾驶模式下,被保险人的车辆如果发生事故,则保险公司必须负责赔偿事故造成的损失。当然,保险公司享有对制造商的代位求偿权,如果车辆在自动驾驶状态下发生事故,而制造商对此负有责任,那么保险公司赔偿受害人损失后有权从制造商处获得赔偿。”[4]这一立法思路,似将人工智能产品作为被保险人进行保障。这一思路的理论基础类似于未成年人理论,在该理论之下,未成年人是一个具有权利能力和行为能力的法律主体,且在保险关系中不需要承担责任,因此可以作为被保险人存在。人工智能产品具有类似于未成年人的法律地位,可以类推为被保险人。
然而,将人工智能产品作为被保险人进行保障,有可能阻碍人工智能产品的发展。依照英国的做法,将人工智能产品作为被保险人,在发生事故之后,保险公司直接对受害人进行赔付,倘若制造者对此事故负有责任,则保险公司赔付完毕之后,可以行使对制造者的代位追偿权,最终的责任承担者仍是人工智能产品的制造者。倘若责任过重,势必打击制造者发展人工智能产品的积极性,从而阻碍了人工智能产品的发展。
在保险产品设计上,既能保护制造者信心,又能保证受害人获得赔偿的设计,应当是将责任的最终承担者作为被保险人,亦即,将制造者和使用者作为被保险人。如上所述,人工智能产品所涉责任最终由产品制造者和使用者替代承担,消弭责任之保险产品,自然应当从根本着手,将责任的最终承担者作为保障对象。若以责任的最终承担者作为保障对象,由于没有任何主体对事故之责任再次负责,保险公司也便不能行使代位追偿权。故而,制造者和使用者的信心可以获得充分保障。
依未成年人理论,未成年人完全可以作为被保险人,然而在人工智能产品的保险问题上,应当改变未成年人保险的做法,将人工智能产品的制造者和使用者作为被保险人。
结语:探讨人工智能产品的法律责任,首先应从人工智能产品的法律地位开始,人工智能产品不具有承担责任的能力,这与未成年人极其相似,故而,本文对其法律地位作出了类似于未成年人的解释。由此出发,人工智能产品产生的责任,需要由制造者或使用者替代承担,这种承担方式亦可类比于未成年人的责任承担。为了消弭责任,必须建立人工智能产品的保险制度,人工智能产品责任保险的设计,应当以制造者和使用者作为被保险人,如此方能消除对人工智能产品发展的阻碍。