人工智能的法律责任问题
2018-07-12刘浩
摘 要:从人脸识别到无人驾驶,从智能语音到可穿戴设备,人工智能在给人类带来惊喜的同时,也引发了诸多法律问题,其中法律责任的承担问题显得尤为突出。本文将重点讨论人工智能对传统法律责任的挑战,并通过对美国、欧盟相关政策的比较法研究,提出责任承担的初步解决方案。
关键词:人工智能;法律责任;比较法
中图分类号:TP18;D920.4 文献标识码:A 文章编号:2095-4379-(2018)14-0171-02
作者简介:刘浩(1997-),女,汉族,广东人,中国政法大学,本科生。
2018年3月,在美国亚利桑那州,无人驾驶状态下的Uber SUV汽车将一名过马路的女子撞倒身亡。2017年,Google无人驾驶汽车在加州与一辆公交车相撞。近年来,随着人工智能的测试和应用,人工智能毁损财物、致人伤亡的问题也频繁出现。当高度发达、独立运行的人工智能产品造成损害,应当如何分配并承担法律责任?传统的侵权责任和产品责任在面对这一问题是,又存在哪些局限?
一、人工智能对传统法律责任的挑战
(一)对侵权责任的挑战
根据我国《侵权责任法》的规定,一般侵权责任包括四个构成要件:违法行为、损害事实、因果关系和主观过错。违法行为是指公民或者法人违反法定义务、违反法律禁止性规定而实施的作为或者不作为。因果关系是指违法行为与损害事实之间存在的联系,只有违法行为与损害事实之间存在这种因果关系,说明损害是由违法行为所引起的,行为人才承担民事责任。主观过错是构成侵害公民生命、健康权的民事责任的主观要件,违法行为人只有在实施违法行为当时主观存在过错才承担民事责任。
而在人工智能造成损害的情况下,通常缺乏上述构成要件,难以确定责任承担。比如在无人驾驶汽车致人伤亡的案件中,人类所扮演的角色由操作者转变为乘客,不再负有在行驶过程中对环境进行监控或对车辆进行操控的合理注意义务,而可以随心所欲地进行其他活动。因此,当发生事故时,汽车的使用者并不存在违法行为和主观过错,不符合一般侵权责任的构成要件,自然也就不能承担侵权责任。
在汽车使用者不承担侵权责任的情况下,我们也在思考,是否可以由无人驾驶汽车的生产者来承担产品责任。
(二)对产品责任的挑战
我国的产品责任是一种无过错责任,主要有以下几方面构成。第一,生产或销售了不符合产品质量要求的产品。即产品存在危及人身、他人财产安全的不合理的危险,或产品不符合保障人体健康和人身、财产安全的国家标准、行业标准。第二,不合格产品造成了他人财产、人身损害。第三,产品缺陷与受害人的损害事实间存在因果关系。
在无人驾驶致人伤亡案中,如果能够认定损害是生产者的失误导致的产品缺陷所造成的,则可以直接由生产者承担产品责任。但人工智能产品往往存在无法推断损害是否由产品缺陷直接导致的情形,因为人工智能的重要特点在于其具有高度的自主性,当前的深度学习算法都不是一步一步地对计算机编程,而是允许计算机从数据中进行学习,而不再需要程序员作出新的指令。因此,在机器学习中,是学习算法创建了规则,而非程序员。这意味着虽然是程序员设定了规则,但在现实情境中是人工智能自身在独立判断和独立决策。
因此,当人工智能造成损害,而损害本身又难以解释为产品缺陷所致,此时让生产者承担产品责任将会有违公平原则。
二、比较法研究
(一)美国相关规定
2016年9月20日,美国交通部发布《联邦自动驾驶机动车政策》,该文件虽然未规定人工智能的法律责任问题,但是其中规定的15项自动驾驶机动车的安全评估标准却可以为举证产品责任提供必要的参考。“数据记录标准”要求生产者记录系统发生故障的情况,“系统安全标准”要求生产者保障即使在软件故障的情况下,机动车仍然处于安全状态,“耐撞性能标准”要求满足传统机动车的耐撞性标准。这些具体的安全标准的出现有助于帮助法官认定人工智能产品是否存在缺陷,从而判断生产者的是否需要承担产品责任。
2017年9月6日,美国众议院通过了《自动驾驶法案》,该法案中要求NHTSA在法案生效之日起24个月内发布最终规则,要求每一个发展高度自动化车辆或自动驾驶系统的实体提交如何解决安全问题的安全评估证书,为认定人工智能产品是否存在缺陷提供了更加完善的标准。
此外,各州的立法中也对法律责任进行更为具体规定。2012年,佛罗里达州颁布实施第1207号议会法案规定,即使自动驾驶汽车的缺陷是由第三方公司改造导致的,原制造商也要为之承担责任。华盛顿州规定了测试车辆中必须有一名持有合法驾照的驾驶员跟随,并要求驾驶员对车辆所发生的违章、违法,乃至构成为犯罪行为负责。
(二)欧盟相关规定
欧盟法律事务委员会从自身的法律体系出发,提出了一些用于参考的立法建议。
第一,对于人工智能带来的损害结果,应当规定严格责任,只需要人工智能产品的侵害行为和损害之间有因果关系即可。第二,将人工智能产品的侵害行为归责于特定主体时,该主题承担的责任应与其给予人工智能的指令级别以及人工智能的自主学习程度相称。因此,机器人的自主性学习能力越强,该特定主体的责任就越有限。第三,人工智能产品可以适用强制保险制度。适用于人工智能的强制保险制度可以要求生产者为其制造的人工智能购买保险,也可以让人工智能产品的所有人购买此类保险。第四,可以建立赔偿基金,作为强制保险的补充。赔偿基金用以保证未被强制保险所覆盖的损害仍然能够得以补偿,同时也可以使生产者仅承担有限责任。
三、结论
如前文所述,人工智能的进步给法律带来前所未有的挑战。传统的侵权责任和产品责任难以对其法律责任做出有效的规制。美国、欧盟等在面对这一问题时,尝试着提出法案或建议来探索怎样更好地实现生产者、使用者、受害者之间的利益平衡,怎样明确法律责任的承担。笔者也对该问题提出初步的想法。
首先,可以借鉴美国相关法案中的规定,制定人工智能产品的具体安全标准,从而可以明确判断由于生产者的失误导致的产品缺陷,产品缺陷造成的损害由生产者来承担相應的产品责任。
其次,对于符合产品安全标准的人工智能产品所造成的损害,在这种情况下仍由生产者承担责任可能造成不公平。可以借鉴欧盟法律事务委员会提出的强制保险制度和赔偿基金,在诉讼中无法证明产品缺陷的情况下,使受害者通过保险和赔偿基金得到赔偿。
[ 参 考 文 献 ]
[1]璐.产品责任[M].北京:中国法制出版社,2010.
[2]晓,曹建峰.论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点[J].西北政法大学学报,2017(5).
[3]建峰.10大建议!看欧盟如何预测AI立法新趋势[J].机器人产业,2017(2).