人工智能的刑事责任能力研究
2019-05-12梁湖童彤熊睿瑶吴秀娟吴柏文
梁湖 童彤 熊睿瑶 吴秀娟 吴柏文
摘要:在人工智能逐渐发展的背景下,一些人工智能犯罪也随之浮出水面。本文探讨了人工智能犯罪的可能性以及人工智能达到何种条件方能具备刑事责任能力。并以此为根据分析哪些情况下应当由人工智能承担刑事责任。
关键词:人工智能;刑事责任;犯罪
中图分类号:TP18+B022文献标识码:A文章编号:1008-4428(2019)03-0150-02
一、 背景介绍与研究目的
从21世纪开始,在第三次工业革命的驱动下,人类文明的发展翻开了新的篇章。21世纪的最初十年,是互联网和计算机普及并大规模民用的十年,人类的生活和生产方式也都受其影响产生了天翻地覆的变化,逐步开启了网络社会时代的大门。大数据技术应运而生,而人类为了把这些大数据最高效的运用又创造出了AI协助人类,伴随技术发展,AI开始影响人类生活的每个方面,我们随之进入AI时代。智能时代的标志也就是Artificial Intelligence,简称“AI”,作为研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。AI开始逐渐接手人类的工作,并以远超人类的效率和精度去协助人类解决人类解决不了的和人类费时费力的问题。AI在人类的生产生活中所占的比例越来越大,甚至已经逐渐成为人类生产力中不可或缺的一部分。家居产业中有扫地机器人、智能空调等等层出不穷的智能电器,出行方面不少互联网公司投资研发的无人驾驶汽车已经投入实验。同时,也有许多新的产业在以之前难以想象的方式默默地改变着我们的生活。未来AI还将进一步普及,并且由现阶段的只有简单处理能力的弱AI逐步进化为有深度学习能力的强AI。但是智能时代给我们带来机遇和发展的同时,伴随而来的还有许多挑战,现行的法律法规是否能够规范这些新的生活和生产方式是一个值得探讨的问题。2018年Uber研发的无人驾驶汽车在美国亚利桑那州撞击了一名女子致其死亡。这些年工厂中工作的机器人致人重伤或死亡的事件也时有发生。人们终于开始意识到AI不仅是工具,在特殊情况下有可能对人类的生命安全、财产安全造成影响。这种焦虑与不安逐渐蔓延开,是否那些预言机器人会灭亡人类的科幻小说真的会成为现实?从目前或者可见的未来来看,AI已经有能力实施部分刑法所规定的犯罪行为了。在这样的大背景之下,如果我们能够提前对AI犯罪进行一些研究,探讨其是否真的能如霍金所说成为“第三类人”,一定程度上避免法律的滞后性对社会造成的不良影响,想必是极有意义的。
从犯罪构成四要件的角度来分析:只要AI具有责任能力,那么就可以成为单独的犯罪主体。同时AI往往是多人的意志集合成一个意志,那么在AI犯罪中可能是编程者们的集合亦或者编程者与AI本身意志的集合。因此AI犯罪主体既可能是单独的AI本身,也可能与设计者构成共同犯罪主体。对犯罪的认定离不开对主观方面的判断。当AI的行为目的超出了设计者的预设目的,那么其行为模式绝大部分情况是由AI自身控制,此时就要考虑它的主观因素。犯罪意思的来源应成为定罪量刑的标准。从目前或者可见的未来来看,随着AI的发展其用途也越来越广泛,其可能侵犯的客体自然也就愈发多样。不论是人身权利、财产权利、民主权利等都有可能成为其犯罪的客体。从客观方面来:AI已经具备了独立工作的能力,独自实施危害行为产生危害结果。
二、 人工智能刑事责任主体资格论证
有论著认为:“刑事责任能力,是指行为人构成犯罪和承担刑事责任所必需的,行为人具备的刑法意义上辨认和控制自己行为的能力。”也有论著认为:“刑事责任能力,简称责任能力,是指行为人实施危害行为时,能够理解自己行为的性质、后果和社会政治意义,并能够控制自己行为,从而对自己所实施的行为能够承担刑事责任的能力。”还有论著认为:“刑事责任能力,……,是指行为人认识自己行为的性质、意义、作用和后果,并能够控制自己行为方向和对自己行为承担刑事责任的能力。”
不难发现这三个学说的共同点就是都认为刑事责任能力的条件是能够认识自己行为的性质和控制自己的行为。让我们回过头来看AI是否具有这种能力呢?AI得益于传感器技术其对行为的辨认能力远高于以往刑法所规定的自然人。现有的AI大多以大数据的分析结果得出模型,将模型与其凭借传感器所搜集的信息进行比对,筛选出当前环境下最适宜的行动方案,并且很多机器的精度已经远远高于手工制作了。因此这类AI具备认识自己行为和控制自己行为的能力,据此可以推断AI存在成为具备刑事责任能力的可能性。
三、 具备刑事责任能力的人工智能的范围
但是并不能简单根据有分析数据得出模型,进而根据模型回应的能力就认为AI具有认识自己行为的能力。因为这种回应的内容有些可能是被编程者预先设定的,而在回应时它并没有自己的意识和思维,应该被理解为编程者表达意思或者行为的工具。显然不适合把这类AI认定为具有刑事责任能力。而另外一部分AI仅仅被预设了目的(即设计意图)和基本工作原理,具体的工作方法和行为的实施均不是设计者可以具体控制的,这种情况下显然AI已经有了一定程度上的辨认和控制能力。具体区分哪些AI是具有辨认和控制能力,很难从技术角度来分析,因为其很大程度上是一个主观的概念。根据现在以及可见的未来的技术情况来看,AI都离不开深度学习和机器学习的应用,而深度学习的结果是否属于编程者的设计意图和可预见的范围之内难以确定客观标准。在特殊情形下可能会出现边界不明的情况。而AI难以像人类一样确定刑事责任年龄和精神状况。原因在于,不同的AI对行为辨认和控制的能力不同,并且AI对社会的接触方式和生存模式明显不同于自然人,出于避免AI从事违法犯罪活动的考虑,也使AI违法犯罪时进行处罚具备合理性,法律应当赋予编程者將基本法律规范灌输给AI的义务。当未尽预防义务的编程者所设计的AI犯罪时,编程者的主观状态应当认定为明知道自身的行为可能会导致危害结果而持放任的态度即间接故意,此时AI不应该承担刑事责任。AI具备刑事责任能力的前提不只有对法律具备一定程度的了解,还应当包括具备独立实施犯罪的能力(也就是控制能力的外在表现)。其原因在于,即使一个AI对法律具备相当程度的了解,清楚自身行为的性质,但其不具备独立实施犯罪的能力,则说明其控制能力存在缺陷,是外部因素介入导致最终的危害结果发生。这种情况下显然AI作为工具的成分更大,不适宜将AI作为刑事责任的主体。
辨别AI的控制能力,不仅仅要考虑其硬件上的限制(比如其本身不具备机器手臂,不可能进行直接操作),还应当考虑其在该领域内的智力水平是否达到实施犯罪的程度(即辨认能力的基础),否则一旦过大范围赋予AI以刑事责任能力,AI难免成为部分犯罪分子的“替罪羊”。目前比较可行的考察AI的智能程度的方法是参考自然人测试智商(IQ)的方法测试AI的智商,将测试结果根据某年龄的自然人的平均IQ将AI的智力水平换算为对应的自然人的年龄,以此作为参考确定AI智力水平对应的辨认和控制能力,进而确定该AI是否具备刑事责任能力。综上诉述,只有被编入了必要的法律规范并且智力达到了可以具备辨认和控制能力的AI才具备刑事责任能力。
四、 具备刑事责任能力的人工智能犯罪之分类
虽然前文中为了确定AI的辨认和控制能力参考了自然人的智力判断标准,但是AI的刑事责任能力的研究显然不应该被限定在自然人犯罪的框架之中。其原因在于AI作为被我们创设出的智能,不论是外在表现形式和思维方式都和自然人具有显著的区别,用约束自然人的法律和思维方式去规范AI难免出现一些问题。具体到刑事责任能力这个方面,设计者的意图和犯罪结果之间的联系应当成为定罪量刑的依据之一。之所以把这二者的联系作为定罪量刑的依据是因为编程者对于AI的控制和监护人对于被监护人的控制虽然有相似之处,但是二者也具有不小的区别。被监护的自然人虽然受到监护人(往往是父母)的监护并且受监护人的抚养和教育,但是被监护人通常仍有其他途径例如学校等方式来接触社会和主流意识形态。自然人虽然是父母所生育,其性格思维等等方面受父母影响,但是父母并不能直接控制子女的状态。AI则不同,在研发阶段编程者对AI的控制几乎是百分之一百的,这也导致了即使编程者可能没有直接指使AI实施犯罪,但是施加了间接的影响。这种紧密的联系达到一定程度时即成为因果关系,导致了编程者要承担更加严格的责任。具体来说:当AI所实施的犯罪行为本来就是编程者的设计目的,即使该AI已经具备了辨认和控制能力,设计者应当与有刑事责任能力的AI成立共同犯罪。而假如AI所实施的犯罪行为远远偏离了编程者的设计意图,甚至超过了能够预料的范围,那么说明存在难以预料的介入因素,如果介入因素是具备辨认和控制能力的AI本身造成的,则应当由AI本身承担刑事责任,编程者不承担刑事责任。
当AI所实施的犯罪行为在编程者意图之内,并且该案件中的AI无刑事责任能力,此时AI仅仅是编程者表达意思的工具,其状态和处罚应当参考自然人犯罪中的间接正犯。
还有一种情况是:AI所实施的犯罪行为在编程者设计目的之外,且该AI是无刑事责任能力的情况下实施的犯罪行为。假如参考无刑事责任能力的自然人犯罪的情况,该自然人是不承担刑事责任的。但是AI毕竟只是人类创设出的智能,人类对于无刑事责任的同类的宽容不应该适用于AI。其原因在于假使其独立实施犯罪而不承担刑事责任显然违背了公平正义的要求,并且该AI既然已经实施了编程者意图之外的犯罪行为证明其显然具备一定的危险性,假如不对其加以惩处显然不符合安全的需要。
在本文开头已经讨论了区分AI的刑事责任能力对于人类的作用,最后需要讨论的是承担刑事责任对AI是否有意义。自然人适用的刑事责任由于其性质显然不能对AI产生惩罚或者教育的意义。比如:只要不被彻底删除,AI作为一串代码几乎能够无限的存在下去。因此简单粗暴的删除并不能达到相当于人类死刑的效果。而也正是这种几乎无穷长的“生命”也使得有限度的限制自由对AI几乎没有意义。而AI通常也没有财产和政治权利,财产刑和剥夺政治权利对其也不适用。
五、 结论
刑法理论必须与时俱进,跟上社会发展的脚步。否则无法适应新的社会发展带来的社会问题。AI时代的刑法理论不应再将刑事责任主体的范围限定为具有生命体的“人”和单位,那种认为“刑法是以规制人的行为为内容的,任何一种刑法规范,只有建立在对人性的科学假设的基础之上,其存在与适用才具有本质上的合理性”的观点,也应当随着社会的进步而有所改变。刑事责任能力的前提不应再被限定为自然人,而应以辨认和控制能力为标准。虽然这一标准并不存在可以精确客观量化的标准,但是我们应当严守这一界限。既不让AI成为人类的替罪羊,也不让编程者和使用者承受无妄之灾。因此,AI的犯罪行为是否与编程者和使用者的目的和意图有关联应当作为确定刑事责任的依据之一。AI越来越多的深入我们的生活中,笔者认为对AI刑事责任的研究和规定势在必行。而视而不见导致的法律的滞后性的影响可能是巨大的。
参考文献:
[1]陈婉婷.网络服务提供者帮助行为刑事责任模式探析[J/OL].北京警察学院学报:1-9[2019-01-28].https:∥doi.org/10.16478/j.cnki.jbjpc.20190122.006.
[2]刘旭.人工智能体犯罪的刑事归责——以自动驾驶汽车为例[J].山西省政法管理干部学院学报,2019(1):82-85.
[3]曾娜,吴满昌.生态环境损害赔偿中的多重责任之比例審查探讨[J].武汉理工大学学报(社会科学版),2019,32(1):110-115.
作者简介:
梁湖,男,江西景德镇人,江西财经大学学生,研究方向:法务会计;
童彤,女,江苏无锡人,江西财经大学学生,研究方向:法学;
熊睿瑶,女,江西南昌人,江西财经大学学生,研究方向:法学;
吴秀娟,女,福建宁德人,江西财经大学学生,研究方向:法学;
吴柏文,男,江西九江人,江西财经大学学生。