人工智能的刑法学分析
2019-12-26王娇娇胡思宁
王娇娇 胡思宁
一、人工智能时代的刑事风险
人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及其应用系统[1]。
科技的发展进步促进时代的变迁,人工智能技术的发展开启了人工智能时代的大门,对于解放劳动力、推进经济飞速发展具有重要意义。但是,技术具有两面性,人工智能技术在推动社会发展进步的同时对法律和伦理等方面产生了新的威胁。
第一,利用人工智能技术实施传统犯罪会使得传统犯罪的社会危害性成倍增加。在传统的犯罪模式中,由于犯罪主体依靠主要个人或者几个人的力量,因而其所造成的社会危害的范围和强度是有限的。人工智能技术的发展极大地解放了人们的双手,提高了处理事务的效率,如果将其合理地应用于生产生活,将会给社会带来前所未有的便捷和舒适感。反之,如果人工智能技术被犯罪分子不法利用,那么它给社会带来的危害将会成倍增加,造成更加严重和不可控的后果。
第二,人工智能的具体应用过程将有可能面临侵犯公民个人信息和隐私权的风险。人工智能技术的产生发展主要依靠智能算法对海量数据的分析与计算。因此,在收集分析数据的过程中,很有可能侵犯公民个人信息及隐私权。
第三,不法利用人工智能进行犯罪活动,很可能会催生新的犯罪形式。
人工智能时代的变革影响社会生活的方方面面,提供给社会便利的同时也冲击了法律和社会伦理。我们在鼓励和发展人工智能技术的同时,对人工智能技术带来的风险也要予以高度重视。在刑法方面,无论是人工智能造成的哪一种刑事风险,损害了刑法所保护的法益就会涉及刑事责任的认定和分配问题,这也使得人工智能技术成为近年来理论界热烈讨论的话题之一。
二、相关学说介绍
目前,对于能否赋予人工智能产品刑事主体资格,应否让其承担刑事责任的问题,各学者看法不一,主要形成了三种观点。
(1)有学者认为智能机器人不存在自我意识和感知力,在实施社会危害行为时,人工智能产品只是产品研发者和使用者的犯罪工具,是他们智力和体力的延伸,因而不是刑事责任主体,不能承担刑事责任。
(2)有学者根据人工智能产品自我意识的强弱对人工智能产品的刑法规制进行了具体的分析和判断:“在程序设计和编制范围内智能机器人实施犯罪行为是按照人类的意识和意志,应当将智能机器人看作人类实施犯罪行为的‘工具’,而发展到一定阶段的智能机器人可能超越程序的设计和编制范围,按照自主的意识和意志实施犯罪行为,因而完全可能成为行为主体而承担刑事责任。”[2]
(3)有的学者将人工智能产品分为专用人工智能、通用人工智能和超级人工智能[3],并根据人工智能产品的分类对人工智能产品的刑法规制进行了具体的分析判断,但与第二种观点不同的是,该种观点认为:“就当前的技术水平而言,通用人工智能仍是一种较为遥远的设想,在法律上赋予其刑事主体的资格将会面临价值观念、具体认定等方面的较大困难,刑法对此应持谨慎、理性的态度。”[4]
不同于第一种学说“一刀切”的观点,第二种学说和第三种学说都是根据人工智能的分类作的具体判断。第二种观点认为发展到一定阶段的智能机器人拥有按照自主意识实施犯罪的能力而让其成为行为主体并承担刑事责任,而第三种观点则认为,就当前通用人工智能技术发展水平而言,在是否赋予通用人工智能刑事主体资格并让其承担刑事责任的问题上应持理性、谨慎的态度。
三、对人工智能的刑法规制
(一)学说的分析与评价
第一种学说很理性地对人和人工智能产品作了本质区分,但却难以做到具体问题具体分析。对于社会向前发展进步产生的新的复杂的问题,有僵化和保守主义倾向,不利于理论和实务的发展。第二种学说做到了具体问题具体分析,但太过超前,虽然通过新颖的方式从理论上架构了一种解决方法,但却忽视了社会实际问题,不仅很难为社会伦理观念所接受,而且在具体应用过程中也会产生一系列问题。
因此,笔者认同第三种学说,在对人工智能产品实施的社会危害行为进行刑法评价时,我们应该持谨慎理性的态度,不能贸然赋予人工智能产品刑事主体资格并让其承担刑事责任。我们不得不考虑赋予人工智能刑事主体资格在刑事责任的具体认定过程中将面临很多难以解决的现实问题。
首先,如果认为发展到一定阶段的智能机器人拥有按照自主意识实施犯罪的能力而让其成为行为主体并承担刑事责任,那么在司法实践中该如何具体判断人工智能在实施社会危害行为的过程中是否超越程序的设计和编程范围?其次,赋予人工智能行为主体的资格并让其承担刑事责任就间接地承认了人工智能追求自在价值的自由意志,但现实的技术发展情况是,无论通用人工智能有多智能,它还是来源于人类的设计和编程程序,最终也难以完全摆脱人类的控制。那么,通用人工智能承担刑事责任以后,它的研发者和设计者是否还有法律责任?他们的法律责任该如何评价?再次,赋予人工智能产品刑事主体资格并让其承担刑事责任这种将人工智能产品“类人”的处理方法是否符合社会民众的期待,是否能为社会伦理所接受?最后,进行刑事处罚的最终目的在于防止犯罪行为再次发生,而事实上,人工智能依据设计和编程而产生并不具有道德伦理和情感,对其进行处罚之后它仍然会按照之前的行为模式运行,即使我们将它销毁也还是会有下一个人工智能出现,这样的刑事处罚对于预防犯罪是否还有意义?
(二)规制方法
虽然法律应对于社会上出现的新问题新现象予以及时回应,但是刑法作为最后一道防线应当保证其谦抑性,不应一到社会的变革创新就急于打破现有的法律框架。我们应秉持谨慎、理性的研究态度,在现有的刑法体系之内积极寻找解决的办法。人工智能技术渗透社会生活的方方面面,当前正处于蓬勃发展的阶段,且发展前景广阔。但是,不得不承认的是,人工智能技术不断发展创新的过程也是艰难的。就目前而言,作为一项新兴技术,人工智能技术的发展程度尚不足以打破现有刑法体系。因此,我们可以在原有刑法体系的基础上对人工智能的刑事风险进行防控。
第一,对人工智能从源头治理进行全方位防控[5]。人工智能技术的发展给社会生活的方方面面带来了日新月异的变化。法律作为上层建筑,应当对人工智能技术的发展进行有效的监管,促进人工智能技术合理使用,保障人工智能技术健康发展。为此,要坚持从源头治理,出台相关法律和法规,确保人工智能技术发展和使用的各个环节都处于法律的有效监管之下,规范人工智能技术研发和生产的各个环节,坚决惩处不法利用人工智能技术实施的危害社会的行为。
第二,设置人工智能命令禁区[6]。虽然人工智能技术目前处于不断发展进步的阶段,但是作为一种新兴技术,其发展还是不够成熟。这就需要法律对可能危及社会、国家乃至人类安全的智能技术予以禁止,从而保证人工智能技术健康有序发展,使其更好地造福于人类。
第三,完善或出台相关司法解释。虽然人工智能技术的发展尚不足以打破现有的法律体系,但是人工智能技术的发展壮大还是使得有人工智能参与的犯罪活动相较于传统犯罪而言拥有了一定的特殊性,进而使得在司法实践过程中出现了一系列难以认定的复杂问题。这就需要完善或者出台相关的司法解释予以释明,从而更好地指导司法实务活动。
第四,建立更为严格的人工智能技术准入制度[7]。技术具有两面性:一方面,人工智能技术的应用给社会带来的影响是广泛而深刻的;另一方面,人工智能技术的不合理使用甚至是不法使用对社会带来的危害也是毁灭性的。这样一种关乎人类福祉的高新技术有必要对其设立严格的技术准入制度,进行更加全面有力的监管,不仅要严格限制人工智能技术的研究使用人员,而且对于人工智能技术的准入门槛和适用范围也要进行严格的把控。
第五,鼓励建立人工智能行业自律体系。人工智能技术的蓬勃发展吸引越来越多的人从事人工智能技术的研发与推广,鼓励建立人工智能行业自律体系以促进人工智能技术健康发展。此外,在发展人工智能的同时,要实现人工智能风险防范技术同步发展,使得人工智能技术的发展应用处在可控的范围。