APP下载

论人工智能的刑事责任

2019-03-26

福建质量管理 2019年14期
关键词:刑罚机器刑法

(四川大学法学院 四川 成都 610000)

一、人工智能时代所引发的刑法思考

(一)人工智能能不能作为刑事责任的主体。人工智能,现如今家喻户晓的名词,20世纪50年代被提出之后各国的科学家都对此进行了深入的研究。到现在,世界各国都将人工智能作为发展的第一要务,我国也不例外。当然,人工智能是一把双刃剑,机遇与挑战并存,安全和风险共生,人工智能发展的不确定性可能会带来新的安全风险和挑战,甚至可能会冲击新的法律秩序、社会伦理。因此,针对人工智能建立新的法律法规、规范政策就显得尤为必要。应全方面形成对人工智能技术的安全管控能力。这些风险如何予以规避,用什么样的法律法规进行规制,无疑会影响到我国现行刑法。

人工智能是基于人类的设定或要求,通过计算机信息系统实施一定智能行动的实体或者程序。(王素之,2018)人工智能可以根据人工智能是否具有自我意识以及是否能独立思考和解决问题,分为强人工智能和弱人工智能。强人工智能可以超出设计的程序范围进行独立判断并作出决策,显示出与人相似的独立意志;而弱人工智能智能在编制的程序范围内执行命令,只是人类智能的延伸而已并不具备自我意识以及独立思考的能力。人类可以运用弱人工智能机器可以改造和创造世界,实现人类生产、生活的目的,给人类生活带来便利。现在比较常见的弱人工智能主要是自动驾驶汽车、医生机器人等。

判断人工智能能否成为刑事责任的主体最关键的就是看其有无刑事责任能力,即承担刑事责任的能力。笔者认为,强人工智能机器人可以成为刑事责任主体而弱人工智能机器人不能成为刑事责任主体。有学者认为,智能机器人因其无法产生自主意识或者缺乏独立的思维而没有办法认识到其行为的意义,从而不能成为刑事责任的主体。笔者认为,此观点是存在不妥之处的。“随着人工智能技术的快速发展,机器人拥有越来越强大的智能,机器人与人类的差别有可能逐渐缩小。(杜严勇,2015)”因此,当人工智能技术发展到一定程度时,就有可能出现拥有自己独立意志并且能够独立自主决策的强人工智能机器。在此时,拥有独立思维的强人工智能机器实施的行为就有可能超越甚至脱离设计的程序,为实现自身的意志而实施危害人类的行为。很多人认为这好像就是天方夜谭根本不可能实现,那数百年之前又有谁相信地球是圆的呢?即使当下的人工智能技术尚不足以使机器人产生人类智能,但并不排除科技创新会带来突破。现在最聪明的智能机器人AlphaGo就证明了通过深度的学习,显示出了超越人类的分析判断能力。另外,与单位相比,强人工智能机器的控制能力和辨认能力与人类更为接近。以单位犯罪为例,我们根据单位的特征对传统的刑法理论做出修正,赋予单位“法人”的地位,对于强人工智能机器我们也需要遵循同样的思路。

而弱人工智能机器人不能成为刑事责任的主体,弱人工智能机器人擅长推理、解决问题,但是并不真正拥有智能,与强人工智能机器人具有本质的区别。强人工智能机器具有自我意识、自我创新思维这些都是弱人工智能机器所不具备的。弱人工智能机器不具备独立的思维意识和思考能力,只能被动地按照既定程度进行行为,有可能是因为无法区分人类或者其他物体对人类造成了误伤;也有可能是因为原设计程序的错误而导致了危害社会的结果;也有可能是因为自然人以人工智能机器作为犯罪工具以此来达到既定的犯罪目的。

(二)人工智能是否有刑罚的必要性。刑事责任的存在是刑罚的前提,没有刑事责任绝不可能适用刑罚。(赵秉志,2007)刑法惩罚的是犯罪的人,并且惩罚的手段具有一定的特殊性,根据前文的论述,强人工智能机器可以进行惩罚,而弱人工智能机器则因为不具备刑事责任能力儿无法被认定为是犯罪的人因而也没有惩罚的必要。所以在此处我们只重点讨论强人工智能机器受罚的必要。

诚然,因为法律所存在的滞后性,我们目前的法律还未将人工智能纳入其中。弱人工智能时代已经来临,强人工智能时代并非遥遥无期。当强人工智能机器凭借自己的独立意志实施了超越了设计编程的犯罪行为时,将其纳入刑法调整的范围并非无稽之谈,而是有非常必要性的。首先,对强人工智能机器适用刑罚能够实现刑罚的震慑功能,有许多学者认为这是开玩笑,机器怎么能感受到痛苦。但是痛苦本来就是一种本质的感受,既然强人工智能机器具有独立的思维意识并且随着医学的进步,赋予强人工智能机器一定的疼痛机制及主观上的感觉判断也不是不可能。其次,对强人工智能机器适用刑罚能够实现刑罚的教育改造功能。强人工智能机器的运作模式决定了其具有独特的教育改造方式,可以通过修改它的数据来改变它的思维方式。

(三)人工智能时代的刑罚体系。既然强人工智能机器能够作为刑事主体并承担刑事责任,那么将强人工智能机器纳入刑罚调整的范围不仅具有正当的刑事根据,还具有相应的功能、实现特定的目的。笔者认为,第一,刑罚观念应该转变为报应与预防相结合,由传统的消极预防转变为消极预防与积极预防并重。从我国的具体情况来看,《刑法修正案八》的禁止令和终身监禁以及《刑法修正案九》的职业禁止和终身监禁制度,均体现了积极预防的刑事立法取向。第二,针对强人工智能机器采取刑罚二元目的论,即对其采取法律报应论和积极预防论。

二、对人工智能机器带来刑事风险的应对

(一)确立人类利益优先的原则。未来关于刑法立法一定会考虑如何避免机器人对人类伤害的问题,可以根据阿西莫夫的机器人三大定理来进行制定。阿西莫夫的第一定理是不能伤害人类;第二定理是恪守人的命令,除非与第一条相冲突;第三条是保护自己,除非与第一条、第二条相冲突(高奇瑞,2018)。为了更合理、有效地防止人工智能机器对人类造成损害,我们应对其可能产生侵害人类利益的情况提早预防,确立人类利益优先原则。在此前提下,再认真考虑人工智能机器所产生的法律问题,正确处理问题、正确对待以做到和平共处。

(二)严格遵循技术中立原则。人工智能是一把双刃剑,既是人类文明又是社会风险。面对人工智能,我们不能逃避它、否定它并阻止其生长,在技术发展程度不成熟的情况下,我们不能因为其可能带来一定的刑事问题就阻止甚至放弃人工智能的发展。技术中立原则,最早来自于1984年环球电影诉索尼案中,其基本内容如下:“只要一项技术构成实质性非侵权使用,不管这种技术是否被用于合法或者争议的目的,技术服务提供者都不必对用户实施的或可能实施的侵权行为承担责任。(何培育,2017)”在刑法中,应当严格恪守技术中立原则,只要在人工智能技术发展过程中没有出现超过社会容忍度、控制力的风险,并且该技术的发展和使用可以促进社会的进步时,就不应该阻挠和制止其发展。

三、结语

人工智能时代已经慢慢来临,人类在享受人工智能带来的便利时,也要警惕其潜在的风险,这种风险可大可小,但无论如何去减少或者规避风险才是当下的着眼点。对人工智能采取单独立法还是采取另外的法律规制都是值得研究和考量的。面对日新月异的人工智能技术,采取什么样的手段进行规制都是值得深思熟虑的时代话题。

猜你喜欢

刑罚机器刑法
机器狗
机器狗
过度刑法化的倾向及其纠正
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
未来机器城
断盐也是一种刑罚
刑法适用与刑法教义学的向度
刑法的理性探讨
刑罚的证明标准