人工智能体“刑事责任”的教义学解构
2019-11-27王肃之
王肃之
(最高人民法院 第二巡回法庭,沈阳 110179)
2015年霍金等知名人士签发公开信警告称,在进行人工智能研究的同时必须相应地采取防范措施,避免人工智能给人类社会造成潜在伤害。在人工智能相关的著作权问题、侵权问题出现后,人工智能相关的犯罪问题也逐步进入刑法视野,亟须从教义学的视角进行归纳和研究。人工智能体及其“行为”应如何在犯罪角度予以评价?人工智能体又能否承担“刑事责任”?这些问题既有理论似乎难以为上述问题提供直接的答案。继风险社会的冲击之后,刑法教义学的传统理论结构遭遇到更为根本性的冲击。如何在继承和发展理论的过程中解释人工智能体的主体性问题和责任可承担性问题,正是人工智能时代刑法教义学理论所面临的关键命题。
一、人工智能的发展及其刑事责任命题
近代以来,刑法教义学的理论大厦在持续建构的同时也不断面临着解构的危险。在历史上其所面临的最大挑战之一即为风险社会的到来和发展。围绕着风险对于危险概念的冲击,以及风险犯与危险犯的问题,刑法教义学在法益与行为层面都经历了持久的争论乃至困惑。不过在此过程中,纵使风险社会在某种程度上动摇了刑法教义学的核心内容,但是主体与客体二分的前提结构始终得以稳定存在,然而人工智能时代的到来却在根本上冲击了主体和客体的二元结构。
在时代和科技的推动下,人工智能迅速从一个技术概念成为一个社会概念,并进入刑法学的视野。人工智能(artificial intelligence,简称AI)这一概念的出现一般认为可以追溯至1956年。有学者认为,“根据诸多学者文章中对于人工智能的界定,其是人为创造的智慧,即在计算机或其他设备上模拟人类思维的软件系统。”[1]45随着技术的发展特别是机器学习(machine learning)技术的进展,人工智能已经可以模仿甚至超越人类完成一定的指令。2016年谷歌人工智能AlphaGo战胜韩国棋手李世石,使得“人工智能”成为全社会所关注和讨论的热点。在社会层面,人工智能正在各个领域不断地发展和适用。然而,正如每一次科技变革所面临的命题一样,任何新技术、新事物往往会被犯罪人所利用。2017年,绍兴警方侦破的“全国首例利用AI犯罪案”被学界所广泛关注,该案中包括“利用AI技术识别图片验证码团伙”,其通过运用人工智能机器深度学习技术训练机器,可以让机器如AlphaGo一样自主操作识别,有效识别图片验证码,轻松绕过互联网公司设置的账户登录安全策略,给网络诈骗、“黑客”攻击等网络黑产提供犯罪工具。
如果说前述案件依然在一定程度上可以将人工智能作为犯罪的工具与技术予以理解,那么以下案件则赋予了人工智能某种“意思”和“行为”的内涵:第一,大众公司机器人“杀人”案。2015年7月,英国《金融时报》报道,大众承包商的一名工作人员不幸身亡,事发时其正与同事一起安装机器人,但机器人却突然抓住他的胸部,然后把他重重地压向一块金属板,最终导致这名工作人员因伤重不治身亡。该案中机器人自行“决定”实施侵害,并且导致死亡后果。第二,自动驾驶汽车[注]自动驾驶汽车(autonomous vehicles;self-piloting automobile)依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。“交通肇事”案。2016年5月,在美国佛罗里达的一条高速公路上,一辆开启了Autopilot模式的特斯拉发生了车祸,驾驶员身亡。2016年9月,中央电视台《法治在线》栏目曝光,特斯拉自动驾驶在中国出现首例死亡事故,特斯拉处于“定速”的状态,并未能识别躲闪而撞上前车。以上案件中,自动驾驶汽车“违反”道路交通管理法规,导致重大交通事故。第三,聊天机器人“散布”不当言论案。微软2016年在Twitter上推出聊天机器人Tay,其设计原理是从对话交互中进行学习。一些网友开始和Tay说一些偏激的言论,刻意引导她模仿。经过“学习”,仅上线一天,Tay就不断散布种族主义、性别歧视和攻击同性恋言论。该案中Tay系基于“学习”而后“散布”不当言论。对于以上情形中人工智能该如何认定和处理,特别是人工智能的刑法地位及意义难以从现有刑法教义学理论中寻得直接的答案。
基于此,刑法学界关于人工智能犯罪的讨论逐渐展开,并且前所未有地触及了刑法教义学的基石问题——人工智能体可否成为犯罪的主体以及可否承担刑事责任?有观点认为人工智能体已经可以成为犯罪的主体,可以承担刑事责任。“人工智能时代的到来使得我们不得不警惕人类设计和编制的程序无法完全控制住‘头脑’越来越发达的智能机器人的行为,智能机器人完全可能按照自主意识和意志实施严重危害社会的犯罪行为。”[2]45有论者进而认为,“强人工智能产品超出设计和编制的程序范围自主决策并实施严重危害社会的行为”可以视为犯罪行为“并给予刑罚处罚”[3]140。也有学者认为人工智能不能成为犯罪的主体,不能承担刑事责任。例如:“当前人工智能系统不符合刑法规定的犯罪主体条件。”[4]155“刑事责任的承担主体也应是相关自然人或者单位,而不应将人工智能拟制为新的犯罪主体。”[5]70这一争论虽然围绕人工智能体展开,但却关乎人工智能时代刑法教义学的立场与发展,我们理应进行慎重和细致的分析。
二、人工智能体的教义学地位
正确界定人工智能体的教义学地位需要我们基于对现阶段人工智能体法律性质的厘清,并在此基础上结合犯罪行为主体的相关理论进行分析。
(一)人工智能体的法律立场
前述人工智能概念并未区分“人工智能”与“人工智能体”,但是这一界分却是研究刑事责任的前提问题。“人工智能”更多的是一种技术或科学的概念,只有相关的实体可以成为刑法意义的主体,其才具有被科处刑罚的可能性。有学者以“智能机器人”来指称人工智能的实体,例如:“智能机器人是由程序设计和编制而成且具有辨认控制能力和学习能力,同时能够自主思维、自发行动的非生命体。”[2]40机器人伦理研究员Kate Darling将“社会机器人”定义为“在社会层面上与人类沟通和互动的物理实体智能体”[6]1-9。但是人工智能的实体是否都能够呈现为“机器人”的形式?在前文所述的案件中,大众公司机器人可以类人地完成一定的工作,聊天机器人可以类人地进行一定的“语言表达”,可以认为是智能机器人。但是自动驾驶系统是汽车的操作系统,将其解释为“智能机器人”显然有超过其概念可能涵射范围的危险。因此,笔者在此采“人工智能体”的概念指称人工智能的相应实体,以便展开其是主体还是客体的讨论。
在法学领域,已有学者就人工智能体的法律性质问题进行一定的讨论,概括起来主要包括以下三种观点:第一,人工智能体法律地位肯定说。例如:“人工智能[注]在此需要指出既有研究往往并不区分使用“人工智能”与“人工智能体”,为体现引文的准确性对其原文仍保留“人工智能”与“智能机器人”的表述。是人类社会发展到一定阶段的必然产物,具有高度的智慧性与独立的行为决策能力,其性质不同于传统的工具或代理人。在现实条件下,将人工智能定义为具有智慧工具性质又可作出独立意思表示的特殊主体较妥。”[7]52AIonAI机器人法(artificial intelligence-on-artificial intelligence (AIonAI) laws)甚至比照《世界人权宣言》第1条的规定作出如下表述:“所有机器人都具有与人类相当的理性和良心,并应以兄弟关系的精神相对待。”[8]29-40第二,人工智能体法律地位有限肯定说。例如:“人工智能具有独立思考的能力是与其他科技最大的区别,但人工智能仍作为工具存在,仅应具有有限的法律人格。即便人工智能发展到具有自我意志的程度,其构造结构、生产方式与人类存在根本性的不同。人工智能具有有限的权利义务,更应适用特殊的法律规制标准。”[7]54根据这一观点,人工智能体虽具有一定法律意义的主体性和主体地位,但是应予限定,并为其设定与传统法律主体不同的具体规则。第三,人工智能体法律地位否定说。如有学者认为:“未来人工智能系统的活动成立犯罪不仅要有对事实的感知,还要有对法律规范的认识和选择,人工智能系统不可能满足刑法规定的主观要件。”[4]158或者以自动驾驶系统为例否认人工智能体的主体地位:“从中短期来看,技术的变迁并未动摇机动车责任的构造,仅使得自动驾驶系统的生产者具备了驾驶人的属性,尚属于解释论可解决的领域。”[9]143
笔者认为,判定人工智能体的教义学地位必须基于其现实的发展状况。人工智能可以分为强人工智能(对应“Agent的强定义”)和弱人工智能(对应“Agent的弱定义”)。弱人工智能体是指不能制造出真正地推理(reasoning)和解决问题(problem solving)的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。“强人工智能是指有自我意识、自主学习、自主决策能力的人工智能,也是人工智能发展的终极目标,但是在意识问题没有解决之前,强人工智能的实现还有很长的路要走。”[10]20在笔者看来,这一分类既代表着人工智能发展的可能性(即强人工智能最终有可能进行某种法律评价),也代表着人工智能的阶段性(即弱人工智能欠缺独立的意志和行为)。结合以上案例中人工智能体的表现,我们可以发现在现阶段人工智能依然应用在特定技术、特定领域应用,虽然有着一定的学习能力,但是并不能从根本上具有自主意识。比如Tay聊天机器人,只是在接受执行聊天指令后对于聊天的内容进行学习和数据库更新,并不能够自主决定停止聊天而去做网络主播成为“网红”,大众公司机器人、自动驾驶系统也是如此,其并没有和人类一样的意志自由和观念。因此,现阶段的人工智能体仍然属于弱人工智能阶段。
由此笔者的观点可以概括为“人工智能体法律地位阶段否定说”,即在现阶段人工智能体尚不能被赋予现实的法律地位,但是不排除随着将来人工技术的发展对其赋予主体地位的可能[注]当然也有基于道德考量不在社会评价上赋予其独立意义的充分理由。。“未来的自主智能机器将有能力完全自主行为……它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。完全的自主性意味着新的机器范式:不需要人类介入或者干预的‘感知—思考—行动’。”[11]167实际上即便是前述肯定人工智能体法律地位的学者也未否认这一现实:“在机器人社会化应用尚未真正实现之前,法律仅允许机器人权利的必要拟制、有益拟制。换句话说,机器人权利的拟制承载着法律的制度目的,即建立起现实社会同未来社会、旧规则与新规则的沟通桥梁。”[12]60即使其依然坚持法律拟制的观点,但是也不得不承认这一法律想象的未来性。
(二)刑法教义学视野中的人工智能体[注]一般对于主体性的探讨在构成要件符合性层面展开,对于主体责任能力的探讨在有责性层面展开。本部分仅在构成要件符合性层面予以讨论,有责性问题的讨论在下文展开。
持人工智能可以承担刑事责任观点的前提依据在于其认为人工智能体已经成为犯罪的主体。如有学者认为:“从法律属性上可以将智能机器人定位为经程序设计和编制而成的、可以通过深度学习产生自主意识和意志的、不具有生命体的‘人工人’。”[2]43这实际上是从强人工智能体的角度予以理解,并以“智能机器人的刑事责任”为范式进行探讨。然而,论者也认可现阶段弱人工智能因为不具有辨认能力和控制能力而始终无法摆脱工具属性,其实施的行为体现的是设计者或使用者的意志,只能被看作设计者或使用者行为的延伸[3]138。论者实际上是将智能机器人与强人工智能体等同视之,同时肯定弱人工智能体不具有独立的主体性。但是如同前文所所述,“产生自主意识和意志”的人工智能体目前尚未出现,故其主体性的探讨只能基于弱人工智能体的前提展开。
回归构成要件符合性层面,传统意义上刑事责任的承担要求必须归结于具体的自然人。因为即使造成了损害,但是不存在可归责的主体,刑法也不能介入。比如天灾、不可抗力所造成的侵害,即便后果是灾难性的也没有适用刑法的空间。然而就现阶段的人工智能体(弱人工智能体)而言,其尚且无法具有自然人的本质属性。
第一,在生物意义上,现阶段的人工智能体并非是基于出生而取得主体资格的人,不具有自然人的生物特征。这一点也为持前述观点的论者所认可:“智能机器人与自然人的根本差异在于其不具有人类生命体。”[2]43具体可从以下两个方面考察:一方面,人工智能体不具有生物识别特征。比如,基因信息(genetic information)是存储在由DNA(少数RNA)分子片段组成的基因中的生物遗传信息。生物代代相传的正是决定他们的种、类及个体生命性状特征的信息。生物识别信息往往和识别自然人个人密切相关。我国《网络安全法》也将“个人生物识别信息”作为个人信息的重要类型之一。而人工智能体为机器生产,即便是定制生产的人工智能体并且已经编码,但是这种编码只具有区别性而不具有识别性,不但随时会被任意更改并且无法使其在自然意义上区别于其他人工智能体。另一方面,人工智能体不具有生物的“思维”和感觉。动物的“思维”虽然无法和人类的思维相提并论,但是至少具有一定的生物性,比如注意力、好奇心、理性这些也存在于低等动物中,然而这些感情与体验显然不能为非生命体的人工智能体所体会。即便人工智能体可以被输入特定的指令以实现形式上的反馈,但也并非基于其真实的“思维”和“感觉”。
第二,在法律意义上,现阶段的人工智能体不具有意志自由,无法成为自然人意义上的犯罪行为主体。“从法理上讲,人类的意志自由作为处罚的假定前提,这一前提在道理上也可以适用于机器人。”[13]605判定人工智能体可否按照刑法中的自然人对待,关键在于其是否具有真正意义上的意志自由。现代刑法发展的基础之一正是基于近代以来人类的解放及其自由意志的认可,如费尔巴哈的心理强制说正是基于人的意志自由,黑格尔甚至还将自由意志纳入了法益侵害的层面予以理解。及至德日刑法理论体系的构建,是否具有意志自由也是判断构成要件符合性与有责性的重要前提。然而现阶段的人工智能体尚且无法具有真正意义的意志自由。如前所述,Tay聊天机器人只是在接受执行聊天指令后对于聊天的内容进行学习和更新,并不能够自主决定停止聊天而去做其他事情,其“宿命”是被人类决定的,从根本上缺乏了成为自然人意义上犯罪行为主体的核心前提。
因为无法将人工智能体作为自然人看待,有论者提出参考“单位”的规定,将人工智能体作为法律拟制主体看待。他们认为:“通过深度学习,智能机器人完全可能产生设计和编制的程序范围外的自主意识和意志,其中的智能机器人的意志与单位相比,自由的程度似乎更强。如果法律能够尊重单位的自由意志,那么便没有理由否认智能机器人的自由意志。”[2]45关于这一论述,笔者首先提出两点商榷意见:第一,虽然我国实体法层面确实将对应主体概括为“单位”,然而从教义学层面与其概括为“单位”不如概括为“法人”更有利于作为与自然人相对的法律拟制概念。第二,人工智能体的机器学习方式并非“深入学习”而是“深度学习”[注]深度学习(deep learning),深度学习的概念源于人工神经网络的研究。深度学习通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征表示。,否则其智能性难以得到提升。更为重要的是现阶段人工智能体尚且不能具备与法人同等看待的自由意志,其也不能作为与法人同等的拟制主体看待。法人作为犯罪行为主体的根本前提是其具有独立的意思,进而可以(通过自然人)实施一定的行为。如前所述,笔者持“人工智能体法律地位阶段否定说”。从长远来看,由于科技发展的不可预料性,如果人工智能体的“奇点”到来,强人工智能体具有充分的意识和行动能力,可在讨论是否应纳入法律层面考量。也就是说,“参考法人犯罪的思路,对于人工智能作为拟制主体看待未尝不是未来人工智能犯罪刑法规制的可能思路。”[14]60但是在“奇点”没有到来之前,在人工智能发展的现阶段似乎不宜作出这样论断。就这一问题也有学者指出,“模拟和扩展‘人类智能’机器人虽具有相当智性,但不具备人之心性和灵性,与具有‘人类智慧’的自然人和自然人集合体是不能简单等同的。”“机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。”[15]131笔者赞同这一理由,现阶段将人工智能体类比于自然人和法人进而作为犯罪的主体均具有不可克服的障碍。
三、“刑事责任”的前提否定:有责性缺失
在刑法教义学的话语体系中,一般区分使用“责任”与“刑事责任”的表述。“责任”或者说“罪责”一般在有责性层面展开讨论。人工智能体如果要承担刑事责任,则需要具备相应的罪责能力与要素,然而现阶段的人工智能体均无法达到相应的要求。
(一)罪责能力的缺失
现阶段人工智能体无法具备罪责能力。罪责原则,通常表述为没有罪责则没有刑罚。即便是法律意义上的自然人也不必然具有相应的罪责能力。无论是未成年人还是精神障碍者,在刑事责任能力上均需要与成年的、精神健全的人区别看待,不应使其承担刑事责任。也即承担刑事责任的主体不仅需要具备形式的要件,更需要具备实质的要件。在既有理论范式中,形式的要件被理解为生物学意义的标准,比如精神障碍者不能具有刑事责任能力;实质的要件被理解为心理学意义的标准,具体被界定为理解能力与行为控制能力(Einsichts- oder Steuerungusfähigkeit)。在我国语境下,实质的要件被作为判定刑事责任能力的辨认能力与控制能力。有观点认为,“智能机器人完全可能具有与人一样的辨认能力和控制能力,也完全可能通过深度学习在设计和编制的程序范围外实施严重危害社会的行为。”[16]11然而笔者认为,这两项能力现阶段的人工智能体均无法具备:第一,人工智能体无法具备认识能力(理解能力)。犯罪的主体承担刑事责任的一个前提就是其本身可以认识到犯罪行为的性质,并且可以认识到这一行为对于法益的侵害。现阶段的人工智能体仍然只是机械地执行特定的人类指令,并且不能认识到其行动及其法益侵害性。以“杀人”的大众公司机器人为例,一方面其无法认识到抛扔他人这一行为,在其命令执行的范式内无论是抛扔一个物品还是抛扔一个人,都是执行同样的指令,其本身显然无法认识到本身行为的性质;另一方面其无法认识到抛扔他人这一行为的法益侵害性,无论是导致他人死亡还是工作的顺利完成,对其而言可能都只是意味着完成一项行动,后果及其社会意义显然不在其认识的范畴。由此,人工智能体显然不能具备认识能力的要求。第二,人工智能体无法具备行为的控制能力。犯罪的主体之所以承担刑事责任是因为其本身具有选择不同行为的可能,而其选择实施了侵害法益的行为。现阶段的人工智能体虽然可以创造性地进行一定的行动,但是其行动需要在预设的模式下展开,虽然也可能导致一些异常的情况。比如Tay聊天机器人,其行动的模式是聊天,虽然聊天的内容可以通过深度学习不断更新,但是其自身无法选择终止聊天而去吃饭或睡觉。再者,虽然Tay“散布”了不当言论,但是其无法控制自己“散布”的内容,因为这些内容只是根据算法从其聊天记录中随机生成的。换言之,Tay既控制不了自己是否聊天,也决定不了自己聊天的内容,何谈具有控制能力?
(二)违法性意识可能性的缺失
现阶段人工智能体无法具备违法性意识可能性。在刑法教义学理论体系中,即便承认违法性意识可能性为必要,就其理论体系定位也有限制故意说与责任说两种观点。笔者认为,将违法性意识可能性作为责任要件较为妥当,即:“只有当行为人根据案件的具体情况,他的性格以及生活、职业范围,尽到了相应的注意义务,但仍未能认识到行为的违法性时,才免除行为人的罪责。”[17]69而现阶段的人工智能体显然无法达到这一要求。第一,难以确定人工智能体“性格以及生活、职业范围”。一方面,性格是一个人对现实的稳定的态度,以及与这种态度相应的,习惯化了的行为方式中表现出来的人格特征。而现阶段的人工智能体的行动显然不具有这种稳定性,一旦数据或程序有所变动其行动可能大相径庭。另一方面,人工智能体也不存在“生活、职业范围”。且不说现阶段的人工智能体根本不可能有“生活”,目前也没有一个可供参考的人工智能体“职业标准”,如果将来人工智能体有可能形成相对确定的、客观的“职业标准”可另当别论。第二,人工智能体无法承担注意义务。比如在过失犯罪的情况下,必须违反了相应的义务才能构成犯罪,而“义务—行为”并不是现阶段人工智能体所能够理解的行为模式,“信息—反馈”才是其运转的根本形式,二者存在差异。比如前述“杀人”的大众公司机器人,其接受的指令可能是将某物体按线路抛扔至某处,至于被抛扔的是人还是物其并不能理解,因而难以为其设定与人类等同的注意义务。第三,人工智能体难以具有真正意义上的违法性意识。对于自然人或者法人中的自然人而言,其能够理解法律的概念和意义,并且了解其行为规范的内涵和要求。对于现阶段的人工智能体而言,其所有“理解”的信息都会还原至“0”和“1”的二元数字表达,而并不是自然人的价值判断。其仅可能判断出关于一定事实的信息与输入其系统的某一法律条文信息并不符合,亦即其识别结果是匹配与否而非违反与否。比如2018年3月,Uber在美国亚利桑那州坦佩市测试自动驾驶系统的时候撞死一名正在横穿马路的女士。Uber的XC90无人车上面装配的传感器已经探测到她,不过Uber的自动驾驶软件判断认为,系统无需对这位女性采取避让措施。对于自动驾驶系统而言,其识别的只是是否需要指令汽车避让,而不会考虑违法性与法益侵害性。
(三)期待可能性的缺失
现阶段人工智能体也无法具备期待可能性。事实上,如果人工智能体不能具备罪责能力和违法性意识可能性也自然难以赋予其期待可能性层面的考量。期待可能性使用的前提在于行为人具有责任能力,而现阶段人工智能体尚且无法具备。如果人工智能体不具有违法性意识可能性,那么判断其行为是否适法显然无从谈起,自然无法对其进行期待可能性判断,从而使这一责任要素也失去了判断依据。
四、责任本体的否定:刑罚无效
现阶段的人工智能体不仅无法承担罪责,而且无法对其施以有效的刑罚。其无效性既体现在无法实现刑罚目的,也体现在人工智能体无法真正成为刑罚的承担者。
(一)刑罚目的无效
刑罚的目的包括特殊预防与一般预防。即一方面通过对于犯罪行为人施加刑罚这一恶害,使其不再实施犯罪行为;另一方面通过制定、适用和执行刑罚,预防其他人实施犯罪行为。然而就现阶段的人工智能体而言,对其施加“刑罚”无法实现以上两个目的。
1.对人工智能体施加“刑罚”无法实现特殊预防的目的
刑事责任的认定就是根据犯罪行为法益侵害风险等级的衡量,衡量的内容具体包括对犯罪行为人人身危险性的考量以及社会的安全需要。实现犯罪行为人的特定预防是刑罚的当然目的。除了生命刑这一直接消灭犯罪行为人的刑罚之外,其他类型的刑罚均是通过对于犯罪行为人施加刑罚这一恶害,从而使其感觉痛苦,不再实施犯罪。特殊预防目的得以实现的基本前提是犯罪行为人能够感知刑罚这一恶害所带来的痛苦,进而决意不再实施犯罪。由此,人工智能体能否具有对于痛苦的感知成为关键。认为对于人工智能体施加“刑罚”可以实现特殊预防的观点基于这一理论假设——人工智能体的智能化效果包括其可以具有思维和感知能力,在人工智能体的智能化过程中可以使其产生从机械性向生物性的转变。“人类意识的形成源自于大脑,大脑的物理构造实则是超高数量级的脑细胞互相传递脑神经信号所组成的极复杂装置,而意识的产生便是脑细胞中的神经信息互相传递达到一定程度的量级后,量变引起质变的化学结果。”“智能机器将所有的感官认知通过0、1的布尔型变量关联神经细胞并输出结果,而跟踪每一个神经细胞的信号都断定这就是人工智能体自主意识量变的结果。”[18]110在感觉层面,有学者进而认为:“智能机器人具有感知刑罚痛苦的能力,并且能够在犯罪的‘快感’与刑罚的‘痛感’之间进行理性权衡,以调整其之后的行为,换言之,自主意识和意志的存在决定了智能机器人本身是可以重新接受深度学习与深度改造的。”[2]47但是问题在于现阶段的人工智能体是否能够具有这种感知的能力?如前所述,现阶段的人工智能体仍然是弱人工智能体,难以具有真正意义的感知能力。比如Tay聊天机器人,其初始设定是“邻家少女”,如果具有感知能力那么Tay应会对他人恶意讨论的一些问题表达一些看法甚至反感,然而Tay却是对于一切信息“照单全收”。客观上说明了现阶段人工智能体不具备真正的感知能力。由此人工智能体对于由于刑罚所带来的痛苦自然也无法进行感知,无论是进行维护保养还是拆卸破坏在其看来可能都只是一个事实信息,对其而言区别可能只在于“1010”还是“0101”,那么其又如何基于对刑罚这一恶害的恐惧进而不去实施犯罪“行为”?由此对其科以“刑罚”所要达到的特殊预防效果自然无从谈起。
2.对人工智能体施加“刑罚”无法实现一般预防的目的
刑罚的一般预防目的一般包括两个层面:消极的一般预防还是积极的一般预防。消极的一般预防目的实现主要基于威慑,即通过刑罚处罚警示他人,以使社会公众不去实施犯罪行为,而积极预防的目的则在于维护公众对于法规范效力的信赖。然而无论是消极的一般预防还是积极的一般预防均无法通过对人工智能体施加“刑罚”实现:一方面,对人工智能体施加“刑罚”无法对其他人工智能体产生威慑。即便是针对“人工智能体”设计了具体刑罚种类的学者也承认这一事实:“强人工智能产品形成对事物的认识是靠程序、算法和深度学习而不是靠生活经验的积累,且设计者设计大部分强人工智能产品的初衷可能是为了让其在特定领域中发挥作用,因此强人工智能产品的认识水平在很大程度上会被局限于特定领域,而缺乏对社会生活的整体认识,其判断是非善恶的标准也就有可能异于常人。”[3]139-140然而消极的一般预防目的实现恰恰有赖于人的社会性。人作为主体在社会中与其他人进行交互,从而形成自己的生活方式与行为模式,并根据社会状态调整自己的行为。这一过程的前提在于人可以对于其他人的相关情事了解和评价。这样一个过程是现阶段的人工智能体所不能完成的,即便对于某一个人工智能体施加了“刑罚”,其他人工智能体并不能够了解它所遭受的处罚,可能只会了解到一个人工智能体的情况发生了变化,也不会因而调整自身的运转,从而导致这一“威慑”目的难以实现。另一方面,对人工智能体施加“刑罚”无法实现“维护民众对法规范有效性的信赖”。无论人工智能体是否作为主体被看待,人作为社会核心主体的社会立场具有持久的稳定性。由此,社会民众对于刑罚维护法规范社会效力的信赖依然应作为积极的一般预防的关键予以探讨。所以,积极一般预防主要用于说明刑罚的作用方式,而非明确限定处罚范围的标准。对于人工智能体施加“刑罚”却无法达到这一目的,甚至可能背道而驰。社会公众如果了解到对于人工智能判处“刑罚”不但不会认同这样的处罚,反而可能会产生这样的疑问——刑罚原来不止可以适用于自然人或法人,也可以适用于人工智能体,那么是否自身的社会地位受到贬损?自身生而为人的地位和尊严是否在法律中不再那么重要?若是如此,其初始目的与最终效果可谓南辕北辙。
(二)刑罚本身无效
有学者为人工智能体设计了具体的“刑罚”类型:“适用于智能机器人的刑罚可以有三种,即删除数据、修改程序、永久销毁。”[19]97从形式上,“删除数据”“修改程序”“永久销毁”系对于人工智能体实施的技术操作,并会导致其本体的状况改变。但是与现行的刑罚而言,这些状况改变却无法产生相似的处罚效果和意义,并且和其初衷相背离。
1.“删除数据”“修改程序”所参照的是已经被废除的身体刑
有论者认为:“所谓删除数据,是指删除智能机器人实施犯罪行为所依赖的数据信息,相当于抹去智能机器人的‘犯罪记忆’,使其恢复到实施犯罪行为之前的状态,‘犯罪记忆’将不会再成为该智能机器人成长经历中的一部分,从而引导智能机器人在今后的深度学习过程中主动获取‘正面数据’,排斥或绝缘于可能导致违法犯罪行为的‘负面数据’,直接降低其人身危险性。”“所谓修改程序,是指在通过多次删除数据仍然无法阻止机器人主动获取有可能实施违反犯罪行为的‘负面数据’时,即该智能机器人不能被正面引导时,强制修改其基础程序,将其获取外界数据、深度学习的能力限制在程序所设定的特定范围内,从根本上剥夺其实施犯罪行为的可能性。这意味着该智能机器人的深度学习功能从此将是不全面的、受限制的,不再能获取人类程序限定范围外的数据,因而无法产生超出人类意志之外的自我独立意志。”[19]98“删除数据”“修改程序”难以和现行刑罚体系中的自由刑类比。如果论者将对于人工智能体实施的“刑罚”概括为“暂停应用”或者“停止应用”,则可类比自由刑进行分析。但是即便规定为“暂停应用”或者“停止应用”,也同样存在下段所述的问题。“删除数据”“修改程序”反而契合身体刑的特点。“删除数据”实际上是“抹去智能机器人的‘犯罪记忆’”,使其丧失一定的“记忆”机能。“修改程序”则是在“删除数据”无法奏效时,“强制修改其基础程序”,从内容上更符合身体刑的特征。即便作此类比,仍然存在较大的问题。如果在承认人工智能体为犯罪行为主体的前提下对其设置“删除数据”“修改程序”的“刑罚”,且不论对于人工智能体本身处罚的妥当性问题,本身对于近代以来的刑法理念和刑罚体系也会产生巨大的冲击。
2.“永久销毁”无法有效地与生命刑类比
有论者认为:“所谓永久销毁,是指在删除数据、修改程序均无法降低实施了犯罪行为的智能机器人的人身危险性时,换言之,该智能机器人的深度学习历程已经十分漫长,并在长久的实践与成长中形成了程序上的‘反删除能力’‘反修改能力’,除了将其永久销毁外,人类已无法实现对其在数据、程序上的有效控制,便只能将其永久销毁。”[19]98从形式上看“永久销毁”似乎与生命刑较为类似。“永久销毁”似乎也是在“人类已无法实现对其在数据、程序上的有效控制”的情况下,将其永远消灭的方式。但是这一类比存在以下问题:一方面,人的生命和人工智能体的寿命难以同等看待。人的主体性和生命属性是不可分离的。而如前所述现阶段的人工智能体仍然难以具有生物性,更无法确认其具有生命权,更多的是以(使用)寿命的形式表现。生命刑作为最严厉的刑罚方式就在于对于自然人生命的剥夺,从而对其在根本上否定和消灭,而人工智能体缺乏生命性,进而导致生命刑对其无法适用。由此,“永久销毁”更多的是基于客体的视角展开(如对于物的处置),而非主体的视角展开,“销毁”的表述也证实这一点。另一方面,由于“永久销毁”实施主体的问题可能减损刑罚效力并且导致难以预测的社会影响。如果认可“永久销毁”,势必会导致司法机关以外的主体参与到行刑过程中,从而减损刑罚的国家公信力。此外,如果是商业公司决定对自己制造的人工智能体予以“永久销毁”该如何认定?就自然人主体而言,从天赋人权的角度,父母显然无法决定子女的生死,那就人工智能体而言是否的商业公司就可以对其施以“私刑”?这一情况完全可能发生,比如微软公司可以基于Tay的不当言论而对其予以“永久销毁”。因而上述问题应当得到应有的重视。
3.上述“刑罚”与论者的人工智能体法律拟制思路背道而驰
如前所述,论者认为可以参考法人犯罪的主体拟制思路,进而将人工智能体作为犯罪行为主体看待。然而法人可以从法律上作为主体有其前提——以其独立的财产承担责任。我国刑罚体系中的罚金刑就可以适用于法人(单位)犯罪。我国《刑法》第31条规定:“单位犯罪的,对单位判处罚金,并对其直接负责的主管人员和其他直接责任人员判处刑罚。本法分则和其他法律另有规定的,依照规定”。我国其他法律认可法人以其财产承担责任,比如《公司法》第3条规定:“公司是企业法人,有独立的法人财产,享有法人财产权。公司以其全部财产对公司的债务承担责任”。而目前论者是在主体论层面采取法人的拟制思路,在刑罚论层面采取类比自然人的思路,却没有说明原因和理由,让人颇为困惑。
此外,论者基于为人工智能体创设新刑罚类型的立场否定了现有刑罚种类对其适用的可能:“在可能适用的刑罚种类上,智能机器人异于自然人和单位之处表现在四个方面。其一,智能机器人不享有财产权,其也无须财产以维持其生存,罚金、没收财产的刑罚无法施加于智能机器人。其二,智能机器人不享有参与政治生活的权利,剥夺政治权利的刑罚亦无法施加于智能机器人。其三,智能机器人由程序设计和编制而成,不存在‘人身权’,因而也就不存在所谓的人身自由权,其无法被限制和剥夺人身自由,管制、拘役、有期徒刑和无期徒刑的刑罚同样无法施加于智能机器人。其四,智能机器人不具有生命,更无生命权可言,剥夺自然人生命的死刑更不能施加于智能机器人。”[19]97然而上述否定实际上也排除了人工智能基于人身[注]在此笔者对于人身持广义的理解,如剥夺政治权利、资格刑等也是基于特定个人所创设的,也离不开具体的个人人身。、财产承担“刑罚”的可能性,论者也没有指出人工智能体除了以人身或财产外,还能以何种实体承担“刑罚”?更进一步从教义学的视角考察,如果不能归结于人身或财产,那么此种措施是否还可以称之为刑罚?笔者对此持否定看法。
五、结语
人工智能技术的发展不仅在产生新技术、新挑战、新理论,也在引发新争议。2017年10月在沙特阿拉伯首都利雅得举行的“未来投资倡议”大会上,“女性”机器人索菲娅被授予沙特公民身份,她也因此成为史上首个获得公民身份的机器人。然而2018年1月就有媒体指出,以目前人工智能发展的阶段,她离自我意识觉醒还很远。事实上,索菲亚那些满是争议的话,实在“言不由衷”,是研发团队提前设计好的内容。一位资深业界人士曾在2018年1月4日公开表示,机器人索菲亚是一场彻头彻尾的骗局[注]参见:谢玮.网红机器人索菲亚何许“人”也?[J].中国经济周刊,2018(5):84-86.。由此,对待人工智能相关刑法问题,或许在跟进与探讨的同时也应保持必要的冷静与思考。
人工智能体的发展及其相关的犯罪亟须从刑法教义学角度进行深入的研究,但是在此过程中应该秉持何种理论态度?笔者认为,应秉持前瞻性而非超前性的理论态度。笔者也认可随着人工智能技术的发展,不排除人工智能体可以在刑法领域扮演更为重要的角色,也不排除从法人的刑法拟制角度思考人工智能体的刑法地位问题。但是问题在于现阶段的人工智能体仍然处于低级阶段,对其相关的刑法问题研究应立足于这一现实,如果超前地为将来的人工智能体设置现在“刑事责任”,很可能当真正需要“刑事责任”的时候也已过时,从而导致理论资源和司法资源的浪费。法学学者不同于文学作者,其研究或许更应在“事实与规范之间来回穿梭”,而非天马行空地进行文学想象。由此,笔者认为,关注和探讨以下理论问题而非急于构建新的人工智能体“刑事责任”,或许才是亟须进行的研究:“第一,注重对于人工智能犯罪相关概念和对象立法前瞻的界定。第二,注重人工智能犯罪立法前瞻性与刑法安定性的统一。第三,注重区分刑事立法的前瞻性与过度刑法化。”[15]60JS