技术与法学共视下人工智能体的角色定位
2024-06-11王燕玲
王 燕 玲
(华南师范大学 法学院,广东 广州 510898)
近年,人工智能体法律问题研究是学术热点之一。尤其是ChatGPT问世以后,不少人对强人工智能时代的降临充满希冀,这就引发了人工智能体(1)本文中人工智能体指包含了人工智能技术(实现人工智能技术)的智能机器人(智能计算机信息系统),为了行文方便,本文也将人工智能体简称为人工智能。能否成为刑事责任主体的重要问题。这“不但是只有明确谁应当对人工智能‘失控’行为所造成的危害结果承担刑事责任,才能够以此为基准建立起对于人工智能犯罪治理的法律体系”[1],“更是因为只有确定了刑事责任主体,才可能有针对性地设置与适用归责原则与刑罚措施”[2]。以是否承认人工智能体的刑事责任主体地位为标准,目前形成了肯定说、否定说与区分说[2]。这些学术争鸣,整体上仍限于刑法人这一文科群体的法学之视野,尚未能立于人工智能学科基于人工智能技术原理展开探讨。这种脱离人工智能技术原理,探讨人工智能体的刑事责任主体地位的做法,给人以辞令技巧的空转之嫌,也无法为人工智能法学的发展提供切实有效的理论指导。正如喻海松博士所言,“对网络犯罪的研究,遵循先搞清技术原理再谈法律的基本路径,避免法律论证脱离技术原理‘自说自话’”(2)参见海喻松《〈网络犯罪二十讲〉的基本进路》,https://mp.weixin.qq.com/s/lvcWhGhM6loLTTFZHK3UCA,2022年11月10日访问。。毕竟,人工智能体的刑事责任主体地位的研究应该建立在事实和规范之上,应该在技术和法学的一体化上具有逻辑自洽性,而不是纯粹化的主观构想。基于这一问题意识,本文将基于技术原理和法学理论,采取一体化共视方式,探讨人工智能体的刑事责任主体定位。
一、技术视域下人工智能体的角色定位
(一)强人工智能的技术预测及其争议
当前,有不少法律人认可具有自主意志的人工智能体,并承认其具备法律责任主体地位。其主要理由如下。第一,强人工智能体具有辨认能力和控制能力——这一人类所具有的智能,因而具有刑事责任能力(3)有个别学者认为,讨论智能机器人具有辨认能力和控制能力,其走入了一个误区,而应立于社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“技术责任论”,将人工智能作为独立的刑事责任主体,对具有实施了危害社会行为的人工智能施以技术危险消除措施。参见黄云波《论人工智能时代的刑事责任主体:误区、立场与类型》,载《中国应用法学》2019年第2期。。有学者认为:“高级阶段的智能机器人能够脱离人类的程序控制而行动,而具备了与人类相同的辨认能力及控制能力,若其在该项自由意志支配下实施了违法行为,则无法再将其作为一项工具而存在,而应将其作为一个具有独立承担刑事责任能力的主体认定。”[3]也有学者认为:“当智能机器人在程序设计和编制范围外实施严重危害社会的行为时,智能机器人具有辨认能力和控制能力,因而具有刑事责任能力,应当独立承担刑事责任。智能机器人与自然人可以成立共同犯罪,这样处理符合共同犯罪客观方面、主体方面的要求,有利于解决智能机器人与自然人的刑事责任分担问题。”[4]还有学者认为“强人工智能机器人具备刑事责任主体的核心要件一一辨认、控制能力,因此强人工智能机器人能够成为刑事责任主体。”[5]第二,强人工智能体可以实施法律意义上的行为。有学者认为,刑法上的行为不一定是“人”的行为,也可以是其他主体的行为。“对于一个基于普通故意伤害的被害人而言,被自然人故意伤害与被智能机器人故意伤害并没有什么本质的区别。”[6]第三,强人工智能体与人类是平等的主体,两者之间有主体间性。有学者认为,“当人工智能与人类一样具有自主意识后,双方主体就是各自的自在此在和彼此的共同存在,两个主体之间既是主体,也是客体,在物质与精神的交往实践中表现为主客体的二重性,并且与客观世界并列存在”[7]。第四,强人工智能体与人类有共情的可能性。有学者认为,“智能机器人拥有人类文明的基本素养,懂得人类表达或接受情感的方式,使用人类的语言和文字,拥有与人类相似的体貌特征,它们比动物更理解人类的想法。如果将智能机器人视作奴隶或工具,其社会图景与奴隶制复活将没有明显差异”[8]。
对于上述见解,法学界也有不同声音。有学者从三个方面否定人工智能体的适格刑事责任主体地位:第一,强人工智能存在难以跨越的技术瓶颈,无法实现跨界领域的认识能力;第二,无论是内生自发,还是外在输入,人工智能都无法生成意识,因而无法具有自由意志;第三,人工智能不可能具有人类的情感动机,无法体验犯罪之乐和刑罚之苦, 因而不是适格的受罚主体[9]。也有学者从实然和应然两个角度否定强人工智能体刑事主体地位,首先,超越编程外的人工智能不能形成自主独立的程序,无法产生自由意志,也不能产生法规范意识;其次,承认人工智能体刑事主体地位,将会对传统刑法理论带来严重冲击,刑事司法活动无法展开,相关强人工智能体刑法立法也缺乏必要性和合理性;最后,强人工智能体不能类比单位犯罪。
综上,强人工智能体具有类人般的智能性是人工智能体具有独立法律主体资格的决定性因素。如果人工智能体不能具有类人般的智能性,就没有探讨人工智能体的法律资格的必要。
(二)人工智能产品的技术局限性
人工智能技术专家认可人工智能体具有自我意识,具有类人般的智能吗?中国工程院院士、欧亚科学院院士、中国人工智能学会名誉理事长、军事科学院系统工程研究院李德毅研究员认为,“新一代人工智能将从传统的计算机智能跃升为无意识的类脑智能,是人类智能的体外延伸,不涉及生命和意识,由人赋予意图,通过有指导的传承学习和自主学习,能够与时俱进地解释、解决新的智力问题,形成有感知、有认知、有行为、可交互、会学习、自成长的新一代人工智能——智能机器”“原始的自我意识是低级意识,只有自己本人才能体验到这种意识的存在,正所谓‘我思故我在’,在此之上,才谈得上高级意识或更高级的群体意识”“而要制造出类似人类皮肤这样敏感的人工感知膜、电子皮肤甚至量子皮肤,还来日方长,也许要一百年”“对于高等生物而言,意识和智能是智慧的基础”“新一代人工智能不触及意识”“当前的人工智能都是专设智能,它们只能按照程序员的设定,完成特定的任务目标”[10]。国际核能院院士、中国人工智能学会不确定性人工智能专委会主任张勤教授指出,“事实上,计算机只能执行人事先设定的程序(包括算法和数据),不具有真正意义上的智能,至少目前如此”。人工智能和人“一个显著的区别是:人能够通过自我意识理解事物,而计算机没有自我意识,也理解不了事物(缺少理解主体)。从这个意义上讲,学习(Learning)这个词用在计算机上是不恰当的。拟合(Fitting)更准确,但不够吸睛”[11]。中国工程院院士、清华大学信息学院院长戴琼海教授指出,“人工智能的问题所在——难以理解场景与对象间的关系,人工智能能干成年人干的活,但理解能力不如一岁的孩子”(4)参见戴琼海《人工智能未来的理解与创造》,http://aiig.tsinghua.edu.cn/info/1296/1551.htm,2022年11月6日访问。。在2022年11月6日第五届世界顶尖科学家论坛开幕式上,首届世界顶尖科学家协会奖“智能科学或数学奖”得主——美国计算机科学与统计学家迈克尔·I·乔丹在其主旨演讲中认为,“到目前为止,计算机还不能像人类一样进行思考,因为人类是很复杂、精妙的”“‘机器学习’是让计算机辅助人类,而不是开发一个和人类一样的‘类人计算机’,是把人和人、人和市场、人和物件等联系起来”(5)参见《“机器学习”将如何影响我们?首届世界顶尖科学家协会奖得主这样说》,https://view.inews.qq.com/k/20221106A03UW300,2022年11月8日访问。。在2022年10月22日“智行中国”系列论坛第一期“迈向教育科学研究新范式”上,美国科学院院士、中国科学院外籍院士、世界著名数学家丘成桐在其主旨演讲中认为,DeepMind(6)DeepMind位于英国伦敦,是由人工智能程序师兼神经科学家戴密斯·哈萨比斯(Demis Hassabis)等人联合创立的Google旗下前沿人工智能企业。其将机器学习和系统神经科学的最先进技术结合起来,建立强大的通用学习算法。的工作确是人工智能进展的里程碑,“开始可以解决一些比较理论的问题,但是离人类思考的能力还是相当的遥远”“到目前为止,人工智能还没有能力问一个既有意义又有深度的问题”(7)参见丘成桐《人工智能与学“问”》,https://m.sohu.com/a/602657176_121119002,2022年11月8日访问。。如肯定论者常引用2017年10月被沙特阿拉伯授予公民身份的智能机器人索菲亚,将其视为AI挑战现行法律体的个例。对此,李开复先生评论道,索菲亚“丝毫没有人性、人的理解、爱心、创造力。授予这样一台只会模式识别的机器‘公民’,是对人类最大的羞辱和误导。一个国家用这种哗众取宠的方式来推进人工智能科研,只会适得其反”[12]。还有专家评论道,“索菲亚之于AI,就像变戏法的之于真正的魔法,我们把它称作‘AI崇拜’‘假冒AI’或者‘远程操控AI’可能比较好”(8)同上注。。
以智能司法为例,我国刑事司法人工智能走在世界前列,各地积极研发、应用刑事司法人工智能系统,几乎实现对刑事诉讼流程的全覆盖。此类司法智能系统大致可以分为:智能辅助决策应用系统(如智能辅助量刑系统)、智能辅助支持系统(如智能类案检索系统)、案件管理应用系统(如智能案管系统)、诉讼服务应用系统(智能诉讼服务平台)。人工智能技术的深入运用,实现了以往司法难以完成的任务。例如,智能辅助量刑系统可以解决量刑规则不明确的问题,有力推进量刑规范化,因而实务部门提出,要进一步提高量刑智能化水平(9)参见陈学勇《更高水平推进量刑规范化工作》,https://www.chinacourt.org/article/detail/2020/11/id/5562775.shtml,2020年11月7日访问。,加强智慧检务建设,增加法律检索、类案分析、量刑辅助等功能(10)参见《最高检张军检察长向全国人大常委会作认罪认罚从宽制度适用情况报告》,https://mp.weixin.qq.com/s/PvUjrNntddwcYfAGrHkfIA,2022年10月14日访问。。又如,实时从海量司法数据中发现问题,实现全程、自动、静默和可视化精准监管(如量刑偏离监测),这将大大提升监管的质效。这都表明,将人工智能、大数据挖掘等技术和政法专业知识深度融合,就不同监管场景研发所需系统,智能化监督手段,是实现案件管理监督能力现代化必然选择(11)笔者主持研发的《智能量刑偏离监测系统》,可有效监测宏观的案件量刑偏离情况以及微观的个案量刑偏离程度,受到司法实践的高度认可,获全国政法智能化建设智慧检务创新产品称号。。“未来应当秉持以人为本、技术赋权理念,重塑人机关系新格局下的价值取向和行为准则,遵循法律公平正义的价值追求,构建人机协同司法治理新格局。”[13]若持人工智能体具有自主意志因而具备认识和控制能力这一观点,那人工智能的司法应用将受到极大压缩——担忧司法被人工智能所操控,形成脱序的裁判。不过,从技术层面上看,这种担忧是不合理的,因为人工智能只能辅助保障司法,而不会主宰操控司法。“在这样的现代法治体制面前,大数据、云计算、信息技术、人工智能都只是实现合法正义的辅助手段,切不可本末倒置。”[14]
综上,在技术原理上,人工智能专家们就人工智能体的智能性定位可以总结如下。第一,人工智能系统是计算机系统,属于物理机器的一部分,不是人工创造出的生命。从进化论的角度来看,无机物先进化为有机物,再到无智能的生命体以及有智能的生命体。对尚不具有生命的物赋予主体资格,不符合进化论的基本规律。第二,形成人类智能的一个条件是具有自我意识,即能对自身存在的感知,以及对自己行为和驱动行为原因的感知,而这种意识不可以人造(只有诞生人工生命之后,也许才谈得上人工意识)。人工智能体没有自我意识,这是它和人的根本性区别,因而它理解不了周围的事物。第三,人工智能技术或者系统,是对人脑智能的模拟,是人类智能的体外延伸,但其智能水准和人类的思考能力相距遥远。虽然在特定领域人工智能体展现出远超常人的数据处理能力(如围棋等棋类游戏),但是,就知识的综合能力来看,人工智能体则显得格外薄弱,如跨领域的知识汇总、提炼、创造能力,更没有对人类感情的理解能力。所谓类人般的智能,至今仍是遥不可及。由此可见,在人工智能专家们的眼里,人工智能系统仅为对人类智慧的模拟,本身并不具有人类所具有的自我意识,而意识是主体内在能动的自我认识和自我控制的基础,因此,人工智能体不具有类人般的辨认能力和控制能力,其本质仍属于受人类操控的物理世界的机器。
由于ChatGPT的诞生,因此,不少人认为强人工智能时代的出现已经并不遥远,并以作为强人工智能体具有刑事责任主体地位的重要论据[15]。诚然,ChatGPT所应用的大语言模型在模拟人类思维方面已经取得巨大的进步。但是,这种模拟也是在人类现有语料填充下的训练结果。从整合资料到富有创造性的独立思考之间究竟还有多远的距离,没有人能够给一个时间表。至于这一天能否会到来,实际上也是个未知之数。因此,有学者指出,“强人工智能不过是一种虚构的担忧”[16]。更何况,即使强人工智能体真的出现,那时也可能发生不可想象的变化。现行刑法理论体系是否仍然能够适用,也成为问题。更何况,在强人工智能体具有人类的思维能力的情况下,其是否还会与人类和平共存,也大有疑问。从国际关系的发展经验来看,同为人类,但不同国家和民族之间的冲突都此起彼伏。人类与强人工智能体的冲突似乎难以避免。从这个角度来看,是否应当让脱离人类控制的强人工智能体出现,更为紧迫。因此,在强人工智能体真正出现之前,就去讨论其刑事责任主体问题,实在有点不着边际。
(三)人工智能产品责任的主体定位
由以上可见,从技术角度,人工智能专家们基于技术实现的原理以及自我意识实现的精细化与复杂性,否认了人工智能体的存在,而部分法学专家则从逻辑推理中论证并肯定了人工智能体的存在。从技术原理视角看,上述肯定论者的观点当前缺乏事实及技术实现的依据,脱离人工智能的本质,属于假设性理论构想。换言之,肯定论者对“智能机器人具有辨认能力和控制能力”这一论断,缺乏事实层面的追问——智能机器人具有辨认能力和控制能力的事实根据是什么?目前及以后的技术实现是否具有可行性?应该如何实现?当然,尽管法学研究应具有适度的超前性(预见性),但这种超前性仍应有现实基础,否则易滑入“幻想”境地。在技术原理上,人工智能专家认为人工智能只是人类智能的模拟,没有自我意识,属于物理机器范畴——自我意识不可以人造(只有诞生人工生命之后,也许才谈得上人工意识)。因此,可以认为肯定论者这种假设性理论构想,当前缺乏技术原理上的现实基础。
(强)人工智能体具备了自我意识,能就其外部环境主动性地进行自我辨认并控制自己的行为,可以达到人类的刑事责任能力程度的智能水平,因而人工智能体能够具备法律主体资格,如成为刑事责任主体。但是,这个逻辑显然难以成立。刑事责任能力作为责任要素,不仅仅具有事实性,还具有规范性。关于刑事责任能力的意义,在学界曾有争议。根据新派的社会防卫论,对行为人适用刑罚只需要考虑特殊预防的必要性,而不用考虑行为人是否具有责任能力。但是,这种观点被认为是对人权和自由的践踏,不为我国刑法所采纳。也就是说,以责任能力作为犯罪要素,是出于保障人权的一个规范性判断。假如刑法的目的只是特殊预防,就没有必要再去讨论责任能力的问题。因此,所谓“强人工智能体具有责任能力”的命题,其实是跳跃了一个重要的判断前提,即是否需要保障人工智能体的人权。如果认为,承担刑事责任的关键在于行为主体能够意识到自身行为的社会属性并在自我意志控制下实施行为,那么,在技术实现不可行的情况下,由于人工智能体没有自我意识,则谈不上意识到自身行为的社会属性并在自我意志控制下实施行为的这种能力。这种缺乏刑法评价意义上的行为认识与控制要素的自主性(刑事可答责的基础),不能认定为具有刑事责任的适格主体。不过,认为刑事责任主体的适格要求并不是主体的认识能力和控制能力,即并不需要其有自我认识意识这一前提要素,如刑罚可施于动植物,这一观点已不被现代刑法及其理论所认可。当然,有个别学者认为,讨论智能机器人具有辨认能力和控制能力,其走入了一个误区,而应立于社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“技术责任论”,将人工智能作为独立的刑事责任主体,对具有实施了危害社会行为的人工智能施以技术危险消除措施[17]。笔者认为,这一观点只是借刑法之名,行技术措施之实。若将技术危险消除措施纳入刑罚圈,无疑极大地泛化了刑法,可能会导致刑法名存实亡。当前技术危险消除措施,可谓俯拾皆是;换而言之,基于“科技社会防卫论”与“技术责任论”,将技术危险消除措施纳入刑罚圈,从而将人工智能体作为独立的刑事责任主体,事实上混淆了刑法和其他技术危险消除措施规范的界限。
二、技术与法学共视下人工智能产品的责任类型
(一)法学视域下人工智能体之刑罚措施的构建
支持人工智能体可以具备刑事责任主体资格的学者,就其对应的刑罚措施也进行了深入构建。如刘宪权教授认为,智能机器人不享有财产权,不享有参与政治生活的权利,不存在“人身权”,不具有生命,我国刑法规定的主刑(管制、拘役、有期徒刑、无期徒刑、死刑)和附加刑(罚金、剥夺政治权利、没收财产),不能满足人工智能时代对智能机器人的特殊处罚需求,适用于智能机器人的刑罚可以有三种,即删除数据、修改程序、永久销毁[4]。又如,卢勤忠教授认为,“强人工智能时代应采取新型社会责任论,强人工智能机器人承担刑事责任的基础是其对人类社会造成的威胁。在强人工智能时代,应通过删除数据、修改程序和永久销毁等契合强人工智能机器人特征的刑罚处罚方式来实现刑罚报应和预防的双重目的”[5]。再如,有学者认为,若赋予人工智能产品刑事责任的主体地位,则可以考虑报废、回收改造、罚金等特殊的刑罚措施,报废是对人工智能产品最严厉的处罚措施,回收改造人工智能产品可以考虑回收、中断智能程序对其进行改造,罚金是对实施情节轻微犯罪的人工智能产品的不错选择[3]。与此类似,哈佛大学法学院莱西希教授认为,规制智能机器人时,结构程序规制极具针对性,对机器人进行编码是我们调节它们的大门,结构程序规制可谓是对症下药的特别处罚措施[18](以下行文,刑罚措施均指上述论者提倡的针对智能主体的处罚措施)。笔者曾经也认为,以强人工智能产品为对象,在设计具体的刑罚措施与体系时,删除数据、修改程序、永久销毁是一种具有可行性的选择[19]。对此,如今在技术和法学共视下,不免存在这样的疑问。一方面,“删除数据”之类的措施,是否真的为刑罚方式?刑罚的本质在于报应,目的在于预防。所谓报应,对于犯罪行为,需要施以严厉程度对等的刑罚措施,从而使受到破坏的法秩序得以恢复。就此而言,“删除数据”等措施不可能限于与人工智能体因故障所造成的损害范围,也就不能贯彻报应的要求。另外,“删除数据”等措施也不可能实现一般预防的目的。所谓一般预防,是指通过刑事立法以及刑罚的适用,防止一般人以及潜在的犯罪人实施犯罪行为。如果“删除数据”等措施要有一般预防功能,就需要让一般人工智能体由于这些措施的实施而感到“恐惧”或者产生“对法忠诚”的积极情感。这无论如何都有点不可思议。那么,删除数据等措施就剩下特殊预防功能。也就是说,通过删除数据等措施,防止人工智能体再次出现故障或者失灵并由此造成损害。这就与对精神病人实施的保安处分措施无异。因此,所谓删除数据等措施不符合刑罚的基本特征。另一方面,刑罚是惩罚,对犯罪人会带来痛苦,那智能机器人能否感受“删除数据”等措施的“痛苦”?痛苦是主体的神经系统对外在环境不利因素的应激反应。刑罚中的痛苦有三重意义:一是让犯罪人感受痛苦,使其记住刑罚的教训,不再重蹈覆辙;二是让一般人和潜在的犯罪人预测犯罪行为带来的痛苦,从而遏制其实施犯罪的意识;三是激发有关痛苦的通感,从而将刑罚控制在人道合理的范围。显然,人工智能体没有生命,也就无法发展出可以感知痛苦的神经系统。那么,删除数据等措施对于人工智能体而言就不可能成为一种令其痛苦的手段,也就不能纳入刑罚的范畴。
既然“删除数据”等措施不能纳入刑罚范畴,那么,在强人工智能还未明朗的背景下讨论这些刑罚措施是否属于科幻式探讨?“删除数据”等是部分学者在当前弱人工智能时代所想象的刑罚措施。但是,这些措施的适用对象是强人工智能体。那么,当前的想象恐怕没有实际效用。如果真的如部分学者所言,强人工智能具有辨认与控制能力,那么,人工智能体的自我学习已经是正常运行的程序,智能体对于何时可以干预程序,能否启动程序修改等简单的编程代码已经具有了智能化的识别并可以通过强智能化手段进行判断和干预,所谓的删除数据、修改程序、永久销毁等刑罚措施还能存在吗?尤其是强人工智能体被界定为不受人类束缚的主体,以其强大的数据处理能力,对于人类的生存而言已是极大的威胁。如果强人工智能体已经拥有不受控制的智能,就很难想象其会服从人类律法。到了那时候,究竟是强人工智能体制裁人类还是人类制裁强人工智能体,尚属未知之数。因此,所谓“删除数据”等刑罚措施基本上是有限想象力下的一厢情愿。
(二)技术视域下人工智能体刑罚措施等同机器处置
现代刑法理论认为,刑罚具有针对性和惩罚性;如现行刑法中的刑罚种类,都是针对人类具有的某种权益进行剥夺,使其遭受痛苦。暂且不论惩罚性,删除数据、修改程序、永久销毁此类措施,对智能机器人是否具有针对性(特定性)。若回答是否定的,在技术层面上,将这些措施理解为机器维修更为妥当。
一方面,删除数据、修改程序、永久销毁等措施,根本不具有对智能主体的针对性。今天大众使用的计算机、各种软件和电子设备等,对其进行数据删除、程序修改、销毁回收等,这再稀松平常不过。事实上,自人类社会进入电子工具时代,工具中各种电子部件的维修,无不包含增删数据、修改程序、永久销毁(更换新硬件);若再向前推,对农耕马车、蒸汽机车之处理,也包含永久销毁。因此,删除数据、修改程序、永久销毁等措施,在智能时代仍应视为是一种机器维修手段,是人类维护所使用工具行为的自然延续。另一方面,删除数据、修改程序、永久销毁等措施,尽管可能是法定措施,但其仍然应该理解为是一种基于产品监管而采取的技术处置措施。例如,汽车产品召回制度,规定了法定的要求和程序,由缺陷汽车产品制造商承担消除其产品缺陷的义务;这里的“消除”就包括对汽车部件的删除数据、修改程序、永久销毁等措施。至于制造商采取何种维修汽车的方式,则取决于实际所需,根本不需要什么法律上的正当化根据,更无需依司法程序予以实施。因此,即使针对智能主体的删除数据、修改程序、永久销毁等措施具有法定性,也只是一种行政管理手段,而非惩罚性措施。就此,正如冀洋博士所言,肯定人工智能体刑事责任主体地位的学说,将简单问题复杂化之后,自我织造出“‘刑罚——非刑罚’的悖论:以设计新刑罚为目标,而最终提出的‘刑种’只是人们在设备养护上的三项常规操作而已,不具有丝毫的刑罚实质;以刑法为出发点,最终将刑法变为技术管理法甚至‘机器维修手册’(能修就修,不能修就报废)”[20]。也正如皮勇教授所言,探讨智能主体的刑罚制度,需保持刑法体系的协调,否则,“不仅会破坏刑法体系的系统性,处罚人工智能系统的规定在本质上不是刑法,而是人工智能系统处置法”[21]。
因此,所谓对强人工智能体适用的刑罚措施只不过徒有刑罚之名,在本质上来讲只不过是行政管理或技术管理的措施而已。将这些措施冠以刑罚之名,反而会造成诸多问题。首先,会严重浪费司法资源。刑罚作为最为严厉的惩罚措施,有着最为严格的适用程序。按照刑事诉讼规则追究强人工智能体的刑事责任,就需要赋予其与自然人对等的辩护权利,甚至要适用非法证据排除规则。实际上,就连强人工智能责任主体论者也不会认同这一做法。其次,如果承认强人工智能体的刑事责任主体地位,就相当于将其视为犯罪人。犯罪人也是人,应当有人权。“刑法不仅是善良人的大宪章,还是犯罪人的大宪章。”因此,出于保障人权的刑法基本原则,不能对强人工智能体适用违反人道主义的刑罚。那么,删除数据、修改程序和永久销毁等措施是否属于特别残忍、侵犯强人工智能体的人权,就存在疑问。但对此问题,强人工智能责任主体论者似乎并不关心。再者,删除数据、修改程序、永久销毁等措施在当前这个非强人工智能时代司空见惯,但强人工智能时代的机器人是何等模样,其技术处置有哪些,目前基本靠“猜”。然而,今天非强人工智能时代的措施能否适用于将来强人工智能时代,或者将今天的措施套接在未知的智能时代,会不会是一种良好愿望下的“时空错位”?如,奴隶时代的炮烙套接今天的死刑显然不妥,罚金刑也未曾出现在奴隶时代刑罚的体系中。
(三)技术视域下人工智能体刑罚措施不具有可行性
若认可删除数据、修改程序、永久销毁等措施,可以作为智能主体的刑罚方式,但是否有必要进一步推敲:这些措施对智能主体可行吗?例如,智能主体凭什么“束手就擒”甘愿被删除数据?删除的数据难道智能主体不能自我恢复吗?同理,修改程序、永久销毁为什么可行?
肯定智能主体的学说认为,智能主体具有刑法意义上的认识和控制能力,确认其刑法主体,有利于刑法的一般预防。如刘宪权教授认为,“人工智能时代的到来使得我们不得不警惕人类设计和编制的程序无法完全控制住‘头脑’越来越发达的智能机器人的行为,智能机器人完全可能按照自主意识和意志实施严重危害社会的犯罪行为”,在这种情况下,“智能机器人完全具有独立的辨认能力与控制能力,可以成为刑事责任主体并需要承担刑事责任”[22]。又如学者王耀彬认为:“首先,类人型人工智能实体相较于动物、单位与自然人的相似程度更高,包含了法律设定主体的本质要素——理性,并具备了侵犯法益的可能性,从而增强了赋予其刑事责任主体地位的必要性;其次,从刑法内部构成的教义学层面分析,类人型人工智能实体具备刑法上的认知控制能力及受刑能力,能够成为刑事责任主体,以预防智能犯罪,遵从刑事责任主体基本内涵的统一性与罪责自负原则。”[23]
基于上述肯定论,可以推断:强智能主体,无论在其心智智力(算力),还是物理体力上(机械力),均远超人类,和人类完全不在一个数量级;人类所能设想到的所有可能的惩罚性措施,均应在智能主体的掌控之中。若是如此,智能主体既然懂得趋利避害,自然有所防备。当前构想的删除数据、修改程序、永久销毁等措施,实施中可能都会成为泡影。例如针对删除数据,智能主体会自我备份;即使删除某一智能主体的特定数据(包括备份),它仍然可以向其同类复制相关数据;再者,在万物互联的智能时代,智能主体的数据以什么形式、保存何处,共享到什么程度,都只属于今天人类的科幻构想。当然,肯定论者可以认为,人类可以通过物理强力控制单一智能主体,强行切断其联网功能,进而清洗式删除其数据。然而,按论者的观点,智能时代的物理力可能早已被智能主体所操控,我们又怎么能指望利用甲智能主体去控制乙智能主体呢?毕竟甲乙是同类,和人类是异类。再如,销毁措施也同样不可行,一方面智能主体可以通过流水线生产,销毁某一个还有千千万万;另一方面智能主体完全可以自我克隆,形成真身千千万万。“即使是关闭甚至删除人工智能系统,也不同于自然人的死亡,因其能以完全独立的信息运行状态‘复活’。”[21]
若上述推断合理,那么删除数据、修改程序、永久销毁等措施,可以理解为,是肯定论者站在今天这个非强人工智能时代下的“时空错位”的构想。另外,在肯定论者认为的类人型人工智能体具备刑法上的认知控制能力及受刑能力之时,在笔者看来,这也是人类臣服于机器人之时;易言之,此时的智能主体已成为一个新的超强物种,因其超强的智力水准和物理体力,可以秒杀一切人。此时,人类已丧失创设针对智能主体之刑罚的资格,如何委屈保全不被团灭才是上策。
笔者并不否认未来会出现强人工智能时代,但无论这一智能时代下的智能主体是为人类所用之缺乏认知控制能力的机器,还是利用人类的具有认知控制能力的新物种,在技术层面上,它都不享有当下人类社会刑法意义上的刑事责任主体的资格——前者可以归入机器,后者可以视为新物种。肯定论提倡的删除数据、修改程序、永久销毁等措施,恰恰是智能主体不具有刑事责任主体资格的前提,才具有可行性;否则,人类的一切措施,都是自我约束的保全之策。
总之,所谓对强人工智能体的刑罚措施既无现实意义,也面临刑罚正当性的困境,实不可取。
(四)技术和法学共视下人工智能体刑罚措施近乎幻想
如上所述,“删除数据”之类的“刑罚”措施,是基于当下机器维修之举,来构建未来智能时代的刑罚措施,本身就具有时空错乱的盲目性,和对智能机器刑事主体资格的反噬、否定性,近乎于科幻构思。然而,法学不是法预测学,更不是法命理学。法学研究应该建立在事实和规范之上,应该具有逻辑自洽性;天生犯罪人说也是以头骨为依据。就此,笔者赞同刘艳红教授的如下论述:“如果说‘我们即将迎来人工智能时代’、自主思考的强人工智能就在‘明天’,那么我们离这个‘明天’究竟有多近?连科学家都不知道这个‘奇点’何时来临,法学家又具有何种特异功能参透AI的未来禅机?对人工智能相关事务的法律规制尚需要我们积累更多的生活样本,创建一些只适用于遥远未来的理论、制定一些只沉睡在法典里的条文将比当前的‘象征性立法’更加浪费资源,因为这种‘立而不用’是名副其实的‘空谈’。”[24]当然,我并不反对法律的前瞻性,但对未来的前瞻应当以当下的社会现实为基底。在弱人工智能的技术规则都尚不明确的情况下,就去构建强人工智能时代的刑事责任体系,无论如何都有点不切实际。用一个不恰当的比喻:强人工智能时代到来在概率上并不比外星人降临地球高出多少。幻想对强人工智能体适用刑罚,还不如考虑一下如何规制外星人窃取地球资源。
另外,刑法上行为人的主体资格强调行为人的刑事责任能力,即行为人对自己行为所具备的,是否认识到自己的行为违法或有害社会,甚至是否认识到行为在刑法上的性质、意义、作用和后果,并基于这种认识决定自己是否以行为触犯刑法的能力[25]。可以认为,在各部门法中就自然人而言,整体上刑法对行为主体资格的认定最为严格。因此,退一步看,在其他部门法尚且不认可智能机器的“主体”资格的情形,刑法更无必要自告奋勇地承认其“主体”资格。同时,刑法学研究重心应当是解释、回应以及致力于解决当下最关切、最迫切需要解决的社会问题,对那些实实在在已经发生、正在发生、马上要发生,而又没有得到解决、解决得不好的社会问题,拿出真功夫深入研究,创造具有本土特色的刑法教义学知识。以自动驾驶为例,当前已经发生了多次事故。这些事故能否在刑法上进行归责,至今仍有诸多疑问。又如,在一次国际象棋比赛中,人工智能棋手因小孩犯规而夹住其手指致其受伤(12)参见《国际象棋机器人夹断7岁男孩手指,对人工智能技术敲响警钟!》,https://baijiahao.baidu.com/s?id=1740037779439460321&wfr=spider&for=pc,2022年11月11日访问。,那么,责任如何分担,也是个问题。对这些问题进行深入研究,比起构建全自动汽车的刑事责任模型明显更有价值。
三、技术与法学共视下的人工智能产品责任分配
在技术上,智能的实现可以脱离自我意识,无需生命载体,即其可以物化。对此,李德毅院士指出,“意识和智能是可以分离的。在计算机上表现出的计算智能就是一个极好的例子,计算机没有意识。人类智能的发展史就是动力工具的发明史,动力工具是人的体力的体外延伸,如发明发动机、轮子、汽车、飞机可延伸人的出行范围。而人工智能是人类智能的体外延伸,如发明油灯、电灯、望远镜可提升人的视力,发明算盘、计算尺、计算机可延伸人的计算力,发明驾驶脑可代替驾驶员的驾驶认知。人工智能的发展史表明人工智能可以脱离意识而存在”[10]。这种具有物化智能的机器人极大地扩展了人类的能力,大幅提升社会生产力和效率,在其不具有刑事责任主体资格的前提下,如何促进安全可信可控的人工智能技术研发与应用场景,确保人工智能始终朝着以人为本、科技向善的方向健康发展,这是刑法所面临的新问题。
2022年11月10日,世界互联网大会乌镇峰会的人工智能与数字伦理论坛上,与会中外嘉宾围绕“人工智能的产业方向与伦理取向”展开讨论。中国科学院院士张钹指出,“无论是有意的滥用、还是无意的滥用,都要重视,我们必须对人工智能的研究、开发、使用进行严格评估和科学监管”。之江实验室主任、中国人工智能产业联盟副理事长朱世强指出,“人工智能是人类智能在机器领域的延伸,真正的主动权仍然掌握在人的身上,技术没有原罪,如何应用好技术才至关重要”。面对人工智能带来的各类安全风险和伦理挑战,全国人大宪法和法律委员会副主任委员江必新认为,要构建一个合理规范的数字伦理规则,“我们不能制约技术的发展,那就通过制定一套伦理规则来进行自我约束”(13)参见钱祎《要智能,更要智慧》,https://m.gmw.cn/baijia/2022-11/11/36152155.html,2022年11月11日访问。。可见,人工智能的刑法问题应该归结为:对人工智能体的开发者和使用者进行规制,从而保障人工智能体在各种应用场景下的安全使用。
在解释论上,人工智能体的刑法规制当前能具体映射在哪些具体罪名上?以自动驾驶事故的刑法归责为例,涉及多个不同主体的参与行为。如何对这些行为进行归责,就成为疑问。付玉明教授认为:“在具体的刑事归责方面,可以类型化为:非法利用自动驾驶汽车为犯罪工具者的故意责任、驾驶人的过失责任、系统故障导致的生产销售者的产品责任以及驾驶人与系统存在过失竞合的责任等几种情况。对于自动驾驶模式造成交通肇事后逃逸的行为,驾驶人并非实行行为人,不存在构成结果加重犯的可能。为避免交通事故结果的扩大,应扩张适用不报、谎报安全事故罪。对于生产者、销售者所可能承担的产品责任,以当时科学技术水平能够预见到的产品缺陷为限。”[26]笔者认为上述类型化的处理方式十分可取。自动驾驶事故发生的原因多种多样,理应根据不同情形做出不同的处断。但需要注意的是,对于人工智能体生产者、销售者、管理者以及使用者的刑事责任,除了归责可能性以外,更重要的是责任分担规则的构建。尤其是科技发展的风险预测在人工智能体过失责任中的贯彻路径,需要进一步的深入研究。我初步认为,为了鼓励人工智能技术的发展,不宜轻易认定自动驾驶事故等人工智能体的过失责任。只有在存在严重过失的情况下,才有追究刑事责任的余地。当然,如何判断严重过失将是一个问题。在法学和技术共视的角度下,应当重视科技对法学的指引性意义。应当以技术规则的偏离程度作为判断参与人的过失程度的核心标准。对于严重违反技术规则的参与行为,可认定为严重过失。例如,行为人在明知算法有漏洞的情况下生产、销售人工智能汽车,导致自动驾驶过程中发生交通事故,认定为严重过失是合理的。对于驾驶人而言,只要在驾驶过程中遵守自动驾驶的规则指引,就不能以其对自动驾驶过度依赖为由追究其过失责任。另外,人工智能技术正在迅猛发展,今天未能发现的缺陷或者漏洞明天就可能不再是个问题。因此,需要重视人工智能体风险的阻断义务,认真发掘不作为犯理论,敦促作为义务人积极地履行其风险阻断义务,避免潜在的技术风险现实化。
在立法论上,需要讨论的问题是增设罪名的必要性以及增设罪名的具体路径。皮勇教授认为,我国“现行刑法不适应自动驾驶汽车应用的特性,我国应当建立以生产者全程负责为中心的新刑事责任体系,使之在自动驾驶汽车生产和应用两个阶段承担安全管理责任,生产者拒不履行自动驾驶汽车应用安全管理义务且情节严重的,应当承担刑事责任”[27]。我对这个观点持保留意见。自动驾驶汽车刑事责任的确有其特殊性。但是,不等于说我国当前的刑事责任体系对其完全无能为力,更不能认为必须为其建立一个新的刑事责任体系。首先,正如上文所说,对于自动驾驶事故完全可以根据不同情形分别追究故意犯和过失犯的刑事责任。就具体罪名而言,以危险方法危害公共安全罪、交通肇事罪及生产、销售不符合安全标准的产品罪等罪名都有可能适用。只不过,在认定相关罪名的时候,需要考虑到技术发展和法益保护之间的平衡关系,在具体案件中需要谨慎处理。其次,重构刑事责任体系的命题过于宏大。就目前的情况来看,人工智能产品的特性对于当前刑事责任体系不构成根本性的冲击。人工智能产品对法益的侵害集中在产品利用型和产品故障型两种基本类型,仅限于产品刑事责任领域,对于其他类型的犯罪不产生实际影响。严格来讲,围绕人工智能产品的特性,充其量只能重构产品刑事责任体系,不能一概地推广到其他犯罪类型之中。何况,在人工智能技术规则尚不成熟的情况下,就算是产品刑事责任体系的重构,也没有坚实的基础。再次,有关人工智能产品刑事责任的立法,应当以完善技术规则以及行政规范为主。当前人工智能产品的风险防控难点不在于刑事责任的构建,而在于技术规则不明朗以及产品数据不公开。一方面,认定事实是适用法律的基础。如果对基本事实都无法分辨,就无法精准适用法律。现在自动驾驶事故归责的现实困境在于:包括法官在内的法律人对于人工智能技术都是一知半解乃至一窍不通。在这种情况下,讨论所谓的刑事责任体系无疑是建空中楼阁。因此,当务之急是建立一套完善的技术指南,并以此为参考构建行政法上的行为规范,进而设立违反相关行政规范的新罪名。另一方面,数据公开也是正确归责的重要一环。例如,近年来特斯拉智能汽车发生多次事故,但特斯拉公司拒绝提供完整的行车数据,导致无法进行准确的责任分配。那么,如何平衡人工智能公司的数据权和社会公共利益之间的关系,就是亟待解决的问题。在我看来,数据权应当在特定场合让步于社会公共利益。如发生致人死亡、重伤的事故,应当强制人工智能企业揭露与案情密切关联的关键数据。当然,什么数据是关键数据,也是有赖科技人员与法律人士共同研判。至少有一点可以肯定的是,决不能在不了解技术原理的前提下独断地制定人工智能法律规则。
四、结语
笔者认为,学界争鸣智能主体能否为刑事责任的主体,究其根本在于:如何界定“人”;易言之,如何界定人和机器的界限。毕竟,刑法属于人类社会的“属人法”,而不是针对动植物、机器的保护法、处置管理法。如果智能主体具备了“人”的属性,成为人类的一份子,当然可以取得刑法中刑事责任主体的资格,反之则否。不过,笔者目前既无能力在人类社会学上定义“人”,也无能力预测人工智能技术未来的发展进程,仅能从现代刑法的通说和当前人工智能技术原理共视之下作上述探析。可以认为,一个缺乏自我意识,不具有价值判断和创造能力的设备,不管如何称之为“智能”,怎么都不可能具有“人”的属性,仍然是和算盘、门栓锁一样的机械工具而已。正如网友所言,只要人类较真,今日人工智能立马就叫“人工智障”。在刑法领域,当前或许如德国希尔根多夫教授所言,“如何处罚这个机器人,断电、断油还是推到水中去?电子人的观点可以运用到民法之中,在刑法之中迄今为止可能存在一些难度”(14)参见汪承昊《综述|机器人责任——对法律的新挑战》,https://mp.weixin.qq.com/s/Ju7QJEzImF3FtwCumVl6Dg,2022年11月5日访问。。与其追究虚无缥缈的机器人主体责任,还不如脚踏实地地理清人工智能技术的基本规则,并以之为基础,发展人工智能产品刑事责任的解释论,以及构建相关行政规范,为将来的立法做好准备。