APP下载

人工智能刑法属性的科学定位
——“智慧型工具说”的提倡

2022-04-29

湖北警官学院学报 2022年2期
关键词:刑罚行为人刑法

王 超

(中国人民公安大学 法学院,北京 100032)

“未来已来”,随着科学技术的迅速发展,人工智能时代已经缓缓在我们眼前展开。人工智能的发展,是人类科学技术发展的必然,但也带来了诸多问题,在刑法学界引起广泛讨论的是人工智能的犯罪问题,为了应对这一问题,首先应当对人工智能的刑法属性进行科学定位。目前最为学界所争论的观点是:第一,认为人工智能与枪支、管制刀具等传统犯罪工具无异,也只是一种犯罪工具(涉及人工智能犯罪时,下同),对人工智能犯罪的规制无需重新构建一套新的刑罚体系,已有的刑罚体系就足以应对所谓的人工智能犯罪。因为人工智能只是犯罪工具的一种,所谓的人工智能犯罪归根起来还是人的犯罪。第二,认为人工智能是新的犯罪主体,应当承认其在刑法上具有与自然人、单位同等的主体地位,并通过构建新的刑罚体系以规制人工智能的犯罪问题。但是,结合人工智能技术的发展来看,无论传统工具说还是刑法主体说,都存在一定的不足。概括来讲,传统工具说忽视了人工智能的“智能性”,刑法主体说则过分强调了人工智能的“智能性”。本文在否认传统工具说和刑法主体说的基础上,提倡“智慧型工具说”,并在“智慧型工具说”下提出人工智能犯罪的应对之策。

一、传统工具说的缺陷

(一)犯罪工具的概述

1.犯罪工具的词义探析

根据《现代汉语词典》的释义,工具有两种含义:一是“泛指从事劳动、生产所使用的器具”(本义);二是“被用来达到某种目的的手段”(引申义)。犯罪工具可以是“从事劳动、生产所使用的器具”(普通工具),但当行为人为了达到犯罪目的而使用这种器具时,这种器具便成了犯罪工具。据此,犯罪工具是指行为人为了完成犯罪行为或者实现犯罪目的而使用的器具。行为人和犯罪工具是支配(使用)与被支配(被使用)的关系,在具体犯罪中,行为人处于支配地位,犯罪工具处于被支配地位。常见的犯罪工具如故意杀人案中用于杀人的刀枪等,绑架案中用于约束被害人的绳索等,生产、销售伪劣产品案中用于生产伪劣产品的生产机器等。

有学者认为,犯罪工具也可以指间接正犯理论中处于被支配、被利用地位的直接正犯。[1]以前的刑法理论确实使用“工具理论”说明间接正犯的正犯性,即认为被利用者或被支配者如同枪支、管制刀具等犯罪工具一样,是利用者或支配者的“犯罪工具”。事实上,被利用者或被支配者虽然处于被利用、被支配的地位,但毕竟是具有意识的人,与犯罪工具不同。[2]因此,现在的刑法理论通常用犯罪事实支配说来说明间接正犯的正犯性。①即对犯罪实施过程具有决定性影响的关键人物或核心角色,具有犯罪事实支配性,是正犯。行为人不必出现在犯罪现场,也不必参与共同实施,而是通过对直接实施者(被利用者)的强制或者欺骗,从而支配、操作(控制)构成要件实现,这就是间接正犯。参见张明楷:《刑法学(第六版)》,法律出版社2021 年版,第524 页。这也说明犯罪工具只能是不具有自由意识的可支配的物。

2.犯罪工具的刑法意义

犯罪工具虽然不是《刑法》分则规定的所有犯罪的必备构成要件要素,但是犯罪工具在刑法理论上依然具有重要的意义,它会影响某些罪与非罪、此罪与彼罪的认定,还会影响某些犯罪的量刑。

第一,犯罪工具会影响罪与非罪的认定。例如,甲盗窃价值500 元财物(未达到“数额较大”的标准)的普通盗窃行为(即排除入户盗窃、多次盗窃、扒窃等情形的盗窃行为),不会构成盗窃罪,但如果甲在盗窃过程中携带凶器,即使甲仅盗窃了价值500 元的财物,也成立盗窃罪。根据“两高”发布的司法解释,“凶器”是指“枪支、爆炸物、管制刀具等国家禁止个人携带的器械……或者为了实施违法犯罪携带其他足以危害他人人身安全的器械……”②《最高人民法院 最高人民检察院关于办理盗窃刑事案件适用法律若干问题的解释》(法释〔2013〕8 号)第3 条第3 款:携带枪支、爆炸物、管制刀具等国家禁止个人携带的器械盗窃,或者为了实施违法犯罪携带其他足以危害他人人身安全的器械盗窃的,应当认定为“携带凶器盗窃”。这里的“凶器”当然是行为人用于犯罪的工具——即犯罪工具,可见,犯罪工具可以影响盗窃罪是否成立。

第二,犯罪工具会影响此罪与彼罪的认定。例如,乙抢夺公私财物达到数额较大以上标准的,构成抢夺罪,但如果乙在抢夺过程中携带凶器,则可以构成抢劫罪。这里的“凶器”同样是犯罪工具,进言之,犯罪工具可以影响某一行为是成立抢夺罪还是抢劫罪。

第三,犯罪工具还会对量刑的轻重产生影响。例如,丙抢劫价值5000 元的财物,构成抢劫罪,根据《刑法》,其量刑幅度是有期徒刑三年以上十年以下,并处罚金。但如果丙持枪抢劫价值5000 元的财物,则有可能会被判处十年以上有期徒刑、无期徒刑甚至死刑,并处罚金或者没收财产。这里的“枪”显然也是行为人的犯罪工具,易见,犯罪工具会对量刑的轻重产生影响。“枪”是《刑法》中影响量刑的重要犯罪工具之一,除了在抢劫案中持枪抢劫会加重量刑以外,暴力袭警案中使用枪支同样会加重量刑。此外,使用枪等犯罪工具武装掩护走私或者武装掩护走私、贩卖、运输、制造毒品的,同样会加重量刑。

(二)人工智能与传统工具的区别

1.人工智能的分级/类

有学者根据人工智能是否具备辨认能力和控制能力,将人工智能分为弱人工智能和强人工智能,并认为强人工智能可以突破编程设计实现自主意识和自由意志。[3]如果采取这一分类标准,则等于变相承认(强)人工智能具有辨认能力和控制能力,可以成为刑法评价意义上的犯罪主体,这与笔者坚持的立场相悖(笔者不承认人工智能具有刑法主体地位)。更为重要的是,学者根据人工智能是否具备辨认能力和控制能力对人工智能进行分类,表面看起来没有问题,但实际上这一分类标准缺乏相应的科学基础,就目前人工智能技术的发展来看,具备辨认能力和控制能力的人工智能只是部分学者的假设,缺乏科学依据。因此,笔者不采这一分类标准。

自动驾驶技术是人工智能技术在社会生活中应用的实例之一,因而,参照自动驾驶技术的分级标准,可以对人工智能进行分级/类。美国机动车工程师学会(SAE)发布的《道路机动车自动驾驶系统相关术语的分类和定义》(Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems),以及我国国家市场监督管理总局和中国国家标准化管理委员会联合发布的汽车驾驶自动化分级标准(标准号:GB/T 40429-2021)是目前两个较为科学且权威的自动驾驶分级标准,参照这两个标准,对应不同的汽车驾驶自动化程度,可以对人工智能进行相对科学的分级/类。

《道路机动车自动驾驶系统相关术语的分类和定义》是SAE 于2014 年发布的机动车驾驶自动化标准,亦称J3016 标准。[4]这一标准根据自动驾驶系统的自动化程度的不同将自动驾驶系统分为Level 0、Level 1、Level 2、Level 3、Level 4、Level 5 六个等级(见表1)。

2021 年8 月,我国国家市场监督管理总局和中国国家标准化管理委员会联合发布的《汽车自动化分级》是我国首个汽车驾驶自动化分级标准。这一标准同样根据自动驾驶系统的自动化程度的不同将汽车驾驶自动化分为六个等级——0 级到5 级,由于这一分级标准的具体内容与SAE 的J3016标准类似,在此不再赘述。①参见《汽车自动化分级》(GB/T 40429-2021)。

根据上述两个标准,0 级、1 级、2 级(Level 0、Level 1、Level 2)下的驾驶自动化仍然需要人类驾驶员进行操控,这三级自动化都只是对人类的驾驶起辅助作用;3 级、4 级(Level 3、Level 4)下的驾驶自动化,系统虽然可以进行大部分驾驶操作,但其自动驾驶需要得到乘客的响应,否则不会执行自动驾驶,且在某些情境下仍然需要人类驾驶员进行操控;5 级(Level 5)下的驾驶自动化,系统完全可以脱离人类驾驶员进行自主操控,无需乘客响应,但用户要求退出自动化时系统需执行,且在特定情景下依然需要人类驾驶员进行操控。参照汽车驾驶自动化的上述两个标准,对应不同的汽车驾驶自动化分级,笔者拟将人工智能分为四级/类,即辅助型人工智能、半操控型人工智能、自主型人工智能和超人工智能(见表2)。①这一分级/类标准同时参考了皮勇教授的分级/类标准。参见皮勇、陈奕屹:《论人工智能的刑法属性及其相关刑事责任》,载《犯罪学论坛》2018 年第五卷,第818-831 页。

表2 人工智能的分级/类

需要特别说明的是,上述分级/类标准中虽然有超人工智能这一级类,但这更多的是笔者对人工智能技术的一种期望。超人工智能是一种完全脱离人类的独立智慧体,或许除了外观(甚至外观也可以与人类一致),它们与人类已几无二致,有论者所称的强人工智能在一定意义上应为超人工智能,但限于人工智能技术的发展,在可见的时间范围内,这样的超人工智能依然只能存在于科幻作品中。即使随着科学技术的发展,未来我们可以在技术上实现超人工智能的研发设计,使这一“科幻作品”成为现实,但是这种技术是否会被广泛应用是另一个值得深思的问题。超人工智能的现实化不仅仅是技术层面的问题,更重要的是伦理道德层面的问题,我们很难想象人类会心甘情愿将自己的命运交给自己亲手创造出来的物体。从现实出发,笔者在文中所论之人工智能不包括所谓的超人工智能。

2.人工智能并非传统犯罪工具

根据笔者的分级/类标准,人工智能在当下以及未来很长一段时间内仍然只能从属于人类,其本质依然是人类的工具,但这并不意味着人工智能被用于犯罪时与传统犯罪工具无异。认为人工智能仅仅是一种传统犯罪工具的主张忽视了人工智能与传统犯罪工具的最大不同——即人工智能是一种具有“智慧”的新型工具。

首先,人工智能拥有“自主学习”“自主进化”“自主升级”的特点。例如,“AlphaGo 在输给李世石的那个晚上,可以在和自己不断对弈的过程中学习并克服自己的弱点”[5],进而在后续的对弈中战胜李世石、柯洁等围棋高手。再如,专家系统是较为常见的人工智能之一,顾名思义,专家系统就是一种模拟人类专家解决某一领域专业问题的智能系统。其可以通过扩充和修改知识库中的内容,实现自主学习,并且可以通过反复运行,不断修正错误,完善自身,使其知识库中的内容越来越丰富。[6]

其次,人工智能在一定的范围内拥有“自主识别”“自主决策”“自主控制”的能力。典型的如自动驾驶系统,根据我国汽车驾驶自动化分级标准,在3 级-5 级下,自动驾驶系统可以识别出不同的路况信息,并根据路况作出相应的“决策”和“控制”。再如,“利剑”(SWORDS)机器人是一款军事智能机器人,它可以在战场上对敌我进行识别,并通过搭载的武器系统对敌方目标进行火力打击。①“利剑”机器人可以搭载任何重量在300 磅以下的武器系统,包括M-16 自动步枪、0.5 英寸口径机枪、40 掷弹筒、反坦克火箭发射器等。参见夏天:《基于人工智能的军事智能武器犯罪问题初论》,载《犯罪研究》2017 年第6 期,第9-20 页。

虽然人工智能的本质是人类的工具,但又与传统的犯罪工具存在差异,不能将其等同于传统犯罪工具。基于人工智能的前述两个特征,可以认为人工智能在一定意义上是“活”的,而传统工具是“死”的。传统工具必须要有行为人的支配才能成为犯罪工具,且这种支配关系是显而易见的,换言之,行为人跟工具的关系很“近”。人工智能虽然也需要行为人的支配,但这种支配关系不是显而易见的,行为人跟人工智能的关系会很“远”,如果缺乏专业的技术,甚至难以确定这种支配关系。例如,在故意杀人的案件中,行为人如果使用传统工具(例如刀),需要用手将刀捅进被害人的心脏等要害部位;但如果行为人使用的是类似“利剑”机器人的人工智能,只需要在人工智能中植入杀人程序,人工智能即可以自我识别出被害人,进而将其杀害。警方在侦破故意杀人案时,通常会以嫌疑人的不在场证明排除对其的怀疑,使用传统工具杀人,绝大多数时候都需要行为人在场;但是利用诸如“利剑”之类的人工智能完成故意杀人,行为人完全可以远离现场,有极其充分的不在场证明,这将对警方的侦破工作带来极大的困难。

将人工智能视为传统犯罪工具也会对刑法理论造成困扰。有学者指出,“虽然以具有支付功能的人工智能为工具实施的取财行为,在行为外观上属于同类行为,应当适用同一罪名予以规制。但是,人工智能工具的加入却会使此类行为的定性出现多样化形态,当所利用的人工智能具有认知能力时构成诈骗罪,当所利用的人工智能不具有或者暂时丧失认知能力时则构成盗窃罪。这将使此类行为的定性由规范问题转化为技术问题,从而提升刑法规制此类行为的难度。”[7]这一观点的合理性或许值得商榷,但可以肯定的是,“机器人逐渐增长的自主性甚至是不可预见性地都使法律推理的原则受到影响,例如因果关系、责任分配和过错的概念。”[8]

二、刑法主体说的检视

人工智能虽然具有“智能性”的特点,在一定条件下可以拥有自主识别、自主控制的能力,甚至在一定条件下可以脱离人的控制,但其本质依然是工具,赋予人工智能刑法主体地位的观点在当下以及未来很长一段时间内并不可取。

(一)人工智能不具备独立的刑法主体地位

是否承认人工智能的刑法主体地位是当下学界争议的焦点之一。持肯定说的学者认为人工智能具有控制能力和辨认能力,并且可能产生自主意识和意志,进而认为人工智能可以成为独立的刑法主体。②相关论述可参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,载《法学》,2018 年第1 期,第40-47 页;刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,载《东方法学》,2018 年第3 期,第134-142 页;刘宪权、林雨佳:《人工智能时代刑事责任主体的重新解构》,载《人民检察》2018 年第3 期,第5-9 页;卢勤忠、何鑫:《强人工智能时代刑事责任与刑罚理论》,载《华南师范大学学报(社会科学版)》,2018 年第6 期,第116-124 页。裴长利、江国强:《人工智能体的刑事主体资格》,载刘宪权主编:《人工智能:刑法的时代挑战》,上海人民出版社2018 版,第257 页等。持否定说的学者认为人工智能不具有控制能力和辨认能力,即使认为人工智能具有控制能力和辨认能力,也无法将其评价为具有自主意识,即人工智能的控制能力和辨认能力不具有刑法评价意义上的自主性。①相关论述可参见王肃之:《人工智能体刑法地位的教义学反思》,载《重庆大学学报(社会科学版)》2020 年第3 期,第122-130 页;时方:《人工智能刑事主体地位之否定》,载《法律科学》2018 年第6 期,第67-75 页;叶良芳:《人工智能是适格的刑事责任主体吗?》,载《环球法律评论》2019 年第4期,第67-82 页;叶良芳、马路瑶:《风险社会视阀下人工智能犯罪的刑法应对》,载浙江学刊2018 年第6 期,第65-72 页;张成东:《强人工智能体刑事主体地位之否定》,载《时代法学》2019 年第5 期,第53-62 页等。笔者同意否定说的立场,认为人工智能不具备刑事责任能力,即使承认人工智能的刑法主体,对其科以刑罚也难以达到刑罚预防犯罪的目的,因此人工智能不能被评价为刑法意义上的犯罪主体。换言之,即使认为人工智能可以成为刑法主体,由于无法对其科以刑罚或者对其科以刑罚难以达到预防犯罪的目的,这种认定也不具有现实意义。

1.人工智能不具备刑事责任能力

刑事责任能力,就是对自己实施的犯罪行为有承担刑事责任的能力,其核心是辨认能力和控制能力,[9]辨认能力和控制能力即指辨认自己行为的意义、性质、作用、后果并加以控制的能力。[10]简单来说,辨认能力是辨别是非的能力,控制能力是根据辨别是非的结果来决定哪些事情可为,哪些事情不可为的能力。人工智能拥有强大的算法能力,可以很轻松地辨别是非,再通过相应的程序作出反应。从这个意义上说,人工智能具有的辨认能力和控制能力甚至远超人类,但是这种辨认能力和控制能力并非刑法评价意义上的辨认能力和控制能力。

刑法意义上的辨认能力考察的是行为人是否具有认识能力,这是一种认识自己行为的内容、社会意义以及结果的能力;控制能力是根据认识能力支配自己实施或不实施某种行为的能力,考察的是行为人是否存在意志能力。[11]以故意犯罪中的“明知”为例,不仅需要行为人明知自己行为的内容和社会意义,还需要明知自己的行为会发生某种危害结果。[12]人工智能可以通过算法“辨认”外部事实,并通过相应的程序对自己的行为作出不同的“控制”,但是这种“辨认”和“控制”也“只是由人类特定指令、符号组成的计算程序所引发的决定,它无法理解自己行为的外部意义或社会价值”[13]。

电影《流浪地球》中,智能机器人Moss 在“辨认”地球无法脱离木星的引力范围后,作出了将“领航者”计划转为“火种”计划的“控制”。这一“辨认—控制”的过程看起来是很完美的,但它同时意味着需要放弃地球及地球上的所有生物。刘培强在洞悉这一计划后打断了Moss 的“控制”,将空间站推向木星并引爆,帮助地球成功逃离木星的引力范围。面对同样的外部问题,作为人类的刘培强和作为人工智能的Moss 作出了截然不同的两种“控制”,这就是人类的辨认能力和控制能力与人工智能的辨认能力和控制能力的差异。

人工智能或许可以根据自身算法和程序“辨认”外部环境,并作出最优“控制”,但这种最优“控制”是通过特定的程序或算法得来的,不一定符合人类的认知、情感、道德、社会价值等人工智能无法理解的范畴。Moss 在电影中说了一句经典台词:“让人类永远保持理智,果然是奢望。”人工智能或许可以永远保持理智,但这种“理智”“也只是在人为的干预下按照指令执行操作,即便人工智能技术继续发展,甚至能够脱离人类的控制,自主做出某种行为,但其仍然无法明白自身行为的意义。”[14]理解自己行为的外部意义和社会价值,恰恰是“不理智”的人类所特有的。

辨认能力和控制能力的核心是拥有自主意识和自由意志。即使如部分学者所言,人工智能(尤其是自主型人工智能)具有自主判断和决策的能力,但这些所谓的自主判断和决策也是基于研发者、制造者、使用者事先编写的程序或者输入的指令而实现的,其实现的是人工智能研发者、制造者、使用者的意识和意志,并非人工智能的自主意识和自由意志。事实上,这部分学者有一个看似无懈可击的论点,即人工智能可以突破研发者、制造者、使用者的编程设计或指令程序,进行自主决策并实施相应行为,从而实现其自身的意识和意志。[15]但这样的论点是站不住脚的。

首先,以人类目前的科技水平,人工智能是否真的可以突破编程范围还是个未知数,目前来看,这种“突破”只是学者们没有科学依据的假设。其次,即使人工智能真的可以突破原始编程的范围,这种“突破”也是由研发者、制造者、使用者事先通过编程或指令植入的。换言之,人工智能的这种“突破”仍然是研发者、制造者、使用者的意识和意志的体现,而并非其自身的意识和意志。只要离开了研发者、制造者、使用者,人工智能的“突破”就无法实现。这样看来,人工智能的辨认能力和控制能力是研发者、制造者、使用者的意识和意志的体现,并非人工智能自主意识和自由意志的体现。诚如学者所言:“这些机器(即人工智能——引者注)不必为它们的行为承担责任,因为不存在所谓的机器人犯罪意图这种东西。机器人缺乏承担刑事责任的前提,例如自我意识、自由意志和道德自主性,因此很难想象法庭因机器人的恶性而宣告其有罪……现代刑法中施于惩罚的正当性很难适用于今天的自动化机器(即人工智能——引者注)。”[16]

2.对人工智能科以刑罚无法预防更多的人工智能犯罪

对犯罪后的行为人科以刑罚的目的之一是预防犯罪,包括特殊预防和一般预防。如果承认人工智能的刑法主体地位,那么对“犯罪”后的人工智能科以刑罚的目的之一就是为了预防人工智能的犯罪,同样存在特殊预防和一般预防。特殊预防是为了预防“犯罪”后的人工智能再“犯罪”,一般预防是为了预防其他人工智能“犯罪”。问题是,对“犯罪”后的人工智能科以刑罚真的可以达到预防犯罪的目的吗?笔者对此持否定观点。

第一,对人工智能科以刑罚无法达到特殊预防的目的。众所周知,特殊预防主要通过适用死刑和其他种类的刑罚予以实现。但如何对人工智能适用死刑和其他刑罚,在当前的刑罚体系之下,这个问题是很难回答的,因此大多数支持人工智能具备刑法主体地位的论者都提出构建新刑罚体系的观点。①根据这些论者的观点,新刑罚体系的刑罚措施可以总结为三类:一是针对程序的操作,如修改、删除(局部删除)、格式化(彻底删除);二是针对实体的操作,如自由刑、劳役、销毁;三是财产刑。参见王元勋:《刍议强人工智能的刑事主体地位》,载《福建警察学院学报》2020 年第1 期,第87-94 页。先不论构建新的刑罚体系是否经济、是否合理,即使构建了新的刑罚体系,还应再回答这些刑罚措施的对象是什么?是人工智能本身?还是以人工智能体为载体的程序?

如果认为刑罚的对象是人工智能本身,那么对其执行死刑就是将其实体彻底销毁。但是实体被彻底销毁后,原实体之上的程序依然可以载入新的实体,新的实体依然拥有原实体上的“犯罪”程序,可以重新实施“犯罪”行为,无法达到特殊预防的目的。此外,劳役、自由刑等刑罚措施的目的是让人感到痛苦,人工智能作为非生命体,无法感知痛苦,对其科以劳役、自由刑等刑罚显然意义不大。而罚金刑最终仍然是转嫁到人类之上的,也达不到刑罚特殊预防的目的。

如果认为刑罚的对象是程序,那么通过修改程序、删除程序等技术手段或许可以剔除致使人工智能的“犯罪”的部分程序。但是修改程序、删除程序通过研发者或者制造者的技术手段就能完成,无需“劳驾”刑法。与其费尽心思为人工智能设计一套刑罚体系,不如在其“拥有了行为的选择权”之前就采取相应的措施,杜绝人工智能走上“犯罪”的道路。再者,修改程序和删除程序都是极为专业的工作,有时甚至只有人工智能的研发者或者制造者才能完成这一工作,那么即使法院判决修改程序或者删除程序,恐怕也难以执行这一“刑罚”,即使允许法院委托第三方进行执行,法院也难以对第三方的执行进行监督。

第二,对人工智能科以刑罚无法达到一般预防的目的。刑罚的一般预防是针对犯罪人以外的人而言的,主要表现为威慑、安抚、教育。具体来说就是威慑潜在的犯罪人不敢犯罪;安抚被害人及其家属的心灵;教育其他国民知法、守法。当然这样的划分并不绝对,对犯罪人科以刑罚同样可以威慑被害人及其家属不能采用违法犯罪的方式报复犯罪人或其家属。但无论威慑、安抚还是教育,都是心理层面的内容,与人类的情感息息相关。人工智能不具备这样的情感,很难说处罚一个“犯罪”的人工智能可以使其他想要“犯罪”或准备“犯罪”的人工智能产生恐惧心理,进而放弃犯罪。

有学者认为,对“犯罪”后的人工智能科以刑罚同样可以达到一般预防的目的。“一方面,在智能机器人实施犯罪行为的情况下,对智能机器人实施刑罚实际上能对被害人起到慰藉作用……另一方面……对智能机器人处以刑罚不仅可以让其他具有辨认能力和控制能力的智能机器人‘悬崖勒马’,还可以通过明确犯罪行为的性质,使一些具有独立意识、意志但又不知法的智能机器人自觉控制自己的行为,从而对智能机器人犯罪起到‘防患于未然’的作用。”[17]笔者认为这样的观点是值得商榷的。首先,对人工智能科以刑罚是否真的可以对被害人起到慰藉作用是值得怀疑的。以人工智能杀人为例,被害人家属愤恨的恐怕不是人工智能本身,而是人工智能的研发者、制造者、销售者、使用者等主体。更进一步说,被害人家属愤恨的或许是人工智能这项技术。如此说来,将“犯罪”的人工智能彻底销毁又如何能慰藉被害人及其家属呢?其次,既然人类科技已经可以制造出具有“辨认能力和控制能力”的人工智能,那么完全可以将世界上的所有法律文件、法学专著、案件判例通过程序植入人工智能的“大脑”,使所有的人工智能都“知法”,这并非难事,而无需多此一举通过一般预防的功能予以达到。

此外,对犯罪后的人工智能科以刑罚也不符合报应主义的要求。通说认为,能够对犯罪人进行非难的前提是犯罪人具有相对意志自由。人工智能所实施的行为是根据事先植入的程序和指令作出的反应,不是人工智能相对意志自由的体现。虽然人工智能可以自由实施某些特定行为,但它无法认识到这些行为是善还是恶,是违法还是合法。“如果行为人缺乏做出违反法律理性选择的能力或不能控制自己的行为,则其不能成为道德的代言人,相应地也不能成为道德谴责的对象。”[18]因而,人工智能无法成为道德谴责的对象,对其科以刑罚不符合报应主义的要求。

人工智能不具有自由意志,其所实施的行为只是研发者、制造者或使用者意志的体现,无法追究其道义上的责任;人工智能无法感受到刑罚的痛苦,对“犯罪”的人工智能科以刑罚不仅达不到预防其他人工智能犯罪的效果,还不符合报应主义的要求。综合上述分析,笔者认为至少在传统刑法理论的框架之下,人工智能不具有独立的刑法主体地位。

三、“智慧型工具说”的提倡

事实上,大多数刑法学者承认人工智能可以成为刑法评价意义上的犯罪主体,不过是为了解决在人工智能涉及犯罪时的责任难题,在现行刑法框架内,人工智能涉及犯罪时,可能会有多个责任主体,甚至会出现各个责任主体相互推责的情形,例如自动驾驶汽车发生交通肇事,其责任主体是驾驶员还是汽车厂商存在争议,但这绝不是简单赋予自动驾驶汽车刑法主体地位就可以解决的。相反赋予人工智能刑法主体地位不仅不能解决归责问题,反而可能为真正的责任主体逃脱归责。例如,在人和人工智能共同协作处理某些任务时,如果因人的操作失误而出现了致害后果,不排除人会将责任推卸给人工智能。①在2018 年年末,“达芬奇”手术机器人(da Vinci Surgical System)即发生了在心脏手术时由于故障导致患者死亡的事故。随后即被证明医生对机器人的操作失误方为事故发生的主要原因。此前该手术机器人亦发生了多起事故,医疗人员常将责任推卸至人工智能机器人之上,而机器人的生产者又以各种理由主张产品责任不成立,从而导致受害者索赔困难。参见韩旭至:《人工智能的法律回应:从权利法理到致害责任》,法律出版社2021 年版,第47 页。

解决人工智能的法律责任问题,并不必然要赋予其主体地位。以美国为例,2019 年,IEEE②即美国电气和电子工程师学会(Institute of Electrical and Electronics Engineers),简称IEEE。在《人工智能与伦理设计》(Artificial Intelligence and Ethics in Design)中就提出了人工智能法律责任的建议:“(1)设计人员采用身份标签;(2)确保人工智能系统不被滥用;(3)较低的必要举证标准;(4)人工智能企业制定政策;(5)不自动归责于启动人工智能的人。”[19]IEEE提出的建议固然可以为人工智能的责任难题提供解决思路,但仍需结合实践予以进一步细化。笔者在本文中提倡的“智慧型工具说”是对人工智能刑法属性的科学定位,在“智慧型工具说”下,结合IEEE 提出的相关建议,可以妥善解决人工智能犯罪的责任难题。

(一)“智慧型工具”的释义

1.“智慧型工具”的内涵

“智慧型工具”,即为拥有“智慧”的工具,是指为人类所制造的具有一定自主能力的高科技工具。人工智能即为一种常见的“智慧型工具”,“它们更多是人类所创造的高度自动化、智能化的机器或者工具。”[20]尽管科学界不乏人工智能奇点的预测,③例如,弗诺·文奇认为“技术奇点将不可避免”,并且指出,2005 年-2030 年期间,计算机或许会“醒来”,并超越人类。参见[美]约翰·马尔科夫:《人工智能简史》,浙江人民出版社2017 年版,第85 页。但可以肯定的是,在当下及未来很长一段时间内,“人工智能仍然是人类的一种工具,最多也是一种升级版的、可以‘人机共舞’的智慧工具。”[21]

“刑法中的智慧工具,是指犯罪嫌疑人使用的或在案件中起到重要作用的,运用了人工智能技术的新型高科技工具,它拥有自我学习、升级的能力并拥有一定的自主性。”[22]根据这一观点,“智慧型工具”有两个显著的特征:第一,“智慧型工具”的本质是工具;第二,“智慧型工具”可以自我学习、自我升级,并拥有一定程度的自主性。可见,“智慧型工具”的第一个特征是对人工智能主体说的否定,第二个特征则可认为是对传统工具说的修正。因此可以说“智慧型工具说”是在否定刑法主体说的基础上,对传统工具说的修正。总而言之,该说既没有忽视人工智能“智能性”特点,也没有过分强调这种“智能性”,是对人工智能刑法属性的科学定位。

2.“智慧型工具说”更有利于应对人工智能犯罪

根据“智慧型工具说”的观点,人工智能涉及犯罪时,也只是执行人类指令,通过算法、程序完成犯罪的一种智慧型工具而已。

传统的犯罪工具虽然会对犯罪的成立、此罪与彼罪的认定、量刑的轻重等产生影响,但这些影响大多是事后判断。这是由于大多数犯罪工具在未用于犯罪时,都是普通工具,只有将其用于犯罪,才能认定为犯罪工具。例如,菜刀是用来切菜的工具,没有人会直接将一把普通的菜刀认定为犯罪工具,相关法律也不会对菜刀的生产、销售、购买、使用等环节进行严格限制。但是,如果行为人手持菜刀进行抢劫,此时的菜刀就是刑法评价意义上的犯罪工具,会直接影响到行为人的量刑。

人工智能不同于传统的工具,它具有自我学习、自我升级的特点。一个普通的人工智能可能会因为在反复使用的过程中通过自我学习而“学会”犯罪,即使行为人未将其用于犯罪,它也会自动犯罪。可见,事后判断不利于应对人工智能的犯罪问题。“智慧型工具说”下,对人工智能犯罪的应对应当采事前预防的思路。由于人工智能是具有“智慧”的高级工具,应当通过法律手段在研发、制造、销售、监管、使用等环节对人工智能进行严格限制,将相关行为入罪,避免人工智能“学会”犯罪。换言之,虽然人工智能有“学会”犯罪的可能,但完全可以通过法律等手段对相关环节或行为进行规制,禁止人工智能技术的无序发展,从源头上杜绝可能“学会”犯罪的人工智能的产生。如此,也就无需承认人工智能的刑法主体地位,再通过重构刑罚体系应对人工智能犯罪。

总的来说,“智慧型工具说”对人工智能犯罪的应对主要以预防为主。人工智能尚未涉及犯罪时,刑法便提前介入,在人工智能的研发、制造、销售、监管、使用等环节“保驾护航”,确保可能“学会”犯罪的人工智能不会出现。

(二)“智慧型工具说”视角下人工智能犯罪的应对

“人工智能的高度智能化像一把双刃剑,它给人类社会带来福利的同时也给犯罪分子提供了新型的犯罪武器以及工具。”[23]目前涉及人工智能的犯罪大体有四种类型,一是人类针对人工智能的犯罪;二是人工智能产品缺陷导致的犯罪;三是人类以人工智能为工具的犯罪;四是某些论者所谓的人工智能自主犯罪。对于第一种犯罪,在传统刑法理论和现行《刑法》规范下不存在规制难题。对于第四种犯罪,以笔者一贯的观点,因为不存在拥有自主意识和自由意志的人工智能,所以人工智能的自主犯罪只是一个假命题,没有讨论的现实意义。因此,笔者提出人工智能犯罪的应对,主要针对第二种和第三种犯罪,即人工智能产品缺陷导致的犯罪和以人工智能为犯罪工具的犯罪。

1.对技术的规制

无论是否承认人工智能的刑法主体地位,目前学界对人工智能犯罪的应对主要集中在事后惩罚上,尤其是承认人工智能刑法主体地位的论者,他们认为应当重构刑罚体系,对犯罪后的人工智能科以刑罚。事实上,人工智能终究是技术的应用。与其假设人工智能会产生自主意识和自由意志,进而为防止其犯罪重新构建刑罚体系,不如通过相关立法让这样的假设仅仅是假设。换言之,我们不应在假设的前提下讨论人工智能的犯罪问题,而是应当从实际出发,通过相应的手段规制人工智能技术的发展,让人工智能不至于产生自主犯罪的问题。以基因编辑为例,目前人类已经掌握了基因编辑技术,通过基因编辑技术制造出“超人”已不再是科幻作品中的场景,但是各国均通过立法禁止这项技术的无序发展。我国《民法典》就明文规定,不得进行危害人体健康,违背伦理道德,损害公共利益的人类基因研究活动。①《中华人民共和国民法典》第1009 条:从事与人体基因、人体胚胎等有关的医学和科研活动,应当遵守法律、行政法规和国家有关规定,不得危害人体健康,不得违背伦理道德,不得损害公共利益。作为对《民法典》的回应,《刑法》也增设了相关犯罪,对基因编辑技术进行规制。②《中华人民共和国刑法》第336 条之一:将基因编辑、克隆的人类胚胎植入人体或者动物体内,或者将基因编辑、克隆的动物胚胎植入人体内,情节严重的,处三年以下有期徒刑或者拘役,并处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。回到人工智能领域,完全可以通过类似的手段对人工智能技术的发展进行规制,以立法的方式禁止可能危害人体健康,违背伦理道德,损害公共利益的人工智能研究活动,防止相关技术的滥用。

就《刑法》而言,可以通过增设“非法研发、制造人工智能罪”“出售、购买非法研发、制造的人工智能罪”“持有、使用非法研发、制造的人工智能罪”“非法转让人工智能研发、制造资质罪”“非法提供人工智能技术罪”等相关犯罪,确保对人工智能技术的有序发展。

具体而言,人工智能的研发、制造应当得到特别行政许可,任何单位或个人未经许可私自研发、制造人工智能的,应当对行为人追究刑事责任,并将相关程序删改。明知是非法研发、制造的人工智能而出售、购买、持有、使用的,应当对相应的行为人追究刑事责任。具备人工智能研发、制造资质的单位或个人非法向不具备该资质的单位或个人转让研发、制造资质的,应当对行为人追究刑事责任。掌握人工智能技术的单位或个人非法向他人提供人工智能技术的,应当对行为人追究刑事责任。[24]除了在刑法等部门法中规制人工智能技术的发展,必要的时候,还应当出台专门的《人工智能法》等相关法律,规制人工智能技术的发展,确保人工智能技术的发展不会危害人体健康,违背伦理道德,损害公共利益。

如果人工智能确实出现了自主犯罪的情形,除了对直接责任人进行追责,相关责任方还应迅速形成事故报告,抄送有关主体,并将涉事人工智能召回,将其程序彻底删除。

2.对直接责任人的追责

人工智能犯罪的直接责任人可能会涉及研发者、制造者、销售者、监管者、使用者和第三人等。以下仅对可能出现的情形做简要论述,但未必穷尽所有可能。

第一,研发者为了实现某个犯罪目的而故意研发危害社会的人工智能,当然会构成故意犯罪。例如,研发者为了达到故意杀人的目的,在人工智能产品中植入“杀人”的程序,那么所有购买了该款人工智能产品的消费者都有被“杀死”的危险。亦即,研发者的行为对不特定多数的法益造成了威胁,那么研发者可能会构成以危险方法危害公共安全罪。当然,如果研发者只在某一特定的人工智能产品中植入该程序,则可能构成故意杀人罪。

第二,制造者、销售者明知人工智能是为了实现某个犯罪目的而研发的,或者明知人工智能产品不符合安全标准,但依然制造、销售的,构成故意犯罪。非因研发者的原因,而是由于制造者的故意或过失导致人工智能产品未达安全标准的,制作者需要承当相应的责任。

第三,监管者明知研发、制造、销售人工智能产品的目的是为了犯罪,或者明知人工智能产品不符合安全标准,但未禁止该产品研发、制造、销售的,构成故意犯罪。

前述三种情形,如果行为人不是出于故意,但未尽安全注意义务的,应当承担过失的责任,但是要区分不同环节不同主体的注意义务。一般来讲,研发者的安全注意义务应当大于制造者和销售者,监管者的安全注意义务应当大于研发者。

第四,使用者的刑事责任要区分两种情形。其一,对于本身就是用于犯罪的人工智能产品,使用者仅仅是帮助激活其中的犯罪程序,使用者可能构成研发者故意犯罪的帮助犯。其二,对于普通的人工智能产品,使用者将其用于犯罪的,应当根据不同的犯罪行为追究使用者的刑事责任。例如,使用者通过在无人机上安装智能武器系统的方式抢劫银行的,应当构成抢劫罪。虽然使用者控制人工智能犯罪仍然属于传统犯罪,但是使用者“控制人工智能实施犯罪的犯罪模式,对社会的危害性极大且公安机关侦破案件难度也极大”[25],因此应当将控制人工智能犯罪作为传统犯罪的加重情节,严厉打击这类犯罪。

第五,第三人通过黑客技术侵入人工智能系统,操作人工智能犯罪的,第三人构成故意犯罪。①限于篇幅等原因,笔者并未对以上五种涉及人工智能犯罪的情形做具体论述,也未穷尽人工智能犯罪的所有可能情形,但笔者认为,未来人工智能犯罪大体上限于这五种情形。

上述五种情形,有的依当下《刑法》就足以应对,如使用普通人工智能产品犯罪的情形;有的则需要增设新罪予以应对,如监管者未依法履行监管职责的情形。

3.对无故意/过失的免责

人工智能作为一项高新技术,必然伴随着一定的风险。风险是伴随现代社会的发展而产生的,换言之,在现代社会,风险是不可消除的,我们只能通过法律等手段将风险进行相对公平地分配。[26]因此,如果一味地将人工智能技术所带来的风险分配给研发者或制造者,必定会打击研发者或制造者的积极性,不利于人工智能技术的发展。就像我们不能、也不会将交通事故完全归责于汽车生产商,随着人工智能技术的发展,我们不能只享受人工智能所带来的便利,而不承担任何风险。因此,人工智能的所带来的风险应当适当分配给社会大众。

简单来说,人工智能的研发者、制造者、销售者、使用者等主体如果在研发、制造、销售、使用的过程中已经尽到了高度注意义务,但依然无法避免人工智能的致害,则由于上述主体不存在故意或过失,不能对其进行追责,即该致害行为不构成犯罪,这符合我国《刑法》第16 条的要义。②《中华人民共和国刑法》第16 条:行为在客观上虽然造成了损害结果,但是不是出于故意或者过失,而是由于不能抗拒或者不能预见的原因所引起的,不是犯罪。

4.对人工智能致害保险制度的探索

人工智能致害行为产生后,如果相关主体不存在故意/过失,则不能追究其刑事责任,但是对于受害者应当给予一定的民事赔偿(补偿)。例如,对于人工智能的致害非因相关主体的故意/过失引起的,可以通过建立人工智能强制保险制度保障受害人的权益。这一保险的资金由“所有权人、制造商和开发商以某种形式支付的资金共同出资设立,要么是通过分摊保单的费用,要么是在出售时分摊额外的责任附加费。”[27]除了人工智能强制责任险,人工智能商业责任险、人工智能产品责任险等与人工智能相关的险种也是值得探索的。[28]

四、余论:对刑法主体说提出的几个问题

“人工智能时代是一个已经到来的伟大时代”[29],人工智能的发展必将带来哲学、伦理学、社会学、法学等社会科学的巨大变革。对于人工智能的刑法属性,笔者同意皮勇教授提倡的“智慧型工具说”,虽然“智慧型工具”与传统工具存在诸多差异,但其本质依然是为人所控制和支配的工具。在此,笔者旗帜鲜明地反对将人工智能作为刑法主体的观点。在笔者看来,承认人工智能的刑法主体地位完全是一个假命题,刑法主体说的学者都是先假设人工智能会产生自主意识和自由意志,再进行相关论述。就目前人类的科技水平而言,能否研发制造出拥有自主意识和自由意志的超人工智能在未来很长一段内尚存疑问。即使在未来,人类在技术层面可以实现拥有自主意识和自由意志的超人工智能的研发,这种技术能否在法律层面、道德层面、伦理层面得到认可而被广泛应用也是一个值得思考的问题。“因为人类不会心甘情愿被自己的创造物所主宰和毁灭。”[29]论及至此,笔者试图向承认人工智能具有刑法主体地位的学者提出以下三个问题:

第一,如果承认人工智能具有自主意识和自由意志,贩卖购买人工智能与人口买卖是否存在区别?贩卖购买人工智能是否构成犯罪?具备自主意识和自由意志的人工智能是否会允许自己被当作商品进行交易?

第二,作为消费者(包括个人、企业甚至国家等),购买人工智能是为了让学习生活工作等更加便捷,如果消费者购买的人工智能会产生自主意识和自由意志,进而脱离消费者的控制,甚至对消费者的安全产生威胁,那么消费者为什么还要购买人工智能?缺乏消费者(市场),发展人工智能的意义在哪里?

第三,如果认为人工智能“出厂”时不具备自主意识和自由意志(状态一),但在使用过程中因重复学习、深度学习等而产生自主意识和自由意志(状态二),那么人类在人工智能处于状态一时将其用于犯罪,但在犯罪过程中人工智能“进化”到了状态二,怎么分配人类和人工智能的刑事责任?是单独正犯(人工智能是犯罪工具),还是共同正犯(人工智能是所谓的犯罪主体)?此外,人类目前尚不能解释自身自主意识和自由意志的产生,又如何确定人工智能产生了自主意识和自由意志?简言之,如何界定状态一和状态二?

猜你喜欢

刑罚行为人刑法
自杀案件如何定罪
诈骗罪中行为人取得财产的特殊情形
过度刑法化的倾向及其纠正
论过失犯中注意义务的判断标准
刑罚威慑力的刑法学分析
代运为名行诈骗 构成犯罪获刑罚
断盐也是一种刑罚
敲诈勒索罪
刑法的理性探讨
刑罚的证明标准