APP下载

论人工智能时代的预防性刑法立法

2020-12-04李文吉

关键词:计算机信息法益预防性

李文吉

(苏州大学 王健法学院,江苏 苏州 215006)

当前,随着移动互联网、大数据、脑科学等新理论新技术的发展,新一代人工智能相关学科快速发展,网络化向智能化加速跃升。2017年7月8日国务院印发的《新一代人工智能发展规划》明确了我国新一代人工智能发展的战略目标,与此同时,美国、英国等国家也纷纷出台相关法律或政策支持人工智能的发展。虽然对于人工智能时代的界定尚存争议,但是今天我们已进入“弱人工智能时代”基本达成共识,不远的将来可能会进入“强人工智能时代”。作为高科技的一种,人工智能体带给人们便利的同时,也产生了新的社会风险,对国家利益、社会利益和个人利益都构成了新的威胁。信息网络与人工智能都基于计算机技术而发展起来,一般而言,人工智能乃是信息技术发展的必然结果。在信息社会中,巨量信息的利用和处理需借助人类智能之外更高效的手段,而人工智能的滥觞确实出于这样的目的和需要[1]。但是,人工智能产品的发展目标不是单纯制造出人类的工具助手,而是实现学习与思考接近或超过人类智能水平的混合增强智能。因此,人工智能是影响面广的颠覆性技术,不仅可能带来侵犯信息安全、人身财产安全等问题,还对现有的刑法规定和归责理论带来了挑战。

事实上,为应对网络社会的刑事风险,近年来我国刑法预防性立法倾向愈发明显,现行1997年刑法已经形成了10个修正案,特别是《刑法修正案(八)》和《刑法修正案(九)》的出台,扩大了犯罪圈、提前了刑法处罚的阶段。所谓预防性刑法立法是指把距离实害结果有一段距离,但可能引发实害结果的风险行为予以犯罪化的立法[2]。也就是说,预防性刑法的立法重点是,在法益遭受侵害之前就对相关危害行为予以规制。为了积极应对人工智能风险,保护刑法法益,立足于预防性刑法观,有必要对人工智能领域涉及的刑事问题采取预防性刑法立法。

一、预防性刑法规范供给不足:人工智能体对网络时代刑法的挑战

由于人工智能时代的到来并非一蹴而就,而是利用网络及大数据向智能化的加速跃升。因此,有必要首先回顾与检视当前预防性刑法规范在网络犯罪方面的规定是否足以应对人工智能体的挑战,在此基础之上才能审视预防性刑法规范在人工智能时代是否充足。

1.当前网络预防性刑法规范的表现与法理依据

自1997年刑法制定到如今,预防性刑法规范在网络犯罪方面的规定主要体现在以下几个方面。

(1)信息系统及数据作为保护对象的立法扩张

虽然侵害计算信息系统及其数据安全不一定会导致人身、财产等实害结果的发生,但是一旦对计算机信息系统进行攻击,可能借助网络的无限延展性[3],从而将危害行为蔓延至其他节点中的信息系统。因此,有必要将计算机信息系统及其数据作为刑法保护的一种重要对象。相对于侵入计算机系统及获取数据后所实施的其他侵犯人身、财产的犯罪而言,对计算机信息系统及其数据的保护属于提前预防性保护。1997年刑法在第285条和第286条规定了非法侵入计算机信息系统罪和破坏计算机信息系统罪。为扩大刑法保护的范围,《刑法修正案(七)》增设了非法获取计算机信息系统数据、非法控制计算机信息系统罪和提供侵入、非法控制计算机信息系统程序、工具罪。《刑法修正案(九)》进一步强化对个人信息的保护,将出售、非法提供公民个人信息罪和非法获取公民个人信息罪修改为侵犯公民个人信息罪。

(2)预备行为实行化的立法转换

由于网络时代一些预备行为的危害性显著提高,为了克服预备行为刑事处罚存在的困境,刑法将相关网络犯罪的预备行为单独规定为犯罪,理论上称为“预备行为的实行化”[4]。《刑法修正案(九)》增设的第287条之一“非法利用信息网络罪”将设立用于实施诈骗等违法犯罪活动的网站、通讯群组和为实施诈骗等违法犯罪活动发布信息等犯罪预备行为规定为独立犯罪,解决了网络空间中预备行为的实行化问题。预备行为实行化以后,刑法对独立的预备行为直接予以定罪处罚,无疑能够提前保护法益。

(3)帮助行为正犯化的立法演变

帮助行为正犯化指的是将帮助行为直接规定为实行行为,对帮助行为规定了单独的罪名和独立的法定刑[5]。帮助行为正犯化以后,即使在主犯不能到案的情况下,也能对帮助犯追究刑事责任。而根据传统的共犯从属性理论,帮助犯依附于正犯,处罚帮助犯需要正犯构成犯罪,但是在很多情况下,正犯并不构成犯罪或者由于产业链的专业化和分散化,前端产业无需后续行为支持的情形下,正犯和帮助犯难以认定为共犯[6]。因此,与传统的共犯从属性理论相比,帮助行为正犯化的设置也体现出刑法保护的前置化。除了提供侵入、非法控制计算机信息系统程序、工具罪,还包括《刑法修正案(九)》增设的帮助信息网络犯罪活动罪。

(4)网络服务提供者刑法义务的立法增设

与传统的现实空间不同,网络空间是一个利用网络交流信息的数字化虚拟空间,物理上的空间已经不存在,无地域性成为网络空间的本质所在[7]。虽然网络所具有的虚拟性和无地域性等特点使得司法机关难以对网络犯罪予以及时打击,但是网络服务提供者是网络生态环境和活动规则的制定者,有能力也有责任向社会提供安全的网络服务,加之普通用户与网络犯罪者之间存在技术上的差距,如果网络服务提供者不履行相应的信息网络安全管理义务,其社会作用实际上偏向于网络违法犯罪[8]。为了促使网络服务提供者积极有效的履行信息网络安全管理义务,《刑法修正案(九)》增设了拒不履行信息网络安全管理义务罪,强制网络服务提供者履行刑法上的管理义务,这显然是预防刑法的逻辑[9]。

2.人工智能时代网络预防性刑法规范的供给不足

(1)预防性刑法规范供给不足无法解决人工智能体的“内忧”

人工智能体的“内忧”指的是人工智能体的智能系统及其数据等遭受侵害所产生的刑事风险。对于人与科技的关系而言,当前学者大都赞成,人只能作为主体而存在,任何时候都不能成为客体与工具,一切有悖于人的尊严的行为都应该予以制止[10]。对于人工智能的发展也不例外。人工智能应当坚持以人为本,应当将局部替代人类、整体增强人类作为人工智能发展与规制的价值取向,目前以及在相当长的将来,可能也只是在弱人工智能的框架内提升机器能力,应当在人工智能体不具有主体资格的前提下研究人工智能体的系列法律问题[11]。也就是说,人工智能体只能作为被保护的客体或者被犯罪分子所利用的工具。

第一,根据当前刑法的规定,虽然刑法已经确认了计算机信息系统及数据的独立保护价值,但是总体而言保护范围还较窄,无法有效全面保护人工智能体。一方面,现行刑法非法侵入计算机信息系统罪保护的信息系统过窄,只包括了侵入国家事务、国防建设、尖端科学技术领域的计算机信息系统;根据司法解释的规定,非法控制计算机信息系统罪、破坏计算机信息系统罪等罪名中的“计算机信息系统”指的是“具备自动处理数据功能的系统”,具体而言,应当指的是任何内置有操作系统的智能化设备。 人工智能时代的智能设备将具备语音交互、视觉交互的能力,而依托的基础便是操作系统。虽然现行对“计算机信息系统”的解释可以将内置有操作系统的人工智能设备纳入其中,但是现有规定是对非法控制、破坏计算机信息系统的行为予以规制。人工智能系统不同于普通的计算机信息系统,其往往是人工智能实体的内置程序,而人工智能实体直接被应用到自动驾驶等现实生活场景,一旦人工智能体的系统程序受到干扰可能直接使危害后果现实化。即使不实施破坏和非法控制的行为,侵入人工智能系统即可能扰乱人工智能系统而产生严重社会危害性,也就说,应对侵入人工智能系统的行为本身予以规制。另一方面,当前,非法获取计算机信息系统数据罪中的“数据”侧重于信息系统自身功能维护的、以访问控制为主要考虑的数据,没有关注数据自身的独立价值与保护[12]。侵犯公民个人信息罪保护的对象也仅限于“公民个人信息”,而人工智能时代解决的是海量数据的处理和决策问题。人工智能体依托于物联网、大数据和云计算,利用强大的智能计算能力处理数据并作出智能判断[13]。因此,随着未来人工智能系统应用到社会各领域,获取、干扰人工智能体内的数据本身都会对人工智能体的运行产生重要影响,通过人工智能体收集、存储、传输、处理的各种电子数据应当独立成为刑法保护的对象。

第二,现有预防性刑法规范门槛过高,无法对人工智能体提前保护。由于我国是“定性加定量”的定罪机制,很多规制网络犯罪的罪名将“情节严重”作为定罪标准。比如,根据我国刑法第286条第1款的规定,破坏计算机信息系统,要求造成计算机信息系统不能正常运行且后果严重才构成犯罪。在人工智能时代,人工智能体是根据预先设定的程序和智能系统收集到的数据进行判断,智能系统和数据本身的价值不言而喻。例如,在全自动的无人驾驶汽车的驾驶过程中,实质性参与驾驶的是智能控制系统而非人类,允许计算机从获取的数据中自我学习做出判断[14],一旦侵入或破坏智能系统或数据都有可能导致人工智能体运行的错误而发生严重危害后果。与网络空间的犯罪需要进一步落地到现实空间不同,人工智能体程序发生错误可能直接危害人身、财产安全,也就是说,智能系统及其数据本身具有重大的保护价值,作为新型重大法益应以比较低的入罪门槛予以提前保护。当前以“后果严重”作为入罪门槛,要求司法机关查明扰乱计算机信息系统的行为造成的严重后果,但由于人工智能体深度学习的算法往往是一个“黑箱”,技术上难以查明人工智能体所造成的“严重后果”到底是其在遇到突发情况时进行的自我调整还是扰乱人工智能体的外部行为直接造成的,这大大增加了司法证明难度,导致一部分侵入或破坏智能系统及其数据的行为得不到刑法惩处。

(2)预防性刑法规范供给不足无法解决人工智能体的“外患”

人工智能体的“外患”指的是他人利用人工智能体实施犯罪的情况,包括人工智能体作为工具被非法利用或滥用引发的危害。

第一,现有故意型预防性刑法规范范围过窄,无法应对滥用人工智能体的情况。对于滥用人工智能体实施严重危害社会的行为,有学者认为,应增设滥用人工智能产品罪[15]。之所以考虑增设上述罪名,主要是因为现行刑法无法予以有效规制,从中可以看出滥用人工智能体在当前刑法中所遇到的困境。从法理上看,人工智能体具有深入学习、自主学习的能力,其网络化、智能化更强,因此,滥用人工智能体的社会危害性更大,即使滥用人工智能体实施相关犯罪的预备行为也有可能造成重大法益的侵害[16]。虽然《刑法修正案(九)》增加了非法利用信息网络罪等涉及信息网络的犯罪,但根据当前司法解释的规定,对“信息网络”的界定较为狭窄,要求“信息网络”必须是以计算机等电子设备为终端的信息网络或局域网,然而人工智能体可能并不等同于上述计算机等电子设备终端,其运行也并非必须依靠网络。例如,自动驾驶理论上可以脱离互联网,当一辆车开到没有网的环境下还是可以自动驾驶[17]。此外,非法利用信息网络罪的预备行为类型难以将人工智能体都纳入进去。如非法利用信息网络的行为类型之一是设立用于实施违法犯罪活动的网站、通讯群组,从“网站、通讯群组”的技术性运作原理来看,恐怕难以包含人工智能体。帮助信息网络犯罪活动罪规制的是明知他人利用信息网络实施犯罪,为其犯罪提供互联网接入、服务器托管、网络存储、通讯传输等技术支持,或者提供广告推广、支付结算等帮助的行为,由于人工智能体与上述“技术支持”“广告推广”等帮助行为存在本质不同,按照刑法中的同类解释规则,帮助信息网络犯罪活动罪的行为方式无法将帮助他人利用人工智能体实施犯罪的情况纳入其中。

第二,现有预防性刑法规范缺少过失型的规定无法应对人工智能事故责任。理论上认为,上述网络预防性刑法规范均为故意犯罪。这种立法模式在网络时代大体是没问题的,因为在网络空间中产生的危害行为虽然在“网络时代”背景下很容易蔓延至现实社会,然而从网络中落地到现实社会尚需要介入其他行为,属于一种间接的危害行为,因此应当首先规制网络中的故意犯罪。但是在人工智能时代,人工智能体能够直接在现实空间中产生危害,危害场域可以从网上直接落地到现实社会,比如全自动驾驶汽车因操作不当也可能导致人死亡。因此,利用人工智能体实施过失行为的社会危害性也很大。然而,研发者、制造者、使用者在大多数情况下对人工智能体具有一定的把控能力,他们与人工智能体之间类似于管理与被管理的关系,但是现有的重大责任事故罪等传统过失罪名无法适用于人工智能体的研发者、制造者、使用者,这是刑法在人工智能刑事风险防控方面存在的一种缺陷[18]。

二、预防性刑法立法的正当性:应对人工智能时代挑战的依据

对于当前包括网络领域在内的预防性刑法立法趋势,学者给出了不同的回应。有的学者旗帜鲜明地反对刑法保护前置化。例如刘艳红认为,刑法保护早期化违背了刑法的谦抑性原则,导致法益的概念日益抽象模糊[19]。当然,也有学者持支持的看法。周光权认为,随着科学技术的发展和社会转型,社会生活的危险性、复杂性,社会成员的陌生程度,对经济利益的追求都在增加,个人的不安感促使刑法介入社会生活的要求也增加,处罚早期化、处罚范围扩大化在所难免[20]。我国预防性刑法立法的领域主要存在于恐怖犯罪、网络犯罪、食品安全犯罪、公共安全犯罪、环境犯罪等可能侵害国家法益、社会法益或侵害不特定人、多数人人身财产安全的犯罪。与传统侵害个人法益的犯罪不同,上述犯罪所侵害的法益属于重大集体法益,有前置化保护的必要性。我国刑法对人工智能领域的犯罪实行预防性的前置化处罚是对传统刑法的局部修正、补充,是积极调适、应对当前社会风险问题的表现,因而具有正当性,总体上应当予以肯定。

1.预防性刑法立法是对人工智能体伴随问题的积极回应

刑法作为上层建筑,应当及时反映并应对社会发展过程中的新问题。对于人工智能等新兴领域发展过程中带来的新问题,刑法也具有介入的可能[21]。回顾历史可以发现,从农业时代进入工业时代、再到网络时代的过程中,汽车、计算机、互联网等新兴技术在解放人类生产力、给人类带来巨大便捷的同时也带来了新型犯罪方式。刑法作为保护法益、保障社会秩序的重要手段,理应积极参与社会治理,介入刑法规制手段对以前没有过的危险行为进行处罚是必要且必须的[22]。随着人工智能技术应用领域和应用场景的增多,有学者指出,人工智能衍生的安全风险集中于以下3个层面:在系统安全的风险层面、算法透明度与可解释性的风险层面、数据使用和隐私保护的风险层面[23]。对此,笔者十分赞同。既然我们已经认识到了人工智能体所可能带来的安全风险,为了更好地保护法益,刑法也应发挥其积极的预防作用,在保障人工智能发展的过程中通过刑法立法积极规制人工智能领域的风险与犯罪。近年来,刑法修正案着力解决的就是社会发展过程中出现的醉酒驾驶、网络犯罪等突出问题。如上文所述,面对人工智能时代带来的风险,当前我国预防性刑法规范供给不足,无法解决人工智能体的“内忧”和“外患”。在立法缺位的情况下,应当采取积极立法观及时增设新罪应对某些社会危害性较大的行为[24]。至于有些学者担心,预防性刑法立法可能导致刑法保护的过度前置化而阻碍人工智能技术的发展,但这只是预防性刑法立法过程中如何平衡刑法规制与人工智能技术发展的问题,不足以否定预防性刑法立法的正当性。事实上,在考虑是否需要动用刑法予以规制所有新兴领域问题时都会遇到上述担忧。从法理角度来说,对于一个利益而言,部门法可以根据该利益的具体范围以及其遭受的损害程度采取多层次的保护。例如对于人的身体健康利益,民法、行政法和刑法都可以进行保护,只是各个部门法保护的范围不同而已。刑法作为“事后保障法”强调刑罚手段的严厉性,只能对严重侵犯法益的行为进行处罚,但并不意味着刑法不能对人工智能领域严重侵害法益的问题予以积极回应。只要在立法和司法过程中贯彻刑法的谦抑性精神,采取合理的立法技术并制定合理的司法入罪标准,完全可以使预防性立法保持合理的介入限度。因此,刑法完全可以将人工智能时代具有严重社会危害性而当前刑法尚未规定的行为规定为犯罪。

2.注重事后罚的传统刑法无法事前预防人工智能体的侵害风险

对刑法来说,保护法益是其最基本的任务,所有的刑法规范都是为了保护法益。保护法益的方式有两种:第一,刑法对造成法益实际侵害的行为予以惩罚,宣示法益的不可侵犯性,从而达到法益保护的目的;第二,刑法对危险行为即予以介入,在法益遭受侵害之前即对危险行为予以制裁,进而避免法益遭受实际侵害。传统刑法是以实害犯为核心,以实害的发生作为可罚性的界限。这种保护方式契合了传统社会的犯罪简单化、直观化特点,但是面对网络时代高新科技犯罪的挑战,却显得捉襟见肘[25]。例如,对于入侵正在运行的全自动汽车智能系统的行为等到发生了实际致人死亡的后果才进行处罚,明显无法发挥刑法保护法益的目的。具备集物理实体和强大算法为一体的人工智能体所衍生的某些高度危险行为一旦发生危害结果可能无法评估和难以挽回。与网络犯罪不同的是,人工智能体的信息系统更加智能化、敏感化,其处理的数据更加海量化。不仅如此,不像网络空间的犯罪可能需要借助于人类才能进一步现实化,人工智能体可以依靠其物理实体直接实施侵害人身财产的犯罪。由于人工智能领域犯罪的发生更加难以防范、危害后果更加难以计算,当然也就不能适用传统刑法等到后果发生才予以规制的做法。也正是因为认识到了网络犯罪的特点,我国刑法才在网络犯罪方面采取了预备行为实行化、帮助行为正犯化的预防性立法,其目的就是要实现早发现、早预防,不是在出现了现实直接的危险与实害才处罚,而是提前规制或者降低入罪门槛[26]。所以,为应对网络犯罪的升级版——人工智能体犯罪,应当注重事前预防人工智能领域的侵害风险,将刑法对人工智能犯罪评价的“起刑点”前移,从而实现对人工智能犯罪的有效预防和打击。

3.民事行政手段不足以规制某些人工智能体的严重法益侵害行为

反对刑法保护前置化的学者一般认为,刑事立法应当坚持刑法的谦抑性,应当首先强化刑法之前民事、行政的手段[27]。落实和加强刑法之前其他部门法的防线固然重要,但这不妨碍刑法加强对民事、行政手段无法有效规制的某些严重行为进行预防性前置化处罚。例如,为了防范网络黑产人员通过机器程序海量窃取用户信息,网络平台通常会要求用户在注册登录时输入验证码,但是在“全国首例利用AI犯罪案”中,犯罪分子通过人工智能的深度学习,能够快速识别验证码获取大量网站数据和网友信息[28]。对于如此严重侵害公民个人信息的行为而言,民事赔偿和行政处罚无法达到抑制犯罪的目的。与巨大的犯罪黑产收益相比,民事赔偿、行政罚款往往无关痛痒。即使两种行政违法行为合并执行,也仅仅是最长20日的行政拘留,无法起到预防犯罪人继续犯罪的目的。行政法上还有吊销执照等手段,但这也不足以起到预防犯罪的作用,因为现代公司制度是将公司作为拟制的法律人对待,公司背后的实际经营者才是真正操纵公司运转的人员,其完全可以将被剥夺经营资格的公司注销,然后成立另一个公司继续存在,违法行为仍然会继续[29]。因此,为了从根本上预防人工智能领域的犯罪,应采用双管齐下的方式,不仅加强刑法对法益的提前保护,同时强化刑法之外的防线。事实上在醉酒危险驾驶领域就是采用的这种方式,收效良好。也就是说,刑法不可能对某些具有严重危害性的人工智能犯罪置之不理,当民事、行政法对此类行为显现治理不足或无效时,刑法的功能就应当被倚重,刑法处罚前置化也就成为必然趋势。

三、预防性刑法立法的路径:增设预防性罪名化解人工智能挑战

为了有效地应对人工智能时代的风险,我们认为有必要对传统的刑法理论和立法做出适度的调整,具体包括立法理念的转变、立法技术的调整和具体罪名的增设。

1.人工智能时代预防性刑法立法理念及立法技术的调整

(1)适度增加危险犯:由注重法益实害向注重法益危险转变

虽然当今刑法理论对刑法的任务存在着法益保护说与法规范违反说之争,但是只有法益保护说才能为犯罪化提供实质性的根据[30]。刑法的任务是保护法益为当前刑法理论通说。但是,传统的法益观认为,刑法原则上只能处罚实际造成法益侵害的行为,刑法保护早期化的立法,比如抽象危险犯、预备行为实行化、帮助行为正犯化的立法为传统法益保护原则所排斥[31]。这种注重实害的法益保护观体现了传统社会背景下刑法应对危害行为的谦抑态度。但是,正如上文所述,人工智能时代新型犯罪往往侵害的是不特定人或多数人的集体法益,如果等到实害结果出现才以刑法规制,最终将不利于个人法益的保护,因为集体法益是个体利益的集合或者说是众多个人利益的综合体,最终都应当能够还原为个人法益,因此,对集体法益的保护实质上也是对个人法益的提前保护。

刑法出现危险犯立法模式的原因在于提前保护法益、有效规制危险行为,而危险犯分为具体危险犯和抽象危险犯。将足以造成法益侵害具体危险的行为规定为具体危险犯;抽象危险犯不以产生具体的危险为要件,刑法将某种通常具有导致法益侵害危险的行为类型规定为犯罪,只要行为人实施了上述构成要件行为就应当受到处罚[32]。因此,在增设人工智能领域罪名时可以考虑危险犯的立法方式。例如一些滥用人工智能技术的行为往往就具有一定的抽象危险性,可以考虑将这种滥用行为本身作为犯罪处理。然而,增设危险犯也应遵循刑法谦抑性原则,有必要对人工智能体危险行为类型化,将具有直接侵害到个人或不特定人法益的重大危险行为类型化为犯罪。

(2)适度预备、帮助行为实行化正犯化:由事后惩罚性刑法向事前预防性刑法转变

如上文所述,刑法的关注重心应当从事后的惩罚转移至事前的预防,事后的惩罚与报应面向的是过去,在网络时代治理人工智能犯罪的时候其意义应有所下降。从充分发挥网络时代情势下刑法的行为规范功能来看,对人工智能领域的犯罪从事后惩罚转向事前预防是可取的。由于人工智能领域的风险具有重大的法益侵害性与广泛的延展性,应当取代传统等待风险现实化之后再以刑罚处罚的做法,转而应当将相关传统预备行为、帮助行为类型化为构成要件[33]。对于人工智能犯罪中的预备行为而言,由于人工智能体的运行是依靠代码和算法来实现的,而人工智能体的研发往往以涉及商业秘密为由不能公开,意味着人工智能体的研发和制造本身就可能是个“黑箱”,这就导致研发者可能利用“算法黑箱”将犯罪的程序算法嵌入人工智能体之中进而利用人工智能体实施违法犯罪活动,一旦进入实施阶段,此类行为的危害性非常严重。因此,刑法应当将这种滥用人工智能体的行为本身作为独立犯罪处罚,与下游利用人工智能体实施的其他犯罪相比,这种行为本身属于预备行为。与之类似,对于那些专门提供人工智能体作为他人犯罪工具的,或明知他人利用人工智能体犯罪而提供人工智能技术予以帮助的,都需要单独作为犯罪处罚。

(3)适度降低入罪门槛:从保守刑法谦抑观向刑法妥当处罚观的转变

追本溯源,刑法谦抑性精神的核心是对刑罚权予以必要的限制,强调刑罚权发动的慎重性与正当性,与犯罪形势、社会形态等因素保持一致的基础上的合理限制刑罚权,与保障人权、保卫社会的双重任务并不存在本质冲突[34]。在当前人工智能快速发展的背景下,人工智能领域犯罪的社会风险不断出现,其中,有些利益成为了新型利益,其之前没有受到刑法保护而现在需要由刑法保护;有些传统法益增加了新的内容,外延也发生了变化且受到了新的侵害[35]。因此,刑法应当由“限定的处罚”转向“妥当的处罚”。进行合理限度的预防性刑法立法不违背刑法谦抑性。总体而言,可以考虑扩大刑法的保护范围,将人工智能系统及数据作为刑法保护的范围,同时取消一些关于“严重后果”的入罪门槛。同时,强化人工智能体研发者、制造者、使用者的安全保障义务,增设追究不履行人工智能安全管理义务者过失责任的罪名。按照刑法的谦抑性精神,过失责任要求责任主体违反预见义务致使人工智能体造成了严重危害后果。具体到人工智能这一新兴高科技领域,预见义务应当考虑人工智能技术的发展水平,应以违反了现有前置行政法关于人工智能体研发、制造、使用的安全管理规定作为违反义务的判断标准。

2.人工智能时代预防性刑法立法的具体建议

人工智能时代预防性立法的思路应该是:扩大对人工智能系统及其数据本身的保护;对于故意犯罪,将侵害人工智能系统及数据的犯罪、滥用人工智能系统及数据的犯罪设置为抽象危险犯,只要实施了相关的行为即可构成犯罪;对于过失犯罪,人工智能研发者、制造者和使用者违反人工智能安全管理义务并导致严重后果的,应承担刑事责任。具体立法建议如下:

第一,将非法侵入计算机信息系统罪的保护对象扩大到人工智能系统及其数据。具体而言,建议在刑法第285条第3款之后增加1款作为第4款:“违反国家规定,侵入、控制人工智能系统的,依照第1款的规定处罚”;“违反国家规定,侵入、获取该人工智能系统中存储、处理或者传输的数据的,依照第2款的规定处罚”;“提供专门用于侵入、非法控制人工智能系统的程序、工具,或者明知他人实施侵入、非法控制人工智能系统的违法犯罪行为而为其提供程序、工具的,依照第3款的规定处罚”。

第二,将破坏计算机信息系统罪保护的人工智能系统及数据的入罪门槛降低。具体而言,建议在刑法第286条第3款之后增加1款作为第4款:“违反国家规定,对人工智能系统功能进行删除、修改、增加、干扰,影响人工智能系统正常运行的,依照第1款处罚”;“违反国家规定,对人工智能系统中存储、处理或者传输的数据和应用程序进行删除、修改、增加的操作,依照第1款的规定处罚”;“故意制作、传播人工智能病毒等破坏性程序,影响人工智能系统正常运行的,依照第1款的规定处罚”。

第三,增设不履行人工智能安全管理义务产生的人工智能事故罪。建议在刑法第286条之一后增加1条作为第286条之二:“人工智能系统及数据服务提供者不履行法律、行政法规规定的人工智能安全管理义务,因而发生人工智能体实施违法犯罪活动的事故或者造成其他严重后果的,处三年以下有期徒刑、拘役或者管制,并处或者单处罚金。”

第四,增设滥用人工智能体罪。建议在第287条之一第1款后增加1款作为第2款:“研发、制造、使用用于实施违法犯罪活动的人工智能体,依照第1款的规定处罚。”

第五,增设帮助人工智能体犯罪活动罪。建议在第287条之二第1款后增加1款作为第2款:“明知他人利用人工智能体实施犯罪,为其犯罪提供人工智能技术支持或者其他帮助的,依照第1款的规定处罚。”

四、结 语

由于本文主张人工智能时代应当修改现有预防性的刑事立法以有效规制人工智能体带来的刑事风险,在此能否以扩大解释的方法将传统刑法规范适用于人工智能体犯罪呢?本文认为,刑法的扩大解释虽然能够解决绝大多数人工智能体带来的刑法适用问题,但是罪刑法定原则下的扩大解释是有边界与限度的,对于人工智能体在行为方式、行为对象方面的独特性,有些新型人工智能体犯罪并无法被现有刑法规定所涵摄。

保护法益是刑法的任务,而基于比例原则的要求,刑法只能将具有严重法益侵害性的行为纳入刑法,那么人工智能时代修增罪名的限度需要围绕法益侵害的程度展开。

刑法不同于行政法、经济法。行政法、经济法可以保护单纯的行政管理秩序;刑法保护的法益必须是能够满足人的自由发展需要并且能够具体地掌握或者至少要有掌握的可能性的实体性法益。当前预防性刑法立法的领域主要存在于网络犯罪、公共安全犯罪等可能侵害不特定人或多数人实体性法益的犯罪,这种立法现象总体上具有正当性,在人工智能领域采取预防性刑法立法将会成为未来的立法趋势。在人工智能时代,人工智能的应用可能带来较大的技术风险和滥用风险,由此可能导致以人工智能系统及数据为犯罪对象以及利用人工智能系统及数据实施的犯罪多发,针对这些问题,应当采用预防性的刑法立法。不过,本文研究的预防性刑法立法问题有一个技术性的前提,即随着人工智能技术的发展和应用领域的延展,至少应当对人工智能体、人工智能系统及其数据有一个较为通识的界定。正如有学者指出,网络专业术语的法律解码是网络犯罪立法快速稳步推进的主要因素[36],人工智能时代的刑法立法更是如此。在人工智能的专业术语没有通行的法律解码的条件下,不宜盲目增设相关罪名,对于实践中已经发生的人工智能领域犯罪,可以通过扩大解释相关条文的关键词如“信息网络”予以解决。

猜你喜欢

计算机信息法益预防性
德日“法益说”适应中国的“四维”改良*
市场主体登记秩序法益的刑法保护*
新生儿黄疸治疗箱常见故障处置及预防性维护实践
预防性树脂充填术治疗窝沟浅龋的疗效观察
PRECIXION X-RAY 225生物学辐照仪常见故障维修方法与预防性维护
预防性公路养护技术在现代高速公路养护中的应用
对“法益论”的审视与反思
计算机信息技术在食品质量安全与检测中的应用
探究提高计算机信息管理质量的有效策略
浅谈刑法中的法益