人工智能刑事主体地位的否定和反思
2024-05-10冯浩然
冯浩然
(武汉大学,湖北 武汉 430072)
一、问题的提出
随着ChatGPT 等人工智能产品的迭代,如何对人工智能进行准确定位和有效法律规制的理论问题日益突出。2017 年,国务院《新一代人工智能发展规划》 明确提出我国人工智能技术将进入一个全新的发展时期,在此基础上也揭示了人工智能在社会发展与经济发展中的关键地位。但是,我们既要意识到人工智能的社会影响日益凸显,在智慧校园、智慧农业、智慧医疗、智慧运输等民生领域发挥正向的作用,也要意识到个人信息、数据安全和隐私泄露、人工智能作品知识产权的保护、人工智能产品造成他人人身伤害或者财产损失的民事法律责任、人工智能产生的刑事风险等一系列社会伦理以及法律问题已经显现出来。人工智能的快速发展给刑事法律制度带来了一系列挑战,其中最重要的就是刑事责任分配的问题,相较于研究设计和使用人工智能的自然人是否可以成为刑事责任的承担者,人工智能本身是否具有刑事责任主体的资格更是一个应该研究的基础性问题。
目前,欧美主要国家针对人工智能领域的责任问题已经逐步形成了共识,并且在现实世界中在发挥着作用。2016 年,JURI 发布European Civil Law Rules in Robotics,并提出设立欧盟人工智能监管机构并将更智能的自主机器人作为法律意义上的电子人对待。德国于2017 年率先发布了《道路交通法第八修正案》,以修法的方式对高度或者完全自动的驾驶技术进行概括性准入。2021 年德国联邦法院又通过了《自动驾驶法》的草案。2021年1 月,美国依据《2020 年国家人工智能计划法案》 设立国家人工智能计划办公室。2023 年5 月11 日,欧洲议会通过了《人工智能法案》(the AI Act)的谈判授权草案。法案严格禁止“对人类安全造成不可接受风险的人工智能系统”。此外,草案还要求部署ChatGPT 等生成式人工智能工具的公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统。
人工智能技术的快速提升凸显出加强人工智能领域研究的迫切性,我国在人工智能领域还未出台相应的法律法规,学界也没有形成统一的共识,尤其针对刑事主体资格认定的问题。目前在我国,学术界普遍认为,如今社会还是弱人工智能时代,“仅具有局限于特定领域的专用智能和感知智能,离以通用智能、认知智能为标志的广义人工智能特别是超级人工智能还有较大差距”。[1]不过,一方面,技术的发展速度是人类无法预料的,或许在不久的将来,强人工智能就有可能出现,就如同科幻电影《Artificial Intelligence》展现的那样,21 世纪的中期人类的科技水平达到了相当高的水平,也发展研制出了强人工智能;另一方面,人工智能的不可控性本身就会带来刑事风险问题,因此,研究人工智能的刑事主体资格的问题就显得尤具重要和必要。
未来将至,对人工智能刑事主体资格的研究是对人工智能犯罪进行深入研究的首要任务。本文将针对我国国内学者的观点以及相关案例出发,论证人工智能并不具备成为刑事主体资格的条件,并且论述涉人工智能犯罪时刑事责任的承担主体。
二、人工智能刑事主体地位的否定
在我国现行的刑法理论中,犯罪主体是指实施犯罪行为,并依法应当对自己的罪行承担刑事责任的自然人和单位。因此,犯罪主体应满足三个方面的基本要求:其一是具有辨认和控制自己行为的能力;其二是实施了危害社会的罪行;其三是依法应负刑事责任。在上述条件中,能够辨认和控制自身的行为是决定犯罪主体是否可以成立的重要条件。此外,出于社会规制的需要,刑法可以运用拟制的方式赋予某种社会对象以刑事主体地位。因此,笔者首先将从人工智能的责任能力、人工智能的行为能力、人工智能的受刑能力以及人工智能的拟制条件等五个方面论证人工智能无法成为刑事主体。
(一)人工智能欠缺责任能力
具有刑事责任能力是行为人承担刑事责任的先决条件,如精神病人实行了具有社会危害性的犯罪行为,但因其不能辨认或者不能控制自己的行为而造成了严重的危害后果,因此不能受到刑罚的制裁。一般认为,对行为人刑事责任能力的判定主要有两个方面,即辨认能力和控制能力。但是,一方面,人工智能不具有辨认能力和控制能力,另一方面,我们也无法准确认定人工智能的辨认能力和控制能力。
1.人工智能不具备刑事责任能力。是否具有刑事责任能力取决于行为人是否对自身的行为及造成的后果具有辨认和控制能力。研究人工智能在上述两方面的能力问题,对于界定人工智能在刑法意义上的地位具有关键作用。辨认能力是指行为人对自己行为的认知能力,包括从刑法规范评价的角度出发认识到自己行为的作用、性质以及造成的后果和影响。而控制能力是指行为人能够支配自身行为的能力,且此种支配力应基于行为人的自主意志的控制。
辨认能力和控制能力是基于行为人的自由意志而产生,而自由意志产生的先决条件是,行为人能够认识其行为的价值或行为的是非善恶。[2]397这种是非善恶当然包括对社会规范的认识,即行为人对自己行为社会属性的认识,即认识到自身行为是否违背法律规范、自身行为是否具有社会危害性,并且对违反法律规范的行为是否可以控制。人工智能无法对违反刑法规范进行理解和控制,如微软小冰①微软公司推出的一套完整的、面向交互全程的人工智能交互主体基础框架,除了可以作为聊天机器人,还可以成为少女歌手、主持人、女诗人、记者和设计师。,其可以通过与用户大量的对话来迅速积累训练数据,并在平均对话长度、上下文相关性、对话信息含量与话题引导等方面进行深度学习,之后根据算法程序对用户的信息进行反馈。但这只能说明微软小冰具有严格执行人工程序指令的能力,其无法自行决定继续还是中断聊天对话,仍需要用户使用唤醒词开启对话。一些用户可能在与微软小冰的对话中刻意表述违反法规范的言论,引导小冰学习并导致其向其他用户散布,造成了危害社会秩序的后果,小冰并不理解自己散布这些言论的行为已经侵害他人的法益,只是机械地依照程序的设定学习然后反馈处理,无法具有规范意义上的控制能力。
也有些学者提出可以向人工智能输入大量的法律法规、案例等信息资料,通过其自身的深度学习来实现对规范层面的认识,[3]但这样的做法过于机械,实际上忽略了人工智能是被设置去认识法律规范,仍然是由自然人进行主导控制并没有自主性,而且人工智能与自然人可以进行知觉、经验化、想象等认知活动不同,其只能进行运算、分析等操作,其在认知活动和认识能力方面都是与自然人有较大差距。
尽管人工智能具有比自然人强大的信息采集和数据分析能力,但是“其本身对刑法规范既无理性的认识与遵从能力,也不能体会到违反规范所造成否定性评价带来的消极后果”。[4]71因此,人工智能并不具备刑事责任能力。
2.无法认定人工智能的刑事责任能力。根据我国刑法的规定,对于行为人是否具有刑事责任能力有很具体的标准,即刑事责任年龄和精神状态。并且其中刑事责任年龄的制定是基于自然人的身心发展状况、接受教育的条件以及政治、经济、文化水平而严格制定的,精神状态的判断也需要同时结合生物学的方法和心理学的方法。而反观人工智能,缺乏明确判断刑事责任能力的标准和依据。如果把人工智能的智能发展程度作为衡量的标准,也存在较大的问题:一方面,此种标准仍较为模糊,缺乏具体可以参照的量化标准;另一方面,制定此种标准必然涉及技术层面,而目前各个企业制造人工智能技术标准不一致,在各方之间形成共识也需要较为漫长的探索过程。
不能单纯地从具有辨认与控制能力的路径来证明人工智能具有刑事责任。辨认和控制能力是刑事责任主体地位论证的必要条件,而非充要条件。辨认和控制能力是刑事责任主体的核心要素,而不是刑事责任主体的全部。换言之,其逻辑关系是因为不具有辨认和控制能力,而排除了人工智能承担刑事责任的可能性;而并非因具有辨认能力和控制能力,人工智能才具有刑事主体地位。[5]
(二)人工智能欠缺行为能力
行为是产生犯罪的前提,同时也是认定犯罪分子承担刑事责任的重要条件之一。刑法理论发展史上关于行为的理论学说也有诸多不同角度的研究:自然行为论主张行为是纯粹的能使外界发生变化的动作,包括身体的“动”和“静”,不讨论有关意识方面的内容;因果关系论主张行为是意识、动作以及结果发展的现象,涉及“有体性”和“有意性”两方面;目的行为论主张行为是自然人为了达到一定目的而进行的动作,以人对因果关系的认识作为基础;人格行为论主张行为就是自然人人格的体现,行为的本质是人格行为。[2]184-185
尽管不同学说研究行为理论的角度不同,但均是以存在人的肉体作为出发点。不同的学说可以从两个方面进行分析:一是客观上,行为是人身体进行的活动,包括积极举动和消极静止,需要具有一定身体的动静;二是主观上,行为是人有意识的活动,是人自主意志控制的产物和表现。因此,刑法规范意义上行为的客观和主观两方面的要素必须齐备,缺一不可,单纯的思想以及无意识的动作都不可以被称为行为。在此意义上,行为能力就是指行为人以自身的自主意志控制自身身体实施活动的能力。
通过比较人工智能运作机理可以得出:第一,人工智能的动作并不是一定的身体活动。人工智能缺少生理学意义上肉体这一核心要素,人工智能的动作只能算是物理学意义上的机械运动。第二,即使对行为进行扩大解释,把人工智能进行活动认定为满足行为的客观要素,但人工智能仍缺乏自主意识,这一行为的主观要素,其不是在自身意志支配下实施的行为,而是按照设定的程序来执行既定的操作。也有学者提出人工智能具有一定的深度学习能力,并非完全按照编制的程序进行活动,其可以按照自主意志实施行为,但是深度学习本质上还是一种机器学习算法,只不过相比其他算法更为复杂。尽管人工智能深度学习的过程具有一定的不可预见性,但深度学习这套算法仍是由技术开发者编写,所以人工智能仍是受制于自然人,并不具有自身的独立意志。
综上,人工智能在现行的刑法理论下不具有行为的客观要素和主观要素,因此其所实施的动作不能成为刑法意义上的行为,并且由于其无法产生自主意志,因此行为能力也是人工智能所不具备的。
(三)人工智能欠缺刑罚能力
刑罚能力,又称受刑能力,是指犯罪分子对刑罚接受以及承受的能力,亦即适应刑罚的能力。“刑罚的本质是痛苦,是犯罪相关联并给犯罪人带来痛苦的制裁措施。”[6]刑罚能力一方面要求犯罪分子可以体会到刑罚的自然属性——痛苦性;另一方面要求犯罪分子可以承受刑罚对自己的惩罚后果。从上述方面出发,人工智能缺乏刑罚能力。
1.无法实现刑罚目的和功能。中国刑法理论普遍认为,刑罚的目的是预防犯罪,其具体表现为两个方面,一是特殊预防。即对于罪犯,应采取刑罚措施,以防止其再次犯罪;二是一般预防。对于罪犯之外的社会成员,可以在制定、适用以及执行刑罚的同时,以防止社会上有可能模仿罪犯的人实施犯罪。然而,对人工智能施加刑罚不可能实现上述的两个目的。
(1)人工智能无法实现刑罚特殊预防的目的。特殊预防以犯罪人可以感受到剥夺性痛苦作为前提,但是人工智能是无法感受到刑罚带来的痛感的。人类因为具有自然的肉体以及心理所以可以感受到自由刑、财产刑带来的痛苦,而人工智能仅是由机械零部件以及编制的程序软件组成,本身无法感受到痛苦。对人工智能进行物理上的拆卸或者破坏并不能让其产生恐惧心理而不敢再次犯罪,更无法实现刑罚特殊预防的目的。
在实现特殊预防的目的的同时,刑罚也发挥着个别威慑功能和教育感化功能,即一方面使犯罪人产生恐惧接受刑罚而不敢再次犯罪,另一方面使犯罪人在刑罚的适用和执行过程中受到教育,培养其养成良好的行为规范意识。首先,上文已提及,人工智能无法体会到刑罚带来的痛苦,自然也不会产生恐惧心理而害怕再次承受刑罚,即使技术的发展使得人工智能通过相应的机理可以感受到一定的痛苦,但也不能和自然人所感受的程度一样,相应的刑罚应有的功能无法完全发挥出来;其次,尽管可以靠修改或者删除编制的程序来实现人工智能犯罪意识的消除,但实际上架空了刑罚的教育功能,审判过程以及刑罚执行中的教育活动并不会对人工智能产生影响。
(2)人工智能无法实现刑罚一般预防的目的。刑罚通过两个方面实现一般预防的目的:一方面,主要通过刑罚的适用来对社会上的一般人进行威慑,使其恐惧受到刑罚而不敢犯罪;另一方面,主要通过刑罚的适用和执行来强化其他社会成员对法律的忠诚和信赖。
首先,对人工智能适用刑罚并不会对其他的人工智能产生儆戒。人工智能形成对事物的认识是靠编程和深度学习而非生活经验,加上人工智能设计的初衷,人工智能的认识程度仅限于某一特定领域,对社会没有整体认知,其判断对错的标准也就有可能和自然人不同。[7]而且自然人是具有社会属性的,这也是刑罚可以实现一般预防目的的原因,而人工智能之间不存在交互,使其并不了解对犯罪的人工智能施加的刑罚,更不会因此调整自己的行为。
其次,对人工智能施加刑罚不会增强民众对法律的信赖。社会上的自然人是刑罚达到一般预防目的的基础。如果对人工智能适用刑罚,会引发公众对人工智能的社会地位产生怀疑,反而会削弱民众对法律的信任感和忠诚度。
最后,刑罚在达到一般预防目的的过程中,也发挥着安抚功能和补偿功能,即对受害者及家属产生心理上或者经济上的补偿安慰,使其报复的心理情绪得以平复。但“人工智能不具有生物学意义的生命体征、肉体上的痛苦感知与伦理上的负罪谴责感,无法通过刑罚实现被害方心理上的平衡与宽恕”。[4]73
2.无法适用传统的刑罚体系。我国传统的刑罚体系分为主刑和附加刑。主刑包括短期自由刑、长期自由刑和生命刑。主刑主要是限制或者剥夺人的基本权利之一自由以及结束自然人的生命。即使人工智能未来被赋予主体地位,但人工智能并不享有人身自由权以及生命权,其生命的形式只能以是否存在作为判断标准,没有可以施加主刑的基础。附加刑包括财产刑和资格刑,其惩罚的内容是剥夺罪犯的财产权益以及剥夺其享有的某些法定权利,而人工智能并没有自己的财产并且法律也没有赋予人工智能一定的权利,没有可以施加附加刑的基础。因为对人工智能而言,传统刑罚措施的施加会导致刑罚效果的灭失,因此,人工智能无法适应传统的刑罚体系。
上文指出,为了弥补现有的刑罚措施不能适用于人工智能的漏洞,有些学者通过重构刑罚体系来实现对人工智能的刑罚制裁,主张为人工智能设立新的刑罚种类:删除数据、修改程序、永久销毁。[7]但是无论如何设置刑罚,都无法从根本上实现刑罚一般预防和特殊预防的目的,不可能让人工智能和自然人一样感受到刑罚带来的痛苦,因为人工智能不可能拥有人类与生俱来的感情和伦理道德认知。而且本身这种新的刑罚种类也存在缺陷,比如删除数据或修改程序,自然人可以删除或者修改某一个犯罪的人工智能的数据,但无法排除其他人工智能通过学习再次产生类似的违法犯罪的负面数据的可能性。
同时,也无法对人工智能进行合理的量刑。司法实践中的量刑通常会考虑行为人的主观恶性,但经过上文的论述,人工智能不具备主观意志。从理论和事实层面分析,人工智能产生自由意志仍然是一个需要论证的推测。人工智能也无法通过自身程序运算而计算出自己和他人的主观意志。没有主观方面的善恶,无法区分故意与过失,也就无法对人工智能准确地量刑,更无法对人工智能适用相应的减刑情节。所以,对人工智能的刑法体系构想在理论层面和实践层面均是站不住脚的。
综上,一方面,对人工智能施加刑罚措施会架空刑罚的目的和功能,另一方面,人工智能与现行的刑罚体系格格不入,传统的刑罚措施不能发挥效果,所以人工智能并不具有刑法规范意义上的刑罚能力。
(四)人工智能欠缺拟制条件
一些学者认为,根据法人成为犯罪主体的思路,人工智能可以借鉴其理论逻辑,探索出一条新的道路。[8]未来的发展方向就是将人工智能拟制成为刑法上的主体,类似法人。[9]笔者认为,由于人工智能缺少可以像法人(单位)一样拟制的条件而导致其无法参考拟制主体法人这条路径。
1.法人拥有独立自主的意志,人工智能没有。尽管法人是由自然人组成,但在实行行为时需要以法人的名义并且按照法人规定的程序经过法人的决策机构讨论决定,即法人拥有独立的整体意志,并不是某一个成员的意志或者轻易地叠加全部成员的意志。法人整体意志的根源在于自然人但又与自然人的意志不完全相同,其符合意志的本质特点;人工智能是按照预设的算法和程序进行行为,本质上不属于意志,而且在运行方式上并没有经过类似法人的决策程序或通过法人的决策机构将各个成员的意志在协调一致的基础上转变为整体意志。
2.法人拥有独立的利益,人工智能没有。要成立单位犯罪,必须要求犯罪人是出于单位的需要谋求非法利益或者犯罪所获利益基本都归单位,在此意义上,法人拥有财产权;而人工智能本身并不享有独立的财产利益,其只能作为财产内容而存在。
3.法人犯罪以刑法规范明确规定为前提,人工智能没有。法人犯罪具有法定性,刑法规范中明确规定了法人可以作为某种犯罪的主体;人工智能犯罪涉及范围广,而且不仅牵涉法律问题,还包括伦理等问题,并没有法律的明确规定,缺乏必要的规范基础。而且法人被拟制为刑事主体之前,有着充足的社会实践基础和法律经验。在列为刑事主体之前,单位已实质性地参与到社会经济关系之中,各国对企业有着充分的社会管理经验。单位有着在先的立法实践,为立法机关将单位新增为刑法主体积累了充分的立法实践基础和经验来源。[10]
综上,人工智能并不具有刑法规范意义上的辨认和控制能力、刑法中行为的客观要素和主观要素、承受刑罚的能力以及拟制为类似法人的条件,无法突破理论障碍,因此人工智能不能成为刑事主体。
三、涉人工智能犯罪的刑责分配
基于上文的分析,不论是强人工智能还是弱人工智能都不具备成为刑事主体的必要条件。所以在对其进行规制时,不能过于关注人工智能而忽略了传统的责任主体。应当坚持以自然人为中心,以传统刑法理论为基础,合理应对人工智能犯罪刑事责任问题。对于人工智能带来的风险,刑法不应只是简单地增设罪名,而是要全面地评估当前人工智能技术的特点以及未来可能的发展方向,并在平衡科技发展和预防犯罪的前提下处理好相关问题。从整体上看,对于人工智能时代的可能出现的风险应当理性看待,没有必要无限扩大。在我国刑事立法中,对于人工智能犯罪的规制,应该以谦抑原则为基础,做出合理的回应,在处理涉及人工智能的犯罪时,仍然应该由人工智能的设计者、生产者和使用者来承担刑事责任。
(一)人工智能设计者和生产者的刑事责任
人工智能的设计者和生产者的行为属于人工智能犯罪的初始原因,并非最直接的原因,应区分为故意犯罪和过失犯罪。首先,当设计者和生产者为实施人工智能犯罪而研发制造专门用于实施犯罪的人工智能时,并且其为人工智能编制了实施犯罪行为的一系列程序,或者向人工智能输入大量和犯罪有关的负面数据,则人工智能侵害法益的行为是基于设计者和生产者的目的,能够被视为设计者和制作者行为的延伸,人工智能的设计者和生产者是明知自己的行为会导致社会危害的结果,但仍然设计或者制造人工智能,存在犯罪故意,两者应当成立相应的故意犯罪,并且可以适用刑法理论中的预备行为正犯化等进行前置保护。根据人工智能算法及对应数据库的性质,可以对不同类型人工智能的研发者和生产者的刑事责任承担方式加以区分。
其次,目的不是为了用于实施犯罪的人工智能的设计者和生产者,可能会构成过失犯罪。不论是由于人工智能本身存在的漏洞,还是由于人工智能经过自身的深度学习功能进而实施了偏离预设程序的行为,设计者或者生产者都在注意义务方面存在一定的过失。虽然各个类型的人工智能对相关主体注意义务内容要求不同,但目前针对人工智能的注意义务大多集中于监督义务和避免义务。如医疗人工智能介入手术操作时,医生不再占据主导地位,但是手术全程仍需要承担对医疗人工智能的监督义务,并且在医疗人工智能出现故障时,随时接管继续进行手术操作。设计者或生产者与人工智能之间的关系类似于管理者和管理对象之间的关系。设计者或生产者必须妥善管理人工智能,在研发和生产人工智能的过程中以及售后阶段,除确保设计和生产的人工智能属于可控及有益状态外,还需要持续跟踪观察,定期检测自己生产的人工智能的智能化程度,对于可能出现的新情势应及时告知使用者等等。
而且,人工智能问题涉及法律、技术、伦理等领域,本身具有复杂性,要规范人工智能的发展,同样也不止需要法律的手段,还需要综合运用技术、管理、伦理等手段。在今后的发展过程中,我国人工智能产业的国家标准和行业标准、法律法规、一般伦理都应进一步完善对设计者和生产者注意义务的规定,以达到防范刑事风险的目的。[11]
(二)人工智能使用者的刑事责任
人工智能使用者的不同行为方式会导致刑事责任分配的不同。首先,人工智能的使用者借助专门为了实施犯罪的人工智能,或者非专门为了实施犯罪的人工智能进行犯罪,使用者的这种行为属于明知自己的行为会发生危害后果,但却依然希望或者放任这种后果发生,已经违背了人工智能的设计理念,应当以相应的故意犯罪论处。其次,如果使用者对人工智能的使用都是完全按照最初预设的用途和使用方式,使人工智能独自地执行某项操作,但是却造成了严重危害社会的结果,那么,使用者不需要为自己的行为承担刑事责任。如果使用者按照使用说明,和人工智能共同完成某项任务而导致了犯罪结果的发生,此时使用者在注意义务方面具有一定的过失,应当以过失犯罪追求其刑事责任。
但是,人工智能的使用者的注意义务与上文的设计者和生产者的注意义务应该有所区别,设计者和生产者相较于使用者还是具备一定的专业知识,所承担的注意义务的内容和程度是相对较高的。人工智能使用者只需要承担一般过失的责任,但是前提是生产者或设计者已经详细告知了使用者人工智能在使用过程中的注意事项、可能出现的风险和预防措施。如果设计者或生产者并没有履行提醒告知的义务,那么使用者就会对相应的注意事项毫不知情,使用者在使用过程中由于操作不当而导致了危害后果的发生,那么责任不应该由使用者承担。在美国已有此类案例发生。一位患者因前列腺癌接受达芬奇手术机器人的治疗后,直肠破裂、急性肾功能衰竭、中风和失禁。患者家属认为,因为操作达芬奇手术机器人的主治医师没有接收到充足、正确的技能培训,相应的制造公司应当承担责任。[12]
通常情况下,人工智能一般都会在既有的程序范围内实施特定的行为,但是人工智能还是有可能因失控或故障而做出人类的意志之外侵害法益的行为。通过上文的论述,基于现行的刑法规范,首先应当考虑人工智能的设计者、生产者或使用者对人工智能造成的危害后果承担刑事责任。但是,人工智能的行为可能超出人的意志,所以人工智能的设计者、生产者或使用者不构成故意犯罪。针对以上的情况,要考虑上述主体是否构成过失犯罪,就需要进一步考察主体是否违反了注意义务、主体对危害后果是否具有预见可能性以及是否具有结果回避可能性。以手术机器人类型的医疗人工智能为例,当医疗人工智能由于自身系统的故障或失控而引发患者轻伤、重伤或死亡等严重后果时,医生就有可能因为没有尽到对医疗人工智能的监督义务等注意义务而需要承担责任,构成医疗事故罪。但是,如果没有预见可能性,或者根本无法避免,则不能追究制造者或者使用者的刑事责任。
四、结语
霍金曾预言:人工智能的出现可能是人类发展史上最为重要的事件,但也许也是最后一件,除非我们学会如何规避风险。尽管技术是中立的,但我们也不能对人工智能拥有过多美好的猜想。在人工智能不断推进社会发展进步的同时,也必须关注到人工智能所涉及的法律风险。人工智能无论是弱人工智能还是强人工智能,由于始终无法突破刑事主体理论的障碍,而无法成为刑法意义上的“人”。同时由于人工智能和单位存在着较多区别,也无法被拟制成为新的主体。当人工智能犯罪发生时,仍应坚持自然人主义的立场,认清人工智能的应用活动本质上是人的活动,由人工智能的设计者、生产者或者使用者承担刑事责任。面对人工智能的世纪浪潮,人工智能必然成为刑法立法和理论关注的新命题,但刑法始终应该秉持着“沉稳”和“谦抑”的品格,秉持着前瞻性而非超前性,既立足于当下,回应现实需要,又展望未来,对刑法理念的发展进行更多思考,在促进和保障人工智能技术的发展和保护法益之间积极寻找平衡点。