刑法面向人工智能的理论应答
2022-02-27孙道萃王晓杰
孙道萃,王晓杰
(1.中国政法大学 国家法律援助研究院,北京 100088;2.哈尔滨市中级人民法院,哈尔滨 150001)
一、问题的提出
《未来简史》曾预测未来之法:人工智能在未来将获得统治地位,人类的法律将变成一种数字规则,除无法管理“物理定律”外,将规范人类的一切行为。[1]人工智能技术的广泛应用,突显人工智能技术伦理及其风险治理等问题的紧迫性与重大性。人工智能与现代法律加速交互乃至冲突。近现代法律体系如何应对人工智能的风险及其不确定性因素,以及能否推动法律体系与时俱进等紧迫问题越发凸显。刑法制度在整个法律体系中扮演举足轻重的作用,它与人工智能的遭遇战已然上演,迫切需要探讨智能时代可能带来的严峻挑战及其对策。理论上对当代刑法积极回应人工智能形成了不少担忧与质疑。但是,积极乐观的前瞻性探索亦不甘示弱。尽管人工智能对法律制度的缓慢“冲洗”是这场巨变的客观效应,但也展示出刑法变革的“无限潜能”。人工智能技术及其应用具有双面性,不能因其潜在的负面影响而因噎废食。在挑战与机遇并存之际,刑法更加应当统筹应对人工智能安全问题。人类社会也应重新思考未来的可能性,更理性地塑造和引领人工智能的发展而“不失位”。当代刑法制度正在遭遇多重发展危机,适时予以调整才能彰显刑法积极变革的时代气度。从规范维度作出前瞻性的应对是根本之路,甚至畅想“人工智能刑法学”也是有依据和意义的前沿探索。[2]譬如,对人工智能的刑法主体地位,采取更加积极的立场,虽会超前于现阶段的技术水平与认识观念,却不失为面向未来的探索。经由观念的调试与建构,不仅便于总结并提炼刑法理论对人工智能问题的研究共识与应对经验,也更加直接“渗入”刑法学的内在与体系,以建构性的前瞻思维谋划与锚定刑法的未来取舍。
二、人工智能刑法的理论课题
人工智能技术及其应用,对“人的主体性地位”与人类社会结构的增量冲击与分离态势,已经使当代刑法制度开始承受诸多挑战。这是当下挑战的肇始之端。
(一)“人的主体性”与刑法根基原点的动荡
人工智能时代首先可能动摇人的主体性地位及其命运,这对当代刑法不免形成釜底抽薪的剥离效应,也成为人工智能与当代刑法交锋后的首要风险所在。
1.离经叛道中的“人的主体性地位”。人工智能技术可模仿和复制人脑的智能。虽不是人的智能,但能“类人”地作出价值判断。过去被动执行人设计程序命令的智能机器人,不断增强自主性和创造性,使“智能主体(智能产品、智能机器人等)将来能否超越人这一法定宿主”的担忧愈演愈烈。人类社会的“数字化”程度与“物化”趋势递增,以至于“人”可能被“物化(客体化)”的认识绝非杞人忧天。这触发“何以为人,人将何为”的本源“生存”问题。在现阶段,人工智能主要是人类主体改造世界的新实践工具,现实社会基础仍决定人类未来走向。尽管目前让人类真正忧虑和恐惧的上述事实,仍缺乏坚实的理论依据与迫近的大规模实践,甚至还可能夹杂对人工智能的拟人化威胁的过度扩大化。然而,围绕智能主体是否可以且最终替代人的主体性地位展开的争论异常激烈[3],充分说明事态的严峻性。例如,设计的人工智能机器人自主发展出人类无法理解的独特语言,Facebook关闭引起广泛争议的“开发人类无法理解”的沟通智能对话机器人项目,避免陷入道德伦理的“失控”。人工智能对“人”主体性的冲击与侵蚀,已经从人类语言这一最基础环节开始渗透。未来出现独立存在的智能机器人与人工智能社会并不意外,而是现实物理社会高度“进化”的结果。在沙特阿拉伯举行的“未来投资倡议”大会上,高仿真“女性”机器人——“索菲娅”被授予沙特“公民”身份,成为史上首位获得“公民”身份的机器人。[4]“智能人”的最终出现以及难以预测的人类危机、生存危机与重大社会问题等,加速“人”的地位和生存语境、“人之何为人”、“人是否还是独立的人”等问题相继迭出,使传统刑法立足的根基陷入“灾难”。尽管这种“生存危机”是面向未来的预测。
2.“人本”理念的弥散效应。近现代刑法确立了犯罪主体概念,贯穿犯罪(认定犯罪)、刑事责任(刑事归责)与刑罚(确定刑罚)的全过程。自然人自始至终是犯罪主体的绝对主导类型,法人也是近几十年的新生主体。自然人具有相对的意志自由,以及辨认能力与控制能力,是实施犯罪、承担刑事责任和接受刑事处罚的哲学基础与法律基础。单位或法人拥有的是法律拟制犯罪能力、承担刑事责任能力。作为人类社会文明的“智力产物”与“社会治理工具”,法律制度,尤其是刑法等部门法,在脱离“人的主体性”的成立前提与基础后,必将经历法律是否存续、法律如何产生、法律为谁服务、法律由谁监管等重大制度蜕变的潜在危机。
自从人类社会有了犯罪与刑罚后,犯罪人、罪犯、行为人等概念便随之产生。人工智能可能使刑法中习以为常的自然人地位处于不确定的异常状态。它集中在以下两个方面:
(1)人的刑法主体格局之替代性。人工智能引发了“人不再是唯一的统治者”“人是可以被超越的”等担忧。“人”从绝对的神坛逐渐跌落与人工智能应用范围的扩大,将对人类社会自古以来形成的“人的主体性”等认识论构成根本冲击。从技术条件来看,智能主体可以具有独立自主的行为能力,有资格享有法律权利并承担责任义务,也应当具有法律人格。[5]如此一来,智能主体或将取代裹以肉身的自然人,甚至演变为刑法主体,可以实施犯罪、承担责任和接受惩罚。[6]譬如,智能驾驶汽车冲击传统交通事故犯罪的“共识”[7],包括“人”不再是法定的驾驶主体与危险制造者,也不能直接作为责任主体等。[8]这直接摧毁了当代刑法的逻辑起点以及传统犯罪观念的整体合理性。“人”不再是犯罪的主体,将摧毁传统刑法制度的根基。尽管从“图灵测试”、神经网络算法与翻译程序等技术来看,当前人工智能技术或产品,仍属于人类主动界定的“拟人智能”。在未来很长时间内都可能是从属于人类的工具。但是,量变的基本趋势不可阻挡,“以人为本”的刑法立足点将逐渐受到侵蚀。
(2)智能主体的“纯粹犯罪工具化”倾向。在现阶段,人工智能技术的非可视化、可控制性偏低、计算过程的非透明化、运行结果的难逆转性与不可救济性等情况,不仅是其技术危险的真实写照,也使人类社会面临巨大的制度危机,更将当代法律制度何去何从推向抉择的关口。人工智能技术与智能主体,可能成为人实施犯罪的新犯罪工具。智能主体的不透明性、规模效应及损害性等特质,也可能造成歧视、个体损害等不利后果,甚至异化为“杀伤性数学武器”等。这反映出当代刑法制度的历史局限性及其规定的滞后性。虽然人工智能时代的整体到来及其对刑法的渗透是一个渐进的浸入过程,传统刑法体系仍长期占据主导地位。然而,在两股强大力量的相互角力过程中,传统刑法坚守的“以人为本”立场必然有所弱化。如不改变司法适用策略,并从立法上作出修改,极可能无法有效应对智能时代的新型犯罪及刑事归责问题。
3.刑法“工具属性”的质变。现代刑法制度是人类社会有组织反应犯罪的“人造物”,是人类社会控制犯罪的“高级”手段,是人类治理社会的重要工具与制度供给措施。[9]近现代刑法以人的主体性为前提、以人的危害行为为调整对象,力图实现社会有机体的团结与安定。但是,这些坚固的认知体系,在人工智能犯罪时代,更容易由内而外坍塌。
刑法工具属性的“式弱”之质变趋势,主要表现为:(1)“人”主导刑法治理观念的脱逸。人工智能正在悄然改变“人”的地位及其所组成的“人类社会”的进化规律与生存结构。在真正的智能时代,即使存在作为创生者的“人”,但“人”更可能成为人工智能时代的附属物,缺乏完全的独立性与主体性,甚至是人工智能社会的管理(统治、规制)对象。这严重冲击法律制度作为服务人类社会的历史产物与人类法治文明成果的稳定性。在人工智能时代,法律制度很可能是“治理人类”的另类“工具”。包括刑法等传统法律制度,只是这场人工智能变革时代缓慢推进后的“物化”结果。究其根源,“人”是创物者的主体性地位之彻底旁落,将不断加剧刑法制度的“物化”(客体化)。尽管人类制定的任何法律都具有必然的滞后性,但对法律问题的思考应当遵从前瞻性;否则,刑法内在的滞后性将被进一步放大,成为刑法止步不前的累赘。人工智能社会与智能主体的发展轨迹趋于清晰,应酝酿与智能社会、智能人相匹配的专属法律体系,重新认识法律功能与人的地位关系,重新审定刑法价值与机能等问题。(2)人-机关系趋于紧张。技术进步往往是人类认识和解放自身的过程。机器从客体变身主体,也使人类的主体地位更凸显。这种“人机友好”模式是技术与法律相互融洽的良性状态。智能技术的不断升级必然“制造”出在智力上可以比肩人类甚至超越人类的新“物种”,破坏人类在世界中心的主体地位。技术引发的人的主体性丧失及恐慌,加速消损和谐人机关系,更压制人统领法律与文明的能力,法律制度很可能置换为智能人的“御用工具”。“人机”的对立性,叠加主体性的对峙后,恐搅乱刑法遵从立法目的与宗旨进行治理的有效性,惩罚犯罪和保障人权的常态工作难以为继,也迫使当代刑法以发展的眼光审慎看待人工智能的工具性与独立的治理功能。(3)“智能人”的监管难题。在真正的人工智能时代,智能主体作为未来生产生活的基本主体,极可能最终完全脱离其现存的“宿主”之监管,甚至摇身成为“统治”智能社会的主体。智能机器人的深度学习能力不断提升,监管机器人极为困难,甚至变成重大的社会安全问题。面对“智能人”,可能会出现技术的制衡性或“人”的可控性失灵问题。人工智能社会中的传统刑法,亦可能成为“智能人”脱离人类社会管控的“物化”之果。在发展初期,“强监管”仍是刑法保持可控能力的前提;在中期和后期,人的监管与“智能人的自治”的相互博弈是主题曲。当代刑法与智能主体的关系定位一旦反向而行,刑法功能的发挥将受到限制,“工具属性”也会被大打折扣。智能时代使当代刑法是否继续为“人与人类所用”的功能定位问题摇摆难定。与智能时代的对立乃至逆转风险亟待疏解,以避免传统刑法制度的进化与自发修复过程被人为地“阻隔”。这需借助理念调试、立法修正等合法途径予以实现。
(二)传统刑法遭遇“规范异化”的端倪
人工智能不再是纯粹方法论层面的技术优势,“技术映象”的初始认识开始消退。人的主体性地位开始受到实质动摇后,人的自由意志亦受削弱,人类的法治文明丧失“人可以控制和改造”的前提。这侵蚀传统社会的固化基础与关系纽带,动摇传统刑法的生存根基与功能设定。当代刑法需自觉或被动地如实反映。
1.传统刑法功能的缩减。人工智能技术的超人类属性,裹挟不确定性风险与潜在的技术不可逆转性,危及人类的自身安全及其存在地位。传统法律功能的独特性可能正在丧失,诸如法律规范的稳定性、规范的可期待性、法律类型的兴替以及固化的运行模式等。现行刑法功能也可能出现缩减现象,它表现为:(1)刑法制度的位移与刑法体系的变迁。人工智能的发展,使以“人”为规制对象的传统刑法制度必将发生质变,以满足规制人工智能时代新型主体的现实需要。犯罪、责任与刑罚范畴等传统问题都有待重构,以应对人工智能技术犯罪形态的新需求。否则,刑法的规制对象与功能会完全脱节。(2)刑法规范的进化与治理思维的蜕变。人工智能技术引发犯罪现象及其结构的重大变化,刑法规范作为法定的公开反应机制,面临规制“对象”的变化,不能套用既有的立法“逻辑”。为了更科学地治理人工智能社会的“智能犯罪”现象,传统立法与司法均应进行“智能化”修正。(3)智能人的语言体系与刑法规范表述载体的更迭。人类语言与网络技术的语言相距甚远。人工智能与算法必然会使刑法文本的结构发生变化。在技术主导时代,智能主体加速成长,可能逐渐确立起“技术统筹(主导)型”的智能社会存续格局,也会改变复杂的人类社会结构、“人”思维情感等基本元素,以及强调智能主体行动逻辑的智能性、一致性、协同性。这会催生“人的物化”效应,侵蚀刑法规范的原本生态。同时,技术化、标准化、模型化、流水线化以及电子化等内容与形式载体成为新的基础。立足于传统社会制定的刑法规范,受制于语言载体的差异等,在智能时代可能呈现出高度的“去同质化”等动向。
2.传统刑法的结构性量变。人工智能技术大规模应用的刑事风险问题已经临近。这些微变情状,使刑法规范出现了结构性的量变。
(1)人的犯罪主体与刑事责任主体地位之存留。从趋势上来看,“人”可能逐步丧失作为社会结构中的唯一合法、既定且可以传承的主体资格与地位。面向未来地看,智能机器人可能会被当作“法律主体”。智能机器人可能被赋予法律人格,并因此有能力取得并持有财产以及订立合同等。[10]俄罗斯的“格里申法案”认为,机器人很可能发展成为人类的一种自主代理人,基于机器人的特殊法律构造,允许类推适用统一国家法人登记簿,创设机器人登记簿制度。[11]法律主体身份的巨变,一定意义上可能会制造出一个“人是行为对象”的新阶级。当代刑法应围绕“人的主体性”地位下功夫,谋求“人机和谐”模式的形成与运行,保障刑法目的与机能不异化为“恶法”的来源。否则,可能因调整对象的转换而丧失刑法保障功能以及存在的必要性。
(2)智能主体刑法地位的两极化。人工智能的学习能力,使其开始拥有不断近似于人类的自我学习、自我进化的超强能力,也使其有可能超越人类思维的极限。人工智能的应用也已经开始摆脱纯粹的“人的指令”时代,转向“人工智能”的新时代,直接威胁“人”这一法定主体确立的法律关系。2016年5月,欧盟委员会法律事务委员会提交一项动议并要求欧盟委员会,对于正在不断增长的最先进的自动化机器“工人”的身份,应定位为“电子人(electronic person)”,并赋予其依法享有著作权、劳动权等“特定的权利与义务”等。[12]一旦智能人获得法律意义上的“主体身份”,其与“人”的关系将成为刑法调整的重大变量。主动权的争夺背后,是当代刑法应否“推倒重来”命运的真实写照。
(3)智能主体的权利及其保护。早在20世纪80年代,美国规划师与未来学家麦克纳利与亚图拉指出,机器人将来会拥有权利。[13]机器人权利问题,迫使重新审视传统的权利概念及其意义。人工智能群体的劳动性权利客观上已经出现,未来必须正视机器人是否应该拥有权利等问题。应澄清人工智能是否具有法律意义上的“主观能动性”、享有劳动权等基本“人权”、如何保障“智能主体的权利”等问题。承认机器人的主体地位与权利符合社会历史发展的趋势,但有别于人类的“自然权利”,具有法律拟制性、利他性、功能性等特定属性。
(4)智能时代刑事责任范畴的独立性与专属性。相比于传统犯罪的刑事归责理论,智能时代的犯罪主体身份的差异、主体行为的构造不同、危害结果形式有异等因素综合在一起,二者日渐格格不入。刑法主体地位正在发生质变,导致人工智能时代的刑事责任变成全新问题。人工智能主体法律地位与能力逐步提高,“智能人”独立承担法律责任也并非不可能。这些不同层面的规范微变,都对传统刑法规范的有效性乃至合法性、正当性提出重大的挑战,客观上触发传统刑法规范供给危机,也引发传统刑法理论及其教义学的存续难题。这迫使传统刑法体系不得不积极寻求改变。
三、人工智能刑法的犯罪论原理
人工智能极可能超越与替代“人”。“人”主导实施并存在于传统现实社会中的犯罪或将迎来根本性蜕变。这必然同步引发刑法中犯罪论层面的本源性的蜕变。
(一)由“人”的犯罪到“人工智能犯罪”的场域演变
在量变的过程中,智能机器人的主体地位与能力不断强化。弱智能机器人仍然是人的工具,而强智能机器人应当视为刑事责任主体。[14]“人”的数字化生存以及真正“数字人”的到来,很可能使人类社会面临重构“自我”与“社会”等重大生存挑战。基于“人”与“智能人”之间的主体地位博弈与互换状态,在由人类社会到智能社会的不同演变阶段中,“人”或“单位”是实施犯罪主体的认知常态可能出现迥异的化学反应,也左右当代刑法应对犯罪问题的基本策略。
目前,人工智能犯罪现象可能包括三种情形:(1)“智能主体”的初始阶段。人工智能系统尚未拥有人类的常识与意识、无法理解行为及其所处的情境。“智能人”可能成为人类实施更智能犯罪的高级技术工具,也可能成为“人”实施更复杂、更智能化犯罪的工具或手段。“手段型”智能犯罪形态是主要的表现形式。(2)“人”与“智能主体”相互博弈阶段。当“智能人”作为独立的社会主体、犯罪主体与被害主体后,传统犯罪现象经历反复的量变后。智能“对象型”犯罪开始出现,是危害人工智能安全的犯罪,与“人”主导实施传统犯罪现象分道扬镳。“手段型”与“对象型”人工智能犯罪策动的大规模量变及其衍生的极度撕裂效应越发明显。(3)“智能人”主导“智能社会”时代。“人”的地位具有不确定性,甚至明显下降或丧失,“人”统摄或主导实施犯罪的格局可能不复存在。犯罪现象的内部元素、主体结构等均发生剧烈变化,迈向智能“独立型”犯罪的新阶段。当然,以现有技术水平与应用场景等因素来看,“手段型”与“对象型”人工智能犯罪,也可以认为是“依附型”犯罪,在一定程度上依附于现行犯罪内。因为最终的可罚性主体都是操作主体等,现实中可以接触的具体的“人”。只有未来出现的“独立型”人工智能犯罪,才是全面独立的,可罚主体是“人工智能”。
从目前有限个案及其作案方式来看,利用AI作为犯罪工具的,尚属于AI犯罪的初级阶段,是弱AI时代的犯罪情形。在未来,强AI可能通过神经网络、深度学习不断优化行为能力,也强化犯罪能力。当AI成为重要犯罪工具或者独立的犯罪主体时,必须重构治理新型犯罪的理念。在类型化的应对思路上:(1)智能“手段型”犯罪。智能人作为产品或工具,变成“人”实施犯罪的手段,暂且可以按照传统罪名规制,传统罪名的扩张化适用方式仍有效。(2)智能“对象型”犯罪。“智能人”的身份、地位、权利等内容均不明确。这导致是否存在需要保护的客体与是否作为犯罪论处尚存疑问。刑法规制更依赖实质的扩张解释以实现入罪目标。但传统罪名的扩张适用空间非常有限。因为与立法原意相差甚远。(3)智能“独立型”犯罪形态。作为面向未来的犯罪形态,由于诸多因素难以预测和评估,定罪方向暂时无从谈起。但是,应当构建独立的刑法规制逻辑。
(二)刑事责任能力的质性异动与呼应
在近现代刑法中,人的主体性地位集中体现在刑事责任能力上。传统刑法理论认为,没有法定的刑事责任能力,无法实质地实施犯罪行为,也无法自主独立承担刑事责任。在人工智能时代,“智能人”主体地位的争议,使“智能犯罪”的本质和现象充满未知性、不确定性,在智能犯罪时代,犯罪主体的嬗变,使刑事责任能力亦受影响。有观点认为,在程序设计和编制范围内,智能机器人是按照人类的意识和意志实施危害行为,是人类实施犯罪行为的“技术性工具”;更高阶段的智能机器人可能超越程序的设计和编制范围,有意识地自主实施犯罪行为,彻底转变为犯罪行为主体,应承担刑事责任。[15]这种观点既在原则上肯定了智能机器人在未来可以具备刑法意义上的刑事责任能力,也根据不同智能应用阶段区分了刑事责任能力的“程度”。有区别地追究“智能机器人”的刑事责任是合理的。
诚然,以当前的技术应用为准,智能机器人主要是人工智能产品,根据是否具有辨认能力和控制能力,可以分为弱与强的人工智能产品。前者不具有辨认能力和控制能力,仅能在设计和编制的程序范围实现人类的目的,所实施的行为是人类的犯罪工具,无法独立承担刑事责任。后者具有辨认能力和控制能力,可以超越人类设计和编制的程序范围,自主实施危害行为,具有独立的人格和刑事责任能力,可以独立承担刑事责任。但是,根据“类人”的思维类型,对智能人的刑事责任能力展开讨论也是“旧瓶装新酒”。仍未脱去传统刑法体系的桎梏,可能掩盖智能人的刑事责任能力之专属性及其在内容、程度、属性、功能以及评价要素、体系上的整体变化。在技术上,“智能机器人”不完全由设计、编制程序决定,而主要由算法等决定。而且,以“人工智能产品”代称“智能机器人”,从话语体系上仍默认“人”的绝对主体性地位,否定智能机器人的“主体资格”。
在智能时代,法定犯罪主体的刑事责任能力需讨论以下问题:一是智能机器人完全可能具有独立的刑事责任能力,可以承担刑事责任。二是在规范判断的方法上,智能机器人的刑事责任能力及其类型,参照已有刑法原理和规则,以及鉴于算法等对人工智能的重大基础地位和作用,可考虑根据算法规则等因素决定。不过,如何将“算法”拟化成目前通用的“刑事责任年龄”等类似概念,并可有效对“智能机器人”的刑事责任能力进行“定量”分析是关键。目前,它首先是技术难题,但关键是人工智能的刑法理论能够同步跟进并供给根本支撑。更重要的是,一旦明确了智能主体具有合法的刑法主体地位,刑事责任能力问题也迎刃而解。
(三)重构与人工智能相适应的犯罪理论
目前,“手段型”智能犯罪问题已经出现。[16]它是智能时代犯罪在初期阶段的一种主要形式,与“对象型”“独立型”智能犯罪相互交替演变。人工智能犯罪的不断增量,会使犯罪本体在规范上不断变动。以现行刑法为参照的“脚本”,通过预测人工智能时代犯罪的诸多新因素,宜采取前瞻性的规范调试举措。
具体地讲:(1)犯罪原因与犯罪本质的重组。自然原因、个人原因以及社会原因,被公认为是当代犯罪原因论的基调。在以人工智能技术为前提的智能犯罪形态中,犯罪原因与技术滥用、人的主体性与能动性丧失、外部环境改变等新因素联系更密切,“意志自由”问题异常复杂,而“智能技术决定论”也不尽合理。这就无法继续按照犯罪原因“三元论”进行分析。反而,可以智能技术为逻辑起点,考察智能机器人的刑事责任能力状态,结合智能技术应用等情况,综合确定犯罪的原因。在马克思主义犯罪学看来,犯罪的本质是人基于意志自由实施的有意识性的危害社会的行为。但是,在人工智能背景下,“人”的主体性地位不断丧失,甚至覆亡;同时,“智能人”是否具有与“人”毫无差别的意志自由尚不可知。这两大变量迫使重新认识人工智能犯罪现象及其本质。在刑法的法律性质上,危害智能社会安全、危害智能技术等都是新因素,社会危害性理论面临“质”与“量”的变化;而阶级性质是否继续保留也存有疑问。这些本源性的重大变动,必然对刑法立法提出修正的要求。(2)犯罪构成要件要素的修正。犯罪构成是犯罪现象、犯罪概念与犯罪本质的法定化载体,会出现最直观的微变:一是犯罪主体。“智能人”作为新的犯罪主体,几乎可以实施任何形式的犯罪,不限于传统现实物理社会或网络智能社会,但引发一系列后续问题,合法性地位就首当其冲,继续立法予以确认。二是犯罪的主观心态。即使“智能人”被赋予“人”的情感、思维、情绪等,但毕竟与“人”有差异,短期内无法摆脱“程序设定”的最原始特征。即使智能程度达到顶峰,可以自主繁殖和进化,“人的程序设定”特征仍旧保留。按照“智能”的赋值,“智能人”应当具备程式化的认知能力,其主观心态问题更具“机械化”或“类型化”,不如“人”主观罪过的丰富、多元、易变。三是刑事违法性认识。“人”的违法性的认识及其程度千差万别,受主观因素影响大。承上所述,基于“智能人”的主观意识的类型化等特征,受技术水平、智能程度等客观因素影响大。四是危害行为。相比于“人”实施犯罪的作为、不作为以及持有等样态,智能犯罪的危害行为、行为类型、结构、属性等将大变样,智能技术成为重要的变量,行为的危险度有所攀升。五是犯罪结果及其定量评价体系。在人工智能时代,危害结果的表现形式以及刑法评价因子及其标准都有新的内容。例如,实害结果(死亡、财产损失)的主导地位下降;行为危险、人的危险以及智能技术的内在危险等,在数量、危险度上都可能增加且地位上升。六是因果关系。新型智能犯罪的因果关系的判断对象、规则以及意义等内容均有变化,因果关系变得更复杂和具有多样性。对于犯罪构成要件要素可能经历的变动,应从立法上逐一回应或确认,提高规范的有效性,并奠定理论发展的基础。
四、人工智能刑法的罪责观转向
传统社会主体与法律责任主体的接替嬗变,已经动摇传统刑事责任观念的基石。传统责任的伦理基础、刑事责任原则及其归责体系均可能遭到搁浅。应当厘清人工智能时代相匹配的伦理观念、罪责观念及其刑事归责体系与改良方向。
(一)传统罪责理论的体系性风险
经由人工智能的法律地位之演化及其由此引发的一系列刑法挑战,在传统刑法体系面临的罪责难题上体现得尤为明显,同时也提供了可靠的分解素材。
1.刑事归责的技术伦理困题。人工智能时代将确立“智能人”的社会地位、权利义务等,引发“智能人”与“人”互换身份。这催生出与“智能人”、智能社会相契合的新社会伦理观,也不免直接影响和动摇法律责任观与刑法的罪责观。举例而言:(1)智能机器人作为“产品”的归责难题。2014年,瑞士某艺术家构建了一个“随机暗网购物者”的AI。AI买到了摇头丸等商品。因非法购买行为,瑞士警察起初没收涉案物品,但又退还(除毒品外),也未指控应负有责任的艺术家。对被设定功能的机器人,既无法承担责任,也不可能直接承担责任,制裁有效性也难以实现。一律追究“人”的责任也不合理。这显示了人工智能会撕裂责任主体与罪责观念等。(2)突破道德伦理底线的智能应用与归责困境。《爱与性与机器人》(2007年)一书预测,到2055年,人类将会和机器人发生类似于人类社会的“性关系”,甚至嫁给机器人。对此,支持者与批评者相持不下。日用型机器人引发一系列社会复杂问题与伦理道德问题,如“性爱”机器人对强奸罪(奸淫幼女犯罪)的存废等的不可预期的影响等。这是前所未有的刑事归责难题,更面临人类社会传统“伦理底线”与犯罪成立的规范标准等挑战,如“机器人”是否可 “类人”地成立犯罪及其判断标准,特别是“人对自己行为负责”的基本归责原则不再必然有效等。人类社会对“人”确立的一整套伦理规则,对“智能人”已不再奏效,相应地,“罪责自负”“基于行为负责”等传统刑法归责原则显现坍塌迹象,甚至可能搅乱“基于人的意志自由决定实施的危害行为具有可归责性”的传统命题。为此,应以“智能技术”及算法等建构契合智能主体、智能犯罪的新型伦理规则以及罪责观念,根据智能技术的应用场景予以具化。
2.算法下的归责公正隐忧。目前,人工智能系统的支柱是“算法”与深度学习能力。然而,以技术为前提的“算法”有“误差危险”,已经严重困扰人工智能应用过程中的公正问题,也引发机器人的错误如何归责、机器人设计者是否负责等问题。它包括:(1)技术垄断风险。从智能技术的虚拟性来看,“算法”是“人”几乎无法充分有效控制的“技术黑盒子”,算法的开发者难以解释算法的真正运行机制和可能造成的后果。尽管在算法规则设立之初,应该考虑公平性与准确性问题,但仅依靠技术人员是无法完成公平性与准确性的要求。人工智能技术的发展性、独占性与垄断性,尤其是“算法黑洞”隐含算法独裁等问题,以及人类对算法往往过度依赖与崇拜等倾向,共同在相当程度上容易滋生具有某种“智能技术”导向的歧视性因素,甚至可能导致新的不公平的结果。对于算法独裁现象的危机,缺乏内部和外部共同形成的监督与制约机制,对公平正义而言是极大的威胁。(2)不透明性。法律乃善良公正之术。算法和代码而非规则,日益决定关乎个体权益的自动化决策系统、算法和人工智能及其决策结果。人类将公平正义的决定权交给算法时,可能面临正义与科技逆向而行的难题。算法的“黑箱”问题及其透明困境一直存在。而且,歧视可能就是算法的副产品,是算法内在难以预料的无意识的结果,而非编程人员有意识的选择。这会增加识别问题根源或者解释问题的难度。向“算法”问责是一项全新的挑战。而算法的不透明性是普遍的问题,解密无法肉眼可视的算法并使其透明化,可能远远超出能获得的效益,对算法进行审查可能极其困难。(3)伦理规则的匮乏问题。在自动化决策系统应用日益广泛的互联网时代,很多歧视来源于产品设计,应摒弃算法本质必然是公平的误解,通过设计确保算法和人工智能系统的公平性。而且,人类社会必须提前构建技术公平规则,通过设计技术正当程序,加强自动化决策系统的透明性、可责性、代码运行规则的准确性与科学性,保障技术统治之下的正义。但仅依靠技术人员无法达成,需要国际层面与国家层面的协同协作。例如,德国伦理委员会的报告指出,算法(即软件)编写者应遵守一系列伦理法则,核心是将人的生命置于首位。第7条要求在被证明尽管采取各种可能的预防措施,仍无法避免危险的,保护人的生命而非其他受法律保护的权益是最高的优先考虑;第8条规定,事先编程无法解决人类的伦理问题,如生命权之间的权衡,系统必须设定请求人工处理的强制性。[17]当前,人的利益优于智能主体的利益,是遵循“人类中心主义”立场的必然产物。但是,与“智能人”的法律地位、新的价值冲突与伦理对立等不相称。人工智能主体具有“拟主体性”特征,可赋予特有的拟伦理角色,但需要专门的“算法”伦理规则与法律责任体系。在价值审度与伦理调适上,应确保算法依据的数据之真实性,坚守算法决策与算法权力等内容的公开、公正,制定更透明、可理解和可追责以及公平的审查标准。根据负责任的技术创新和相关主体的义务等内容,区分技术责任与“人(智能人)”的责任。
3.意志自由作为归责基础的存留。在“深度学习”下,智能主体(人)的“意识”与人类不尽相同。是否具有(类似于)当代刑法意义上的“人的意志自由”尚需讨论。即(1)意志自由是近代伦理学中的奠基性范畴。没有意志自由,就失去道德选择的前提与依据。“如果不谈谈所谓自由意志、人的责任、必然和自由的关系等问题,就不能很好地讨论道德和法的问题。”[18]“人”可以控制自己的意志自由。而责任作为最重要的纽带,使意志自由与责任担当之间的内在紧密联系逐渐成为常态。近现代刑法必须解决行为人的刑事责任有无及其程度问题,而刑事责任与人的意志自由具有密切联系。哲学上的意志自由论与行为决定论之争,对近现代刑法学产生重大影响,意志自由对刑事归责具有重要意义。行为人的意志自由及其程度与定罪量刑活动息息相关,并且是定罪准确、量刑科学的基本理论根据。但这并不直接适合人工智能。(2)借助大数据,基于强大的算法能力,获得不可估量的学习能力,在智力水平上,人工智能与“人”趋于高度的同质化。在人工智能技术的发展过程中,“人”作为唯一的、天然的、可以永久合法继承的责任主体,被不断“清洗”,导致习以为常的责任伦理观念被颠覆。“人对自己的行为负责”的基本社会伦理观,以及“人在社会有机体中的责任”“人应当承担刑事责任”等观念的立足点被削弱。智能主体如何兑现“自我担责”、由谁可以对“智能人”依法归责、“智能社会的归责是何意义”等基本问题无从参考。除非确立并遵循全新的社会责任伦理体系,摆脱传统罪责观念背后的思维桎梏,释放新的归责功能。(3)人工智能社会将面临不可视化的技术风险。“智能人”不仅高度智能化,行为轨迹也更加隐秘。这对“眼见为实、耳听为真”的自然人是致命的“欺骗”。这使刑法中责任的赋值及其承担的正义价值、社会有机体的团结维系、法律权威的维持、人类社会有序性的保障等可能逐渐消亡,传统刑事责任范畴的本体内容则难以存续。相应地,急需重构智能时代的刑事责任。
(二)超越传统罪责观的二元路径
从理论上对上述问题作出解答尤为迫切和重大。从立法修正的角度也可以及时有效地回应现实问题,从而打通理论和立法在面对新课题上的互动与反哺关系。
1.类型化的刑事归责路径。人工智能时代的刑事风险可以初步分为:一是智能应用系统的技术缺陷等引发的外部危害。二是智能应用系统或智能机器人产品等被非法利用或滥用,即作为工具时引发的危害。三是智能人作为真实的独立刑法主体,实施的行为可能引发危害或危险。除了加害层面的刑事风险,也包括智能人作为被害对象的内部风险。
对此,应当遵循类型化的解决思维:(1)技术中立原则与归责的例外。人工智能是新型技术,任何技术都具有相对的中立性,不宜过于苛责技术内在的不可控危险。技术的危险是客观的。目前,利用或滥用的主体才是真正的风险制造者,才是需要承担法律责任的主体。忽视人工智能技术的中立性特征,不顾技术本身的内在缺陷与危险,采取过于严格的责任模式,不利于技术创新与商业化。但是,对技术中立原则也要客观对待,要防止以此为借口,出现放纵犯罪的情况。(2)智能产品质量责任。2016年8月,联合国教科文组织和世界科学知识与技术伦理委员会《关于机器人伦理的初步草案报告》探讨了机器人的责任,提出采取责任分担的解决途径,让所有参与机器人的发明、授权和分配过程中的人分担责任。[10]这在一定程度上肯定了产品责任。早期的智能机器人往往是人造产品,传统的产品责任有发挥作用的余地。[20]机器人造成的伤害,如故意不履行合理的注意义务,不归责于机器人制造者和零售商的过失犯罪。随着智能应用产品的主体性增强,传统产品责任的适用空间将被压缩。(3)违反法定监督管理义务的过失责任。人工智能时代在一定时期内呈现为“弱智能”,是人的制造品,或高度智能的产品。人仍可以有效控制智能机器人,人负有安全监管的责任或义务。这是安全监管责任的法定义务来源。对于智能产品或智能机器人的潜在风险,设计者、操作者与所有者负有一定的监管义务,在法定条件下,需要承担刑事责任。(4)法定的严格责任。人工智能技术的巨大威力,决定了大规模应用一旦失控,必将引发更严重的危害。对于智能产品或智能机器人导致的危害结果,根据保护法益的基本立场,可以在必要时设置严格责任,而不论其主观罪过等问题,旨在强力规制重大技术风险犯罪。(5)独立主体地位与“罪过”责任。当智能人作为未来独立的社会主体以及独立的犯罪主体时,遵循传统刑法理论,应当对其相应的“罪过”承担故意或过失犯罪的刑事责任。但是,智能主体的“罪过”,不能直接按照传统的故意或过失进行认定,尚需重新作出界定。(6)“人机”共同犯罪的责任问题。在智能技术的发展过程中,人与智能主体的关系与作用是相互交替的。这是智能主体与人共同犯罪的特定背景。当人类与人造物共享数字化的信息空间时,人类与智能主体应当共同承担认识的责任,对以人的地位及其认识为基础的人类传统责任观造成重大的冲击。从行为逻辑与实际情况来看,人与智能机器人会共存并共同实传统犯罪或智能犯罪。但是,实施的是完全独立且性质差异巨大的犯罪行为类型。共同责任的分担是全新课题。应明确智能时代刑事责任的成立条件、归责原则、责任分担等基本问题。
2.通过积极的立法适度释放供需。面对理论危机与规范供给不足的问题,立法增设新型罪名与专属的刑事责任类型有其必要性。应加快推动一般性、基础性立法并完善智能法律体系,策动刑法立法并扩大规范依据。(1)遵循一般立法推动刑事立法完善的基本路径。人工智能犯罪主要是法定犯罪,其违法性源自于法律的明文规定。这形成了遵循行政立法等法律规定推动刑事立法之一般逻辑。只有人工智能的一般立法不断发展与丰富,刑事立法可以凭借的规范来源才会更全面。工智能的刑事立法也具有独特的自主性与独立性。应当根据实际需要,出于防控与治理人工智能技术风险的目的,启动创造性的立法,推动人工智能的一般立法之发展。(2)围绕人工智能刑事归责的重点问题启动类型化的立法。主要包括:一是加强人工智能技术在研发阶段的立法,规定研发者、设计者的义务,强化前端的刑法规制,使研发者、设计者的责任范围更为明确,避免替代责任现象。二是完善人工智能在不同应用环节上的立法,特别是规范智能产品的生产和销售行为,规定所有者、使用者应负的法定义务与责任。这是人工智能大规模商业化后的主要刑事归责场域。三是完善对智能技术及其应用的监管立法,明确监管主体、监管职责,规定智能时代的监管渎职犯罪。四是对“算法”进行立法,设置可控化的管理规则与要求,增加“算法”的透明性与公开性,强化公正价值的摄入与规制。五是完善智能安全保障的立法,强化技术应用、产品商业化中的安全保障义务,建立不同安全维度的保障体系。六是增设具体罪名。适时启动一定规模且适度的活性立法,如增设滥用人工智能罪或危害智能驾驶安全罪等。
五、人工智能刑法的制裁体系创制
在人工智能时代,犯罪以及刑事归责体系正在深度演变,处于末端的刑事制裁观念也有所异动。理论上应当形塑独立的智能时代刑事制裁以确保其有效性。
(一)传统刑事制裁的有效性问题
面对智能机器人等新型“犯罪主体”,在芯片与算法等作用下,具有强大的“超人”能力。已无人类肉身的束缚与生理上的羁绊,以至于针对“现实中的人”的传统法律制裁,可能会变得毫无效用。例如,死刑在智能时代的命运与功效并不乐观,对“智能人(主体)”实施枪决或注射甚至是个不经意的“笑话”。对“智能人”判处自由刑或终身监禁,也显得格格不入。毕竟“智能人”并无“人类寿命”的生理极限问题,可以无限制地“存活”,将其关押在某个封闭的物理空间,亦无制裁的针对性与有效性。反而,物理上切断电源、终端网络链接、技术禁止、系统关闭等“智能寿命终止”或“智能运行终止”等措施,才是对“智能主体(犯罪人)”形成“最终剥夺”效果的“极刑”措施;对智能技术或应用产品、系统的限制运行措施无疑次之。人工智能对传统刑事制裁及有效性形成的重大“颠覆”,绝不是学术的“科幻”;反而,深刻地描绘人工智能时代对“智能机器人”的管理、监控以及治理变得异常复杂困难。如果从法律层面对其进行制裁,显然无法“如法炮制”现有经验,或者说,适用于人的传统刑罚措施是难以奏效的。
在人工智能犯罪的演化背景下,基于传统刑法的框架与逻辑,特别是基于犯罪与刑罚之间的特定关系,习以为常的报应、预防等刑罚目的,以及自由刑、财产刑组成的刑罚体系及其刑罚结构,还有近现代以来确立的类型化之刑事制裁措施等,均无一幸免地处在被“肢解”状态。因此,在人工智能时代,应当重新审视和定义刑事制裁及其有效性命题。正视近现代刑法确立的刑事制裁体系面临“整体置换”之命运,防止适用于人工智能犯罪的刑事有效性彻底化为泡影。
(二)创生专属的刑事制裁措施体系
鉴于传统犯罪与网络犯罪的差异等因素,不乏观点认为应当建构全新且独立的网络刑事制裁范畴与具体措施。[21]这提供了可积极类比的参照物。对于正在发展中的人工智能犯罪诸问题,也需要独立的刑事制裁措施体系。这一变革旨在针对新的犯罪情况以及刑事归责的新需求,设计与配置有效的刑事制裁措施体系。具体而言,应注重以下几个问题:
(1)人工智能技术制衡是创设刑事制裁措施的“制导”前提。一般而言,自然人依靠生理机能和能量补充维持生命与行动能力,死刑、自由刑的“制裁有效性”由此产生。相比之下,“智能主体”依赖外部的物理动能或内部运行程序等,如电源、网络以及算法等,对其予以切换或关闭,可以起到相似的“终极制裁”的效果。人工智能时代的犯罪具有鲜明的“技术关联性”,甚至在一定程度上依附于技术及其应用而存在。针对智能时代的新型犯罪,刑事制裁的有效性能否实现,首先取决于对技术是否采取了合理控制、限制以及制衡等,以此剥离了人工智能犯罪的前提条件与基础。只有充分揭示人工智能犯罪的本质特征,顾及刑事归责的特殊性,才能最终确保刑事制裁的有效性。遏制人工智能技术的异化风险与有效治理“智能主体”危机的前提,首先是从技术制衡层面科学合理地约束智能主体的失范行为。
(2)围绕规范的有效性设计刑事制裁措施体系。在人工智能时代,新的刑事制裁措施体系本质上是以刑法规范的法治方式,承接刑事归责后的法律后果,治理新型犯罪。针对强人工智能产品的犯罪,刑法应增设删除数据、修改程序、永久销毁等刑罚种类。[22]该观点不失为有益的尝试。但是,重视“技术制衡”不是简单的唯“技术论”。应当回到刑法的规范有效性层面。它是指应当立足于发展中的人工智能犯罪及其本质特征、危害类型、治理需求等情况,结合刑事归责的法律后果以及责任形态等,针对智能主体及其利益、权益等内容,进行刑法意义上的“惩罚”,以期实现事后的报应、面向未来的预防以及社会恢复效果等多重目的。例如,伴随“智能人”地位与能力的前移,智能主体不仅具备独立承担刑罚的能力或可罚能力,也拥有相应的法律权利。对智能主体的权利进行限制或剥夺,是设计制裁措施的有益支点。
(3)动态的发展观。刑罚范畴处于刑法运作的终端,受前端的犯罪与刑事责任等因素的直接影响,导致针对人工智能的刑事制裁反应机制容易呈现出一定的延后性与被动性。刑事制裁措施体系的探索存在一定的先天局限性,进行前瞻性设计的难度更大。传统刑罚目的、刑罚种类、刑罚体系、刑罚结构以及刑罚裁量、刑罚执行等整套知识体系都处于不确定状态,既不能作为直接可以援引的“前见”,也可能是创设专属刑事制裁措施体系的“障碍”。应当坚持动态的发展观。既要容忍刑事制裁措施具有一定的超前性,甚至虚无性,接受这些新的刑罚措施仍处于构想阶段的事实。同时,也要科学地借鉴已有刑事制裁措施,兼顾报应、预防等刑罚目的。