APP下载

论人工智能技术的刑法归责路径

2022-05-29曾粤兴高正旭

治理研究 2022年3期
关键词:前置使用者刑法

□ 曾粤兴 高正旭

在目前法律框架下,刑法所需要做到的是针对人工智能所产生的刑法问题寻找合适的切入点实现对人工智能相关主体的刑事责任判断,从而使刑法有效参与到人工智能的治理活动中。我国具体负责推进规划实施人工智能发展战略的科技部下属国家新一代人工智能治理专业委员会,于2021年9月25日发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),本文将结合该规范的相关内容,对人工智能的刑法归责路径进行探讨。

一、人工智能的法律归责困境

(一) 人工智能的工具属性

从国家对人工智能技术发展的具体要求来看,《伦理规范》第3条第4款的规定延续了《发展规划》中“确保人工智能安全、可靠、可控发展”的要求,明确指出人工智能开发需要坚持可控可信的原则,不能剥夺人类的“充分自主决策权”,人类有权随时退出与人工智能的交互,有权随时终止人工智能的运行,从而确保人工智能始终处于人类控制之下。所以即使人工智能技术对国家发展具有战略意义,完全脱离自然人管控范围的超强人工智能也不是我国人工智能技术的发展方向。

(二)算法黑箱问题

刑法中的归因判断,是指通过行为人的行为与损害结果之间的因果关系,确定结果是否可以归属于一定的行为。基于算法的独立运行逻辑,在归因上需要判断算法的独立运行是否会割裂损害结果与相关主体行为之间的因果关系。因为如果认为算法的运行逻辑对人工智能设计者或使用者而言是不可知、不可控的过程,则难以认为算法所导致的损害可以归属于相关的法律主体。

虽然对算法黑箱的认识具有一定分歧,但从以下角度来看,算法黑箱的存在并不能否认弱人工智能所具有的工具属性,也就不能割裂人工智能损害结果和相关主体行为之间的因果关系。

二、以算法为切入点的归责路径

上文的分析指出了刑法对人工智能相关主体进行归责不存在根本性障碍的问题,接下来需要讨论的是刑法需要对什么样的主体进行归责和应当以什么样的切入点对相关主体进行归责。

(一)归责的对象

(二)算法的纽带作用

确定需要追责的主体范围后,我们可以进一步考察确认相关主体刑事责任的具体路径。

以自动驾驶汽车为例,自动驾驶汽车责任判断的难点在于确认当自动驾驶造成损害时自动汽车究竟处于哪一主体的控制之下。《伦理规范》第15条规定了人工智能生产者具有“加强质量管控,不得经营、销售或提供不符合质量标准的产品与服务”的义务;第22条规定了人工智能的使用者具有“主动掌握人工智能产品与服务的运营、维护、应急处置等各使用环节所需技能,确保人工智能产品与服务安全使用和高效利用”的义务。从这两条规定来看,在产品缺陷导致自动汽车肇事时,可以对相关生产商以生产不符合安全标准的产品罪定罪处罚。从逻辑上说,如果生产者明知自动驾驶系统存在严重的算法缺陷,可能导致使用过程中出现肇事结果而予以隐瞒,最终导致使用者肇事结果的发生,其主观上具有放任的故意,从而竞合以危险方法危害公共安全罪,应当以较重的罪名从重处罚。但笔者认为,鉴于人工智能尚处于需要进一步发展的状态,严苛的责任固然可能存在一般预防的功能,但也可能压抑设计者、生产者的探索热情,因此,笔者主张即使上述逻辑推演能够成立,也应当立足于司法的谦抑而作出有利于被告的认定。质言之,仅仅以法定刑相对于较轻的生产、销售不符合安全标准的产品罪问责,即可在一般预防与特殊预防之间找到平衡点。而在自动汽车不存在产品问题时,根据《伦理规范》第3条的规定,人工智能使用者“有权随时终止人工智能系统的运行,确保人工智能始终处于人类控制之下”的规定,似乎可以推导出使用者有预见肇事结果的义务和能力的,从而进一步演绎出使用者对事故存在过失的结论,最终要求使用者对交通肇事结果承担罪责。对使用者而言,一般不会出现明知车辆自动驾驶系统存在算法缺陷有肇事可能仍然敢于驾驭的情况,因此很难得出使用者对肇事结果存在故意的结论。

三、算法刑事归责路径的具体问题分析

(一) 刑法逻辑与技术逻辑的区分

上文指出了算法黑箱不能成为刑法归责的障碍,因为算法仍处于相关主体所能支配的范围。但是仅仅论述至此,还不能说刑法因果关系的判断已跨过了算法这一技术逻辑的障碍。因果关系是危害行为与危害结果之间的引起与被引起的关系,但在刑法视野下,并不是所有对危害结果产生作出贡献的行为都是刑法规制的对象。刑法需要对条件因果关系加以限制,确定具体的一个或数个行为进行归责。对于人工智能造成的损害而言,关键在于确认具体的损害结果究竟需要归因于研发、供应、管理、使用的哪一个或哪几个环节。

(二)刑法与前置法的功能区分

在人工智能治理领域中,除了对法律逻辑与技术逻辑进行区分以外,还需要避免出现刑法与前置法功能的混淆。

算法安全这一法益搭建了刑法参与人工智能法律治理的桥梁,在共治关系中,前置法为人工智能相关主体设定的义务,是刑法据以判断刑事责任的依据,为了避免刑法对人工智能技术的进步产生阻碍和混淆刑法与前置法的不同功能,在对人工智能相关主体的规制中刑法需要保持合理的谦抑,坚持刑法在法律体系中的后置保障法地位。

《伦理规范》中的相关规定,为今后人工智能法律规范的制定提供了宏观指导,但具体的规范细节还需各个部门法进一步细化规定,所以以上罪名设计的构想是否成立,或者是否还有必要继续增加保护算法安全的新罪名,需要继续观察人工智能技术的发展情况和前置法律的立法情况,使刑法与前置法在人工智能治理领域中保持良好的互动。

四、结论

通过结合《新一代人工智能伦理规范》的相关规定和人工智能技术发展的基本特征,可以看出具有工具属性的人工智能技术,其产生的社会风险仍是一种人为风险,故并不会对刑法理论产生颠覆性的影响。刑事立法与刑法理论需要根据人工智能技术的特征,为人工智能的刑法治理提供有效的方案。以算法安全为纽带对人工智能相关主体进行刑事归责,是使刑法有效参与人工智能法律治理的理论尝试,为刑法对人工智能相关主体的刑事责任认定提供了可能的路径。在具体方案的设计上,还需在厘清刑法与技术逻辑、刑法功能与前置法功能关系的基础上,明确共治关系中刑法规制的范围和应具有的功能,从而与人工智能的其他治理手段形成有效配合,实现人工智能技术法律治理的效果最大化。□

猜你喜欢

前置使用者刑法
“非线性”小组合作学习中前置学习任务的设计
设计让您在喜爱的虚拟世界中自由奔跑
核磁共振对妊娠晚期子宫后壁前置胎盘的诊断效果分析
我国刑法立法效益提高的制约因素与实现途径思路构建
刑法修正案研究述评
带前置功能的词形《 в сопоставлениис 》的结构与搭配
新型拼插休闲椅,让人与人的距离更近
中国刑法立法晚近20年之回眸与前瞻
自媒体,高中生物前置性学习的“好帮手”
抓拍神器