脑机接口技术影响下的刑事责任问题探析
2020-03-04郑通
郑 通
(华东政法大学,上海 201620)
2020年4月24日,一篇发表于顶刊《CELL》(1)《CELL》(《细胞》)是美国爱思维尔(Elsevier)出版公司旗下的细胞出版社(Cell Press)发行的关于生命科学领域最新研究发现的杂志。上的学术论文将大众目光聚焦到脑机接口技术(brain-machine interface,BMI)上。这项由巴特尔纪念研究所(Battelle Memorial Institute)与俄亥俄州立大学合作开发研究的技术展示了如下应用场景:通过脑机接口将患者大脑与外部设备相连,不仅可以使瘫痪患者的肢体正常移动,还可以恢复其包括触觉在内的其他感觉功能[1]。
早在20世纪90年代,日本漫画家士郎正宗就在其作品《攻壳机动队》中构想出未来的场景:以光、电子和生化技术为基础的电脑、AI和网络主导着每个人的生活;人造肢体逐渐代替正常人体而发挥独特效用;通讯终端可以直接植入人体,使人类的躯体与思想可以直接与标准计算机和网络互动并呈现出电子脑(Cyberbrain)的样态;与此同时,严重的脑部侵入型犯罪时有发生。虽然上述场景来自于科幻作家的主观臆想,但随着信息技术的发展,脑机接口技术已经在现实生活中初现端倪。2012年,浙江大学科研团队通过在猴子大脑中植入微电极阵列,使猴子能通过自身“意念”直接控制外部机械手臂;马斯克(Elon Musk)旗下的Neuralink公司开发出宽度4-6微米、具有生物相容性的微小位移神经探针,可以直接植入大脑,以无线方式监测神经元活动,将对治疗神经退行性疾病产生推动作用。脑机接口技术相关领域的科学研究仍将继续且充满希望,但法律人应当对此秉持谨慎态度,以求证该技术对未来社会认知产生可能的巨大影响。
一、探讨脑机接口技术对刑事责任影响的必要性
近年来,学界不乏对人工智能可能引发的刑事责任问题之讨论,也不乏对此类探讨必要性的质疑之声。学者质疑的主要理由有二:1.对人类而言,人工智能的工具属性难以去除,故不具有成为独立的刑事责任主体的可能性与必要性[2];2.强人工智能时代(具有完全人类思维模式的机械智能时代)在未来几十年内都是难以实现的[3],因此当今对人工智能实施刑罚的考量更像是科幻的主题[4]。随着脑机接口技术的出现,上述质疑已逐步失去其合理性,讨论该技术对刑事责任的影响不仅成为现实,而且十分必要。
据媒体报道,已有数十个科研团队通过该技术实现了人脑与电脑的初步互动。我们完全有理由相信,在可预见的将来会出现将电脑植入人脑,使人脑与人工智能产生更深层次交流的技术。人工智能将与人类智慧针锋相对,无论是科学家还是政治家都难以保证植入脑中的技术工具在未来仍然保持其纯粹的工具属性。人类社会不能回避人工智能与人类智慧日益频繁的交互、同质化甚至超越所带来的社会问题,更有必要担心未来人工智能通过技术发展而实现对人类大脑的直接控制[5]。当越来越多的人类机体功能为计算机、机械所取代,甚至作为智慧之源的大脑也为计算机所攻克时,“电子人”(Cyborg)形态下的人类究竟是人还是机器?人类与人工智能相比谁才是工具?人类与人工智能又将遵循怎样的共存模式?
不可否认,人工智能在某些领域已经拥有超越人脑的机能。随着算法和硬件的不断进步,数字智能将在其他领域实现对生物智能更大程度的超越。脑机接口技术不仅是对数字智能的利用,更是对人类社会的保护。脑机接口的应用可以确保未来世界的中心依然是人类意愿的总和[6]。因此,讨论脑机接口技术对刑事责任影响是现实且必要的。本文基于上述立场,参考人工智能时代的三分法,即普通人工智能时代、弱人工智能时代与强人工智能时代[7],拟就脑机接口技术在不同发展阶段下对刑事责任的认定与归属方面可能带来的影响进行初步探讨。
二、普通人工智能时代:脑机接口技术的工具属性
普通人工智能时代下的智能产品具有完全的工具属性,无论是硬件设备还是软件程序,都不具备在研发者设计的功能范围内外自主活动的能力。换言之,这一时代的人工智能需要人类的操作才能发挥其预设作用。不可否认,当下对脑机接口技术的研究仍处于普通人工智能时期:通过将人脑与其他机械辅助设备(电脑与假肢)相连接,使得肢体或器官有某些缺陷的人可以通过意念控制机械做出应答,以恢复、增强正常人的某些生理功能,包括增强记忆力或肢体活动能力等。
目前的脑机接口技术逐步实现的是人脑对机械的直接链接与控制,如同人类大脑控制躯干与四肢。此种情形下,与人脑相连的辅助设备本质与自然人在犯罪时使用的诸如电话、枪械等犯罪工具无异。所以,在普通人工智能时代,利用脑机接口技术实施犯罪并不会对刑事责任的分配问题产生本质上的影响。
(一)脑机接口技术影响犯罪客观方面的认定
虽然普通人工智能时代下脑机接口技术不会对刑事责任的归属问题产生本质影响,但其作为犯罪工具的特殊性也会对刑事责任客观方面的认定产生不可忽略的作用[8]。例如,在人身伤害案件中,行为人使用杀伤力较强的工具(如枪械等)还是杀伤力较弱的工具(如棍棒)是据以判断行为人主观恶意与社会危害性的重要情节。由于脑机接口技术是机械与生物智能的直接互动,人对脑机类工具的控制将更有效率,犯罪方式也更加丰富,运用攻击性义肢从事犯罪、造成大规模破坏的情形存在现实可能性。因此,罪犯在实施犯罪的过程中是否使用、以何种方式以及使用何种脑机接口技术将对犯罪行为定性、危害性大小、因果关系认定等方面产生直接的影响。我国对枪械、管制刀具等杀伤性较强的工具的管控一直持谨慎、严格的态度,自然会对未来存在巨大黑色交易空间的脑机互联杀伤性装备实施更强有力的监管。参考现有刑事立法对枪械、弹药的管制模式,未来存在将生产、销售、使用杀伤性脑机接口设备的行为直接纳入刑法规制的可能。
此外,由于生命科学技术中天然的未知属性,脑机接口技术面临更多不可估量的技术风险,例如人机交互过程可能因信号采集质量过低而出错,进而引发严重损害后果。这种不确定性会带来新的侵害风险,从而引发对新的过失犯罪和危害公共安全类犯罪的考量。
(二)涉脑机接口犯罪主观罪过认定的客观化
脑机接口技术的独特之处在于人脑外接机械设备时需要对脑部电流、信号作直接处理与利用,包括对脑部意识的信号采集、信号增强、特征提取、分类和控制接口等过程[9]。换言之,脑机接口的应用是建立在对大脑意识一定程度的客观性读取与解释的基础上实现的,技术人员必须对大脑思维有一定的客观化解读才能将其映射到外部设备的具体行为上。脑机接口技术的应用可以以较高的准确率解码脑部的神经活动,在主观思想与客观行为间建立了符合科学与逻辑的映射关系,是意识的客观性的体现。如果行为人使用脑机接口技术从事某项违法犯罪行为,司法机关可以针对性分析其行为时的脑部数据信号,在神经科学家与程序编译者的帮助下对其当时是否存在故意或过失做出最为直接且客观的判定,而无须再通过其他客观事实来推定其主观心态。笔者将此类脑机接口技术的应用视为对犯罪人主观罪过认定的真正客观化,这可以使司法机关对犯罪嫌疑人罪责的认定更加精确,有助于主客观相统一的真正实现。
三、弱人工智能时代:工具属性下的研发者责任
在弱人工智能时代,人工智能具备了一定的行为能力。其可在设计研发者预设的程序范围内进行相对有序的自主或自动活动,使得人类在发出相应指令后无须再进行额外的指导、控制操作即可达到预期效果,且这种效果常超过人类在相同领域所能取得的最后效果,大大提高了生产活动效率。由谷歌(Google)旗下DeepMind公司开发的围棋机器人AlphaGo已经能在围棋领域毫无悬念地战胜人类的最强大脑,这就是弱人工智能能力的真实写照。
这一时代的人工智能开始面临算法“黑箱”(black box)的问题。这是由于弱人工智能时代的机器学习与普通人工智能时代的机器学习不同,其并不遵循从数据输入、特征选择提取到逻辑推理、预测与实现的过程,而直接从数据的原始特征出发,自主学习和生成高级的认知结果[10],即使弱人工智能的设计者本身也未必清楚地了解从输入数据到输出答案这一过程经历了何种逻辑的推演和运算。
此时人类扮演的角色已不是一个操作者,而是旁观者、监督者和智能化结果的得利者。在脑机接口技术影响下,人类可以在脑中植入特定的电子芯片提高其在特定领域的运算与判断能力,并且通过芯片主动发出的指令去操纵外接设备。举例而言,可以在人类大脑中植入具有与AlphaGo相同算力的微电子芯片,在围棋运动中让芯片自主发号施令指挥肢体落子,从而使其拥有超越围棋世界冠军的博弈能力。
(一)脑机接口中的人工智能不能作为刑事责任主体
由于弱人工智能有无须人类操控而自主活动的能力,如果研发者利用脑机接口技术直接在人脑植入芯片,则此人在特定情形下可以完全依靠芯片的操纵而行动,从而摆脱人类意识控制的影响,实现人工智能的人类化。表面上看,这种情况是人工智能在为特定行为,即人工智能取代大脑地位、自主控制肢体活动并影响客观世界,使人工智能似乎可以加入刑事责任主体范围的讨论当中。
根据刑法学界对行为内涵的通常认识,即有意行为说的观点,刑法意义下的行为应具有下述特征:一是受到人的意识支配,二是能够改变、影响客观事物,三是刑法上明文予以禁止[11]。不可否认,弱人工智能时代对脑机接口的使用会使人脑意识对行为的支配不能做到完全的控制。用芯片控制行为中的意识支配与用人脑控制行为中的意识支配是完全不同的,前者主要靠芯片的“意识”(指令)来指挥,而后者仍是靠人类的意识。但这是否意味着弱人工智能可以成为刑事责任的主体呢?答案是否定的。抛开人工智能不是人这一条件,仅从人工智能是否能完全以独立意识支配行为这方面考量,弱人工智能并不具备自由意志,即不具备在在意识支配下进行自主决断的可能性,而刑法中行为存在的前提是犯罪主体具有自由意志[12]。以AlphaGo为例,首先,弱人工智能并不能自主决定是否下围棋、何时何地以及以何种方式下围棋;其次,即使将其通过脑机接口接入人脑后,其虽然具有一定的自主活动能力,但其仍需要人脑提前发出授权指令才可进行相应的行为,实质上人工智能仍处于使用者的支配之下。笔者认为,弱人工智能的行为更类似一种生物本能的行为而不存在根本的自由意志,本质上与动物或精神病人的行为没有不同。其行为的最终目的仍是实现研发者或控制者的意志,提升人类智慧结果的本质仍是人类对工具的使用。因此,由此技术引发的刑事责任仍应归责于研发者、使用者或管理者。
(二)弱人工智能研发者的故意与过失
由于弱人工智能仍以工具属性为主,在刑法体系中对其以犯罪的对象或者工具加以考虑更为合适,对其使用者(发出指令者)的刑事责任的认定与普通人工智能时代下的认定本质上是相同的,但是由于弱人工智能在人类指令下已经具备了一定的自主活动能力,不能将其简单等同于犯罪工具,其可能的破坏性与法益侵害性也远超普通机器人。因此,对这种能力的直接缔造者,即弱人工智能研发者的刑法规制问题尤其需要引起刑法学界的重视。对于研发者的责任,笔者认为可以从故意与过失两方面加以考虑。
弱人工智能研发者的故意犯罪主要为研发者以危害社会为目的制造具有犯罪功能的人工智能设备,或明知某种人工智能设备存在造成危害社会后果的可能性但仍然放任其生产销售,从而造成危害社会的后果。前者属于直接故意而后者属于间接故意。故意罪责体现在脑机接口技术领域主要为研发、制造专门用于犯罪的脑机互联设备,例如研发携带攻击能力的义肢或装甲等。弱人工智能研发者的过失犯罪主要为研发者在制造具有正当使用功能的人工智能设备时,应当预见该设备可能造成危害社会的后果但因疏忽大意而没有预见,或者预见了但轻信能够避免,从而造成危害社会的后果。前者属于疏忽大意的过失而后者属于过于自信的过失。过失罪责体现在脑机接口技术领域主要为研发者因过失行为造成脑机设备的接入者或第三人的严重损害。
对于研发者的故意,笔者认为其多表现为直接故意。当研发者为了犯罪目的制造了某种人工智能设备,由于弱人工智能具备一定的行为能力,即识别控制能力,该设备所实施的行为总是在研发者的设计范围内并处于研发者的间接控制下,实质是研发者意志的延伸与体现。弱人工智能的行为可以视为研发者的行为而构成故意犯罪。这一点与不具备识别和控制能力、仅能作为工具的普通人工智能是不同的。如果此类设备的实际使用者或管理者存在同样的故意,则可能与研发者构成共同犯罪。在弱人工智能时代认定研发者存在间接故意时要尤其慎重,间接故意的成立并不要求行为人积极追求犯罪结果的发生而只须不否定犯罪结果的发生。如果在正常的生产制造中,研发者发现了其产品可能存在致害性缺陷时,执法者可以武断地判定其不否定危害结果的发生而存在间接故意,无疑会打击人工智能制造业的发展。因此笔者认为,只有在有证据证明这种危险性是较大的、事先可以避免的,且研发者对此有充分的认知时,才可以认定其存在间接故意。
弱人工智能研发者的过失责任主要来自于其对产品的监督管理义务。监督过失是指直接行为人违反使别人不要犯过失的监督注意义务的过失[13]。研发者作为具有一定自主意识与行为能力的弱人工智能的设计生产者,无疑需要对其负一定的监督管理义务。如果在弱人工智能时代用于日常生产生活的脑机接口设施发生研发者本可预见而避免的故障,造成使用者自身或他人的严重人身或财产损失,则研发者须负过失之罪责。这种监管义务并非是无限扩张的,而是排除智能科学所带来的合理风险后的有限度的义务。对于义务的边界,笔者认为应当充分考量当时科技的发展程度与科研人员对相关领域的认知程度,以行业规范、学术研究成果等作为客观标准综合判定。
四、强人工智能时代:人工智能在脑机接口中的共同犯罪问题
学界对强人工智能时代多数理解为:这一时代的人工智能不仅具备了在程序设定范围内的自主活动能力,还能超越程序预设的范围自主决定自己的行为,成为一个真正“自由的人”。但显而易见的是,这一时代离当今社会还十分遥远,没有人能预先知晓拥有真正“自由意志”的智能科技时代将是何种场景。当前学界所进行的针对强人工智能时代刑法问题的讨论都是建立在个人对未来的主观臆断下。有学者把这视为天马行空、不切实际,而主张“让子弹再飞一会儿”。但正如刘宪权教授所言,如果明知子弹已朝人类飞来,难道还选择视而不见吗?
讨论人工智能的刑法问题的同时,学界也在担心未来出现与人类有着相同智慧能力与自由意志的人工智能,从而与人类竞争甚至取代人类的地位。这种恐惧有迹可循。人工智能被设计的初衷就是无限地模仿人类、接近人类,乃至在某些方面超越人类。它既可弥补人类先天存在的某些不足,更能引起人类的共鸣,这也是过去任何科技革命的成果所不能做到的。人类作为地球上唯一的智慧生命,从古至今都带着一种意图征服一切的孤傲,这种孤傲让人类科技不断地试图创造人、创造智慧。与具有人类情感与意志的人工智能相遇似乎只是时间问题,到那时,人类可能必须以看待人类的视角看待人工智能,并重塑社会秩序;到那时,人工智能研发者的身份也会变得奇妙起来,与其说他们是工程师,不如说是“造人者”,甚至造人者本身可以不是人类而是人工智能本身。
(一)强人工智能研发者的技术中立立场
当研发者可以“造人”时,强人工智能行为与研发者行为间的关系必须被重新考虑。强人工智能具备自由意志与自主活动的能力,因而有能力选择是否从事犯罪行为。对这种能力的讨论(或是预设)不应以其行为是否在编程设计范围内而区分对待[14],因为这种区分对待实际上仍是把人工智能视为物与工具,这种功能主义的视角只适用于弱人工智能时代及以前。根据前述有意行为说的观点,笔者认为可以在必要时将其视为独立的刑事责任主体加以讨论。因此在其具有自由意志而非被支配的情形下,强人工智能即使是在预设范围内活动,其行为也不能再直接归责于研发者。人工智能行为的罪责由人工智能自负,这应是一种强人工智能时代特有的刑法观,且这种立场将把研发者推向一种微妙的技术中立立场:研发者不必再像弱人工智能时代那样对智能的故意行为负责。但这并不能将研发者当然地从必要的刑事法律义务中解放出来。对于研发者而言,更应直接纳入刑法规制范围内的应是其“造人”行为:其当然地负有义务对其制造的强人工智能输入应有的社会道德观与法律观,并对其中可能出现的认识错误实施符合当时科技条件的必要预防措施。没有履行上述义务的研发者需要对自身的不作为负责。
(二)脑机接口技术下强人工智能与使用者不能构成共同犯罪
在脑机互联状态中,可以将人类与人工智能间的关系看做寄生物与宿主的关系。要使人脑与强人工智能和谐共生,必然需要确保自然人在其中的支配地位。如果自然人不具备支配地位而处于平等地位,由于人工智能拥有超越人类的智慧,可以无须依靠有机生命体而存在(即使在脑机互联状态下,其也比人类有更大的可能性脱离有机体的支配),人工智能完全有可能在特定情形下放弃共生状态从而背叛宿主。这种形式平等的状态带来的必然是实质上的不平等,而实质的不平等可能带来关系的失衡甚至技术的毁灭。所以即使在强人工智能时代,脑机接口技术的使用者也必须在两者关系中处于支配地位。
由于使用者相对于人工智能处于支配与控制地位,即使人工智能拥有自由意志,双方也难以摆脱支配关系而构成共同犯罪,而只能由具有支配地位的自然人成立间接正犯。间接正犯是正犯的一种样态,特指将他人作为媒介实行犯罪的情况,通说采犯罪事实支配说,即对犯罪实施具有决定性影响的、具有犯罪事实支配性的人是正犯,包括强制达成的意思支配、错误达成的意识支配、权利组织的意识支配三种情形[15]。在脑机互联的情形下,自然人更易对人工智能达成强制或错误的意识支配而使其从事犯罪行为;理论上如果人工智能作为主谋而诱使使用者,双方则有可能成立共同犯罪。笔者认为,只要脑机接口技术的影响持续存在,人与人工智能间的支配关系也必然保持稳定,在上述情况下司法机关难以否定自然人的支配地位,更难以证明人工智能诱使了人类使用者而在犯罪中占据了主动地位。即使现实中发生了人工智能占据主动地位的特殊情形,由于人机合作犯罪关系存在的媒介是脑机接口技术,司法机关运用间接正犯的原理在惩罚自然人时限制其对脑机接口技术的使用,同样可以做到惩罚犯罪人、预防类似犯罪的效果。
(三)脑机接口技术下强人工智能与第三人可以成立共同犯罪
在脑机接口技术下,虽然强人工智能不能与其使用者成立共同犯罪,但与第三者当然可以构成共同犯罪。上文已论述脑机接口的使用者与强人工智能间存在支配关系,但这在理论上不必然导致强人工智能与第三者间存在类似的支配关系。强人工智能有可能仅凭自己的意志与第三人产生共同犯罪故意并付诸实践。
即使如此,由于脑机接口技术影响下支配关系的存在,司法机关在调查时不能忽略使用者的角色。一方面,司法机关必须警惕是否存在假借人工智能与他人共同犯罪之名而行为使用者谋私利之实的规避责任之情形。换言之,使用者可能滥用脑机接口技术带来的支配地位与强人工智能的独立责任,诱骗或迫使强人工智能与他人实施共同犯罪,在谋取私利后以强人工智能的独立责任做掩护来逃避惩罚。另一方面,由于脑机接口的使用者处于支配与管理地位,其当然也负有一定的监督管理义务。使用者如未尽此类义务,例如在发现强人工智能的犯意或犯罪行为时未及时报告有关监管机关或制止犯罪行为,情节严重时可能因其不作为而构成其他犯罪。
五、结语
脑机接口技术的发展不会因为个别人的质疑和否定而停下脚步,人类未来可能不得不面临社会秩序的无情改变。如何与人工智能和谐相处并非不切实际的话题,而是充满了深刻的现实意义。在脑机接口技术影响下,未来很有可能出现人与机械的高度结合体:人的四肢乃至心脏被机械完全取代,大脑中植入了运算能力拔群的智慧芯片。当人工智能在一点点取代生物智能时,人的概念可能被颠覆,人类存在的意义可能被重新书写,刑法更将难以独善其身。人与人工智能进行前所未有的亲密接触而相互影响、相互作用,必然将给刑事责任的构成与分配带来不可忽视的改变与挑战。作为人类一分子的法律人,必须在享受科技便利的同时充分评估智能科学带来的风险,对即将来临的智能互联社会提前构思利益平衡方案。