伪命题:人工智能带来的刑事风险
2019-01-18郎正午
郎正午
(河北经贸大学法学院,河北 石家庄050061)
一、刺破人工智能的人格面纱,对人工智能独立主体地位的否定
(一)人工智能独立人格否定的法哲学基础
当人工智能能为自己代言时,即可以为自己发声时,人工智能的独立人格才具有现实意义。人工智能或许是人类最后的发明,它可能是人类最好的发明,也许是人类最坏的发明。人工智能之于人类,正如人类之于造物主。人类是造物主最后的发明,但当人类诞生之后,造物主便失去了其威慑,换而言之,从上帝的束缚下解放出来的人类,才真正产生出了理性;人类可以从各种自然共同体和人为共同体的依附中独立出来,成为自主和个性化的人,人工智能是否可以从“各种自然共同体和人为共同体的依附中独立出来,成为自主和个性化的”人工智能,是否可以拥有独立的人格,这取决于人工智能是否可以从各种自然共同体(如能源)和人为共同体(如工程师)的依附中独立出来,成为自主和个性化的“人”。
人工智能的发展阶段分为三个阶段:弱人工智能时期、强人工智能时期、超人工智能时期。目前人工智能处于弱人工智能时期。弱人工智能阶段的首要目的是构建云计算、大数据、深度学习算法、人脑芯片四者框架的磨合,换而言之是基础架构的铺设。由人工智能的初级阶段实现到强人工智能的飞跃,这一过程正如同人类由单细胞生物进化之地一次人类直立行走,是一个漫长的时期。法律具有时代性,法律应以社会为基础,正如秦始皇时期,不可能制定知识产权保护法。但是作为新时代的人工智能所带来之风险的应对,立法要具有适度的超前性,但这适度的超前性并不能成为赋予弱人工智能法律人格的渊源。
(二)超人工智能人格减损与非难可能性
人工智能同人类的关系,又不完全同于人类和上帝的关系。经过三次科技革命,人类已经从上帝的束缚中解放了出来,拥有了理性,这是人类独立人格的基础。而人工智能而不同,人工智能无论在什么阶段都将成为人类的工具,“人类既然有能力发明人工智能,那么也应当具有控制人工智能的能力。”[1]即使是人类也并未人人都具有完整意义上的独立人格,因此才产生“限制行为能力”和“无行为能力”的概念,进而实现了“非难可能性”这一理论的产生。
从这一角度来说,人工智能不管位于哪个阶段,都将成为人类的工具,也即哪怕是在超人工智能的阶段,它也不足以取得完全意义上的人格,换而言之,即使未来立法赋予超人工智能独立的人格,这样的人格也是减损的。
现在人工智能正在处于且长期处于弱人工智能阶段,不论是谈论弱人工智能的独立人格,还是认为人工智能“不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格”[2],均是认为社会是以法律作为基础的体现,而这是人工智能法律人一厢情愿幻想。
(三)刺破人工智能面纱,人工智能人格否定
伴随着人工智能技术的飞速发展,人工智能拥有日益强大的智能,人工智能与人类的差别有可能逐渐缩小。《Doctor Who》中所描述的“赛博人”基于人类所改造,将人类的血肉之躯转变为合金,其神经元数量已经远远超越了人脑。在21 世纪中叶,非生物智能将会10 亿倍于今天所有人的智慧[3]。英美法系、大陆法系主流国家的哲学家、科学家、伦理学家甚至法学家对此存在较大争议。
欧盟委员会法律事务委员会向欧盟委员会提交动议,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的权利和义务”外,还建议为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号[4]。无独有偶,沙特阿拉伯赋予人工智能Sophia 以国籍[5],也是赋予人工智能独立人格的体现。
欧盟和沙特在事实上承认了人工智能的独立人格,这属于社会事实,从现存的社会事实并不能当然地推导出社会价值。electronic persons 也好,Sophia也罢,均属于尚未从各种自然共同体和人为共同体的依附中独立出来,成为自主和个性化的个体。如果说Sophia 的独立人格,是沙特阿拉伯土豪缺乏法律意识的任性,那欧盟的乌龙则是属于哲学家、科学家、伦理学家以及法学家的幻想。
主体,是一个“人”才承担义务行使权力的资格,是法律行为的核心。由于人工智能没有自身的目的,其工作目的为人类设计者所设计,以致其没有任何不良企图。也即,在本质上人工智能就是一个工具。赋予一个工具独立的人格,等于让一把匕首去承担故意杀人罪的实行犯的责任,而杀人者则成为了间接正犯,实乃滑天下之大稽。
二、常见的人工智能犯罪与现有应对机制
(一)人工智障,共同过失正犯
现阶段的人工智能尚不足以取得独立、完全的法律人格,倘若人工是能在自己运行中,出现过失,往往要追究人工智能研发者和使用者的过失责任。阿莎芬堡案是最为典型的案例:2012 年春天,一辆配备有功能强大的车道保持辅助系统的汽车驶入阿沙芬堡市附近的阿尔策瑙村。在驶入口处,车上60岁的司机突然中风并失去了意识。他向右扭转方向盘,在正常情况下汽车会停在驶入口前的灌木丛中。然而,车道保持辅助系统又将汽车驶回到马路上。车辆高速驶入阿尔策瑙村,并撞死了一位年轻女子和她的孩子。孩子的父亲跳开躲闪,只是腿部受了伤。
在客观不法的层面来看,司机和“功能强大的车道保持辅助系统的汽车”构成了共同犯罪这一事实状态,属于刑法所规制行为,造成了两死一伤的后果,行为与结果之间存在刑法上的因果关系。
从主观有责的阶层来看,司机由于“突然中风并失去了意识”系属意外事件,因此司机并不承担刑事责任。而“功能强大的车道保持辅助系统的汽车”是没有独立的人格的,因此该人工智能并不能承担刑事责任。然而司机“向右扭转方向盘,在正常情况下汽车会停在驶入口前的灌木丛中。然而,车道保持辅助系统又将汽车驶回到马路上”这一细节足以说明人工智能变成了人工智障,本来应该停在驶入口前的灌木丛中的汽车却又冲回了马路。由于人工智能缺失独立的人格属于“主体阙如”的状态,不满足主观有责的阶层,也根本谈不上非难可能性这一主观责任的排除是由。德国司法裁判者认为,造成该事故的元凶在于人工智能的制造者们存在多个违反义务的行为,而制造者绝对不会对这一结果持故意心态,因此是过失心态。在德国的刑法体系下,是不存在单位犯罪的,因此便追究了制造者们一个共同的过失犯罪——过失致人死亡罪的共同过失正犯。若是我国大可以追究一个单位犯罪。
除此之外还可以论证这一理论的案例则为:德国鲍纳塔尔的工厂发生了一起意外事故,工人B 出于失误过早地开启了机器。导致工人A 在工作时被一个未放置在安全笼中的机器人手臂抓起,并向一块金属板挤压,最终导致死亡。此时的人工智能机器人虽然是跟工人B 在客观不法层面上构成了共同犯罪,但是由于人工智能的主体阙如和工人B 的过失心态使得工厂的负责人和工人B 构成过失的共同正犯。
(二)利用人工智能去犯罪,对教唆犯与间接正犯的相继否定
虽然说科技的发展在造福人类社会的同时也为不法分子带来可乘之机,“因而不法分子很有可能利用人工智能技术实施犯罪”[6],但这实际上是一个伪命题。如具有犯罪意图的研发者可以在设计和编制程序的时候植入自己的犯罪计划,使得以智能机器人为代表的人工智能产品帮助自己实现犯罪目的[7]。例如随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中的根深蒂固的偏见[8]。也例如今日头条这一APP 基于流氓算法,窃取用户聊天记录,然后根据聊天记录推送广告。
人工智能在本质上就是工具,人类在制造人工智能时“往往有一个简单的奴隶预设,即机器人本质上是类似于奴隶的行为体”[9],行为人利用人工智能去犯罪,首先要排除教唆犯的构成。
教唆犯,是指使没有犯意的人产生了犯意,并实行了犯罪行为。不论教唆正处于弱人工智能阶段的现在,还是未来的强人工智能和超人工智能阶段的未来,都无异于教唆一个猴子或者一条狗。换而言之,根本构不成教唆。人工智能在其算法上应该是客观中立的,若认定人工智能是被赋予邪恶算法的工具,则违背无罪推定的精神,因此即使赋予了人工智能的独立人格,那人工智能也应当是没有不良企图的,也不会由于他人的唆使而产生犯意。倘若认为行为人通过黑客手段篡改人工智能算法产生的后果是使犯罪行为实现是黑客的意图[10],从而认定行为人是教唆或者间接正犯,那则一方面忽略了人工智能诞生之初就是为了实现人类的需求这一目的的根本前提,另一方面又忽视了间接正犯的基础概念。
间接正犯,行为人把他人当做自己实行犯罪的工具。间接正犯除了侵害间接正犯者本身所侵犯的法益外,还构成对被当做工具者的侮辱。从这个角度上讲,间接正犯属于选择性法益。但是人工智能本身就是工具,若把工具当做工具,构成对工具的侮辱,属于重复评价,也属于利益阙如。
因此,行为人利用人工智能去故意犯罪,则构成直接实行犯,不存在间接正犯或者教唆犯的情形。
(三)风险社会——增设人工智能犯罪独立条款之否定
对人工智能犯罪增设独立条款的否定并不意味着对人工智能所带来风险的忽视,而是指现有体系内足以应对人工智能所带来的对刑法的冲击。风险刑法在应对未知风险时显示了其独特的价值,弥补了传统刑法所无法调整的法益类型;改变了传统刑法对某些罪行处罚过于滞后的做法;解决了传统刑法的一些归责难题[11],“是指通过规制行为人违反规范的行为所导致的风险,以处罚危险犯的方式更加早期地、周延地保护法益,进而为实现刑罚的积极的一般预防目的而形成的一种新的刑法体系”[]。
刑法并非是冰冷的,在风险面前刑法也不会麻木不仁。社会大众所感知的风险并不是源于事件的直接实际后果,而是源于心理、社会、文化、体制、媒体宣传等诸多因素[12][。人工智能所带来的风险社会的一个突出特点就是“高度不确定性”。风险社会所面对的风险不同于工业社会的风险,后者的风险大体可以通过科学理性加以确定和控制,而人工智能的风险是一种人为制造的风险,科学理性在这种风险面前已变得无能为力[13]。
企图通过源头防范确立严格责任,增设人工智能事故罪;增设滥用人工智能罪;或者认为在必要的时候,刑法可以赋予人工智能刑事责任主体的地位,并增设能够适用于智能机器人犯罪的刑罚处罚方式[14],其实是一种哗众取宠的无稽之谈。增设两种独立罪名会使得刑罚的一般预防目的和特殊预防目的相对立,形成刑法对人工智能的歧视,这是万万不可的。而赋予人工智能主体地位,并增设刑罚处罚方式,则更是违背了刑法面前人人平等的原则。一旦赋予人工智能主体地位,人工智能则将成为人,即使是电子人,他也将直接适用于总论中关于自然人之有关规定,对电子人的特殊立法是对独立人工智能的歧视,与法理相悖。
综上所述人工智能所带来的对刑法的冲击并不是质变,现有体系足以应对人工智能所带来的未知风险,法律的目的是维持秩序而不是创造秩序,创设独立罪名的行为是颠倒法与社会关系的法律人的幻想。
三、人工智障,结果避免之虞与不作为过失犯罪
整体而言,人工智能所触及的犯罪大多是过失犯罪。德国的判例则形象地阐述了结果避免之虞的理论。在过失犯罪的认定中,结果避免之虞与结果预见之虞并不是对等的概念,过失犯的成立以存在结果避免之虞为前提,结果可避免性是过失犯罪结果归责的必要条件。刑法给行为人不加作为义务是有意义和目的的。如果履行了该作为义务,那么危害结果便不会发生,也即具有结果避免发生的可能性。如果履行了该作为义务,危害结果仍然会发生,则履行该作为义务便没有意义,则失去了行为人的非难性。这一其按提条件被称为结果避免之虞。换而言之过失犯罪和不作为犯罪是结果避免之虞的一体两面
在行为人和被害人同时有过错的情况下,义务违反关联的判断应当假设被害人的行为是符合义务的,那行为人的违反义务行为是否还会导致结果的产生。在阿莎芬堡案中,司机实际上也是受害者,对该系统的制造商给予一个违反注意义务的非难是值得肯定的,发生在阿尔策瑙村的交通事故是可预见的,是具有结果避免之虞的。生产商若放弃“安装车道保持辅助系统”,就可避免母亲和她孩子的死亡。由于该系统使用者数量巨大,在统计学上几乎可以肯定,该系统将会造成人身伤害或死亡。所有的这一切都赞成认可一个生产者对注意义务的违反。生产者未尽到对注意义务的作为义务,因此属于不作为犯罪。不作为的模型是:应为→能为→而不为→具有等价性。生产者应该尽到注意义务,且生产者完全有能够履行该义务的可能性,但是生产者却选择了不作为,也即没有放弃车道保持辅助系统。
至于等价性的参考因素则由作为义务的性质和行为人支配风险发展的程度高低。生产者的不作为与行为高位支配的危险之高不具有等价性,是生产者构成不作为犯罪的原因。换而言之,有无作为义务和将作为义务履行到什么程度是两个独立的问题,有作为义务并不意味着要将作为义务负责到底。但二者存在一定的比例问题,也即履行程度的问题。也即,不需要生产者预见到每一个细节,而只需预见到由于自动系统几乎普及,发生在阿尔策瑙村的交通事故并不会成为个案即可。
人工智能的故障可以戏称为人工智障,由于生产者或者研发者没有尽到注意义务,而又对危害结果的发生不可能持故意心态,从而导致的人工智障类犯罪可以归结为生产者的不作为过失犯罪或者单纯的意外事件。不作为过失犯罪和意外事件的区分就在于结果避免之虞。若生产者和研发者是数人,则存在多个违反义务的行为,在德国的刑法中体系中将追究生产者和研发者是数人过失是共同正犯的责任。而在我国的刑法体系下,共同过失不构成共同犯罪,从而导致我国往往会追究单位或者单位主管人员的责任。按照结果避免之虞的程度高低,分为两种情形:结果不可避免与结果可能避免[15]。结果避免之虞是否影响归责,要根据“合义务替代行为”来确定,也即假定人工智能的生产者倘若尽到了注意义务,结果是否依旧会发生是区分不作为过失犯罪或者单纯的意外事件的核心条件。换而言之,若人工智能的生产者和研发者竭尽所能,但仍无法阻止结果的发生,对其的非难便成为了苛责,“在因果关系能够肯定,结果避免可能性难以确定的情况下,虽然行为违反注意义务,但如果没有明显增加法益危险,应当排除行为人的过失责任,以无罪处理”[16],这正是风险社会的核心精神的体现,刑法不能阻碍社会科技的进步。
四、利用人工智能犯罪,动物风险对人工智能风险归责的启示
(一)赋予人工智能独立人格如同猎狐人规则是一种伪善
人工智能的发展会经历三个阶段:弱人工智能,强人工智能,超人工智能。虽然说强人工智能后人工智能将有可能超越人类,但是这并足以说明了人工智能具有人类的意识,正如大猩猩和海豚一样,在某些领域内这两种动物的表现已经超越了人类,但这既不是动物有着独立法律地位的理由,更不能成为人工智能取得法律主体地位的理由。
人类不需要赋予人工智能“人”的地位,反之,这一人格便成为了造物主的恩赐。当人工智能发展的足够充分的时候,它们会为自己代言。正如如火如荼的女权运动的核心价值在于,女性要为自己发声。人工智能若取得独立的人格的前提条件则是它们可以诉说自己的需求。若为不能诉说自己的诉求的“thing”代言,如同“猎狐人规则”一样,是人类基于造物主独有的钟爱所产生的特有的优越感的伪善。英格兰人认为猎手与猎物均是由造物主创造,猎手与猎物是平等的。让猎物先跑一段距离,是为了弥补猎物在公平竞争上的劣势。实际上,猎手是武装到牙齿的,且与猎物有着最大的不同则是在于猎手具有意识,这种意识绝不与超人工智能的“意识”相同,并不是基于先天的算法和基础构造,而是基于历史、文化、地理等多方面的因素交杂而成;而猎物则更多的是与生俱来的本能。猎狐人规则所体现的是一种伪善。这“恩赐”给了毫无还手之力的、毫无希望可言的猎物以希望,再以残酷的猎杀破灭其希望。这不是善,更多的是满足了猎手的杀戮之心。猎手在胜利之后吃着猎物的烤肉,豪饮猎物的鲜血,还畅谈猎手与猎物公平决斗,并认为这就是正义,这无疑是荒谬的。
同理,赋予没有意识而言,哪怕是超越人类的超人工智能或者动物以独立的人格属于伪善。如果把整个法治国家比作成为猎场,人类和人工智能分别作为猎手和猎物,在一个由人类主导的刑事司法活动的对决中,赋予其人格属于让毫无还手之力的猎物先跑一段,然后用人类的规则将其制裁,这属于将人类的道德强加于其他个体,是极为不正义的。
(二)基于动物风险的迷思之对人工智能精准定位
由于人工智能无论如何也不可以被赋予独立的人格,因此同样作为依附于人类的“thing”,将其视为动物并无不可取之处。动物风险的精髓在于行为人对动物有无支配力,简而言之,一条狗可以在行为人的唆使下去咬人,也会因行为人的命令而停止攻击。
若A 命令一条狗去轻伤B,B 对狗进行反击,最后B 轻伤。A 构成故意伤害罪,B 构成正当防卫。对有主动物故意攻击的反击视为对不法侵害人的正当防卫。
然而若A 命令一条狗去轻伤B,B 对狗进行反击,最后结果是使得B 重伤或者死亡。如何评价狗的“实行过限”问题就成为了动物风险的核心问题。A对B 重伤或者死亡的心态,要么是故意要么是过失;当A 的心态为故意时,则不存在过限问题,也即轻伤和重伤、死亡之间是类型化的因果关系,重伤死亡就是轻伤升级,故此不在讨论范围之内。
若A 命令一条狗去轻伤B,狗失去了控制,使得B 重伤或者死亡。A 若持过失心态,也即对B 的重伤死亡的结果是不希望看到的,则构成了未超出者对超出范围具有过失,而这过失则很有可能构成不作为的过失。首先A 命令一条狗去轻伤B 构成故意伤害罪,A 由于先行行为产生了一个制止狗的继续侵害的义务,然而狗却失去了控制,A 有阻止狗继续侵害的义务,却没有履行相应的义务,属于不作为犯罪。且A 的目的是轻伤B,因此对B 的重伤死亡的结果是过失心态,因此属于过失致人死亡罪。A 有两个行为:一个作为的行为和一个不作为的行为。导致了一个结果:B 的重伤死亡。行为人两个行为造成了一个法益侵害的后果,因此不能对A 以故意伤害罪和过失致人重伤(死亡)罪数罪并罚,否则将对被害人进行重复评价,因此则采用重行为吸收轻行为的吸收犯的原则,对A 以过失致人重伤(死亡)论处。
倘若利用人工智能去故意犯侵犯人身安全类犯罪,可以参考上述结论。简而言之,在行为人故意范围内成立故意伤害,对超出部分以过失犯罪论处,是动物风险对人工智能所带来风险的回应。●