APP下载

强人工智能刑事主体地位之肯定

2019-02-19

四川警察学院学报 2019年3期
关键词:刑法主体人工智能

张 雯

(华东政法大学 上海 200042)

一、问题的引出

(一)人工智能冲击现有法律体系

虽然人工智能早已滲入我们的生活,例如智能家电、Deep Blue、语音识别技术等,但人工智能的强大真正引起社会的关注和热议的事件是两年前世界围棋冠军李世石被AlphaGo 打败。22 年前,当Deep Blue打败国际象棋大师卡斯帕罗夫时,人们仍然能保持乐观的心态,因为在最能体现东方智慧的围棋领域,人类仍然拥有绝对优势。随着AlphaGO的胜利,人们开始更多地关注人工智能领域。但当AlphaO在没有输入任何围棋规则,既可通过“学习”掌握围棋这一最能体现人类智慧的领域,并打败了世界级围棋选手柯洁时,人类对人工智能的态度则由乐观转为担忧——未来的某一天,人工智能会统治人类。

“人工智能是一门科学,这门科学让机器做人类需要智能才能完成的事”[1]。人工智能技术包罗万象,包括自然语言处理、知识表示、智能搜索、规划、机器学习、人工神经网络复杂系统、数据挖掘、遗传算法、模糊控制等。本文的对象为人工智能体——表现形式为机器人[2],排除现实世界中不运用任何组织的、完全基于软件的人工智能系统。

人工智能能否发展到统治人类的程度,尚无明确的答案,透过人类社会对人工智能技术发展所表现出来的担忧与恐惧,或许可以窥见强人工智能可能具有的能力是何等强大。此时此刻,在深度学习算法的促进下,人工智能携带着云计算、大数据、卷积神经网络,突破了自然语言语音处理、图像识别的瓶颈,为人类社会带来了翻天覆地的变化。当无人驾驶汽车穿梭在道路上,机器人医生在手术室做外科手术,社交机器人向它的同伴泄露用户的个人信息时,谁应当为被侵犯的法益负责,是人工智能体还是它背后“隐藏”的人类。赋予完全自主的强人工智能体刑事法律主体地位,可以在对现有对刑事法律体系造成颠覆性冲击的前提下,有效地解决刑事责任分配问题。

(二)人工智能体的分类

人工智能技术发展到今天,已有众多成熟的实体,如现有的人工智能体包括鲁巴姆扫地机器人、谷歌的无人驾驶汽车、沃森和医疗机器人等,这些人工智能体虽然在数据处理、计算和搜索方面拥有远超人类的能力,但它们仍然是人工智能技术发展初期的产品,即弱人工智能体。

技术专家将人工智能分为弱人工智能与强人工智能。弱人工智能与麻省理工学院相关,这个学派将任何表现出智能行为的系统都视为人工智能的例子[3]11。他们认为,人造物是否使用与人类相同的方式执行任务无关紧要,唯一的标准就是程序能够正确执行。在电子工程、机器人和相关领域,人工智能工程主要关注的是得倒令人满意的执行结果。强人工智能以卡内基梅隆大学研究人工智能的方法为代表的学派,他们主要关注生物可行性[3]11。也就是说,当人造物展现智能行为时,它的表现基于人类所使用的相同方法。例如,考虑一个具有听觉的系统。弱人工智能支持者仅仅关注系统的表现,而强人工智能支持者的目标在于,通过模拟人类听觉系统,使用等效的耳蜗、听力管其他部分的部件来成功获得听觉。弱人工智能的支持者单单基于系统的表现来衡量系统是否成功,而强人工智能的支持者关注他们所构建系统的结构。弱人工智能的支持者认为,人工智能研究的存在理由是解决困难问题,而不必理会实际解决问题的方式;强人工智能支持者则认为,单单凭借人工智能程序的启发法、算法和知识,计算机就可以获得意识和智能。

从法学专家角度看,刘宪权教授以人工智能体“是否具有辨认和控制能力,”[4]135将人工智能分为强人工智能与弱人工智能。强人工智能体具有辨认和控制能力,“即可能在设计和编制的程序范围内进行独立判断并自主作出决策,实现设计者或使用者的意志;也有可能超出设计和编程的程序范围,进行自主决策并实施相应行为,实现其自身的意志。”[4]135-136弱人工智能体不具备辨认和控制能力,只能在“设计和编程内”依据“设计者或使用者的意志”作出决策[4]135。

综合技术专家和法学专家对人工智能体的分类,笔者认为,弱人工智能体依赖算法表现为输入和输出的可预见,强人工智能体更多地依赖启发法表现出输出的不可预测[2]11。算法与启发法均为人工智能的基础方法,“算法是规定的用于解决问题的一组规则,其输出是完全可预测的。而使用启发法,我们可能得到一个很有利但不能得到保证的结果”[2]。谷歌无人驾驶汽车装有不同的传感器,程序员设计了某种算法,用以接收、处理和反馈传感器捕捉的驾驶环境;现有的无人驾驶汽车为弱人工智能体,它所做出的每一个决定都是由程序员预先写进算法里的,如前方出现行人时减速、刹车;然而当无人驾驶汽车发展为强人工智能体时,程序员所做的仅是给其配置传感器与启发法,无人驾驶汽车借助大数据与启发法等人工智能技术,学习经验并作出判断,无论是程序员还是用户均无法事先预测无人驾驶汽车所做出的判断。

综上所述,融合技术专家与法学专家对强弱人工智能的分类定义,笔者认为:弱人工智能体,是指输出的结果包含于程序员的算法输入,其行为在人类的预测范围内的智能体;强人工智能体,是指输出的结果根据经验得出,其行为人类无法预测的智能体。

二、关于人工智能体的刑事法律地位之争

人工智能体是否拥有刑事主体资格,需要根据其种类来划分。一般来说,现有法律认为弱人工智能体的行为只是人类行为的合法延伸,因其全部的行为均为算法所预先设定,弱人工智能体被视为人类的“工具”,不具有独立自主的意识,不具备辨认、控制自己行为的能力,故弱人工智能体不具备刑事主体资格。现有的刑法体系并没有对强人工智能体刑事责任的规定,因此对它是否具备刑事主体资格,不同学者持不同的意见。

(一)肯定论

肯定说支持者认为强人工智能体拥有刑事主体资格的理由有:

第一,人工智能体具有承担刑事责任能力所要求的辨认和控制能力。认为“刑法意义上的辨认能力是对行为的性质、后果、作用的认识能力,这种认识包括事实层面的认识和规范层面的认识,”[4]139强人工智能体拥有独立的辨认和控制能力,强人工智能产品可以通过各种不同的传感器认识客观事实;“能够凭借大数据与高速运算能力对行为进行精准的控制”[4]139,强人工智能体具备控制其行为的能力。有的学者将人工智能体分为三类:人造程序、人造机器或人造机器人、人造人;依其论述人造机器人和人造人分别对应于弱人工智能体和强人工智能体。人造程序不具备刑事主体资格,“人工智能技术的刑事责任应当与其自主性程度高度匹配。人造程序本身没有辨别和控制能力,所以不存在风险,或者说,人造程序本身不具备可受刑法处罚性,因此,它在法律规制中尤其是责任承担条款中不具有可责性。”[5]139人造机器或人造机器人具备有限制的刑事主体资格,并将其刑事责任能力类比于法人的刑事责任能力[5]140。人造人具备完整的刑事主体资格,因为它满足刑事责任的基本构成,即“外部事实成分要求(犯罪行为)和内部心理因素要求(主观方面)”[5]140。

第二,人工智能体的行为可能造成侵害法益的结果。强人工智能体一方面具有法益侵犯的可能性和理性的特质,从而有“成为刑事主体的必要性”;另一方面,因为强人工智能体是理性的主体而获得了认知控制能力,故有“成为刑事主体的可行性”[6]2-4。人工智能体学习人类世界的规则,从大数据中总结出经验,在做出选择前能够预判行为是否触法。由于强人工智能体发展为具有独立意识的个体,行为具有不可预见性,故其完全可能选择侵害法益的行为。

第三,人工智能体能够产生独立的意识,不应当被视为无自由意志的工具。人工智能体通过深度学习,发展出完全独立的意识和意志,不应当再将其视为‘人工人”[7]117。与法人相比,人工智能体在独立自主方面更接近于自然人。法人是一个虚拟主体,实际上它所有的意思表达均可以归于自然人的集体决定或协商、妥协。完全自动化的人工智能体,同自然人相似,无需同其他任何人协商即可独立地表达意思。

(二)否定论

反对人工智能体成为刑事责任主体的原因主要有三个:

第一,刑事责任能力的核心是辨认、控制能力,人工智能体无辨认和控制能力。不论人工智能体是否遵照预先设计的程序,均不能证明人工智能体拥有控制和辨认能力,即欠缺法规范遵从能力的意志性,即使客观上造成了侵害法益的结果,也不能将刑事责任归于人工智能体[8]67。此种观点基于人工智能体没有“意思”或“意识”,而否认人工智能体的主观上不法,将其危害社会的行为定性为意外事件或偶然事件,以此否定人工智能体的刑事主体地位。不妨假设称人工智能体做出选择的过程为其“意识”,人工智能体根据其“意识”对实现做出反应,换句话说,可以认为人工智能体用客观的、外在的行为表明其内在“意识”。“人要支配这个世界,意志是主体。至于人自己的肉体,和别人的肉体,以及世界上所有的物质的存在,意义都是一样的,都是人这个意志的工具而已。因此,刑法上说禁止一个不法行为,不可能就是禁止一个纯粹的外表的肉体动作而已,而是禁止一个意志的跃动,也就是禁止一种表态。”[9]128对于自然人而言,刑法判断其主观不法尚且需要依据客观的、外在的行为表现,在我们讨论人工智能体的行为是否符合构成要件时,则直接以其不具有“意识”将其直接排斥在刑事主体之外,未免失之妥当。退一步讲,即使人工智能体不具有“意识”,恰当的逻辑应是将其与限制刑事责任主体、无刑事责任主体进行比较,因为他们客观的、外在的行为均为客观的不法。

第二,人工智能体无生命、财产、自由,对其施加刑罚没有任何意义。“对一个人类的观察者而言,对机器人的物理损坏或者损害可能看起来像是肉体惩罚甚或死刑;但是,它对机器人并不具有类似的影响,至少它不具有(身体健康地)活下去的意愿。”[10]340人工智能体缺乏刑罚的识别能力和承受能力,且对人工智能体施加刑罚,并不能引起社会的共鸣,无法实现刑罚一般教育的目的[11]4-5。肯定论者“忽略了刑罚的痛苦本质”[12]121。此种观点的逻辑是对人工智能体处罚无意义,因此无需对将其认定为刑事主体。这一逻辑不符合现有刑法体系。如同刑法不处罚未满14 周岁的未成年人和精神病人一样,阻却刑罚的不是因其不是刑事主体,而是因为刑法在责任层面阻却其责任。纵然刑罚的本质是痛苦[13]49,“使犯罪人受剥夺性痛苦是刑罚的惩罚性与内在属性,恶有恶报、善有善报的朴素正义观念决定了没有痛苦内容的措施在任何时代都不可能成为刑罚,”[14]56但从被害者一面看,依照朴素的法感情,不处罚侵害其权利的主体更是“意难平”。否定论者不断地重申人工智能体无法感受痛苦,似乎下意识地认为所有的刑事主体均应被处罚,而忽略了刑法作为社会行为准则的指引作用。对人工智能体施加刑罚或许并不会使它们感受到痛苦,但不对其施以惩罚,或者将责任转嫁于背后的人类,必然会引起被害者对正义缺失的不满,及被殃及的人类对公平的呼唤。

第三,承认人工智能体的刑事主体资格,会使得现有的刑事责任体系崩溃;若承认人工智能体是刑事责任主体,则无法追究相关人类的刑事责任,最终会导致刑事责任体系的崩溃。“只有始终保持人类对智能机器人的控制力、决定力,才能维系人类社会法治的基础。如果智能机器人具有刑事法律主体资格,智能机器人就会与其研发者、设计者、生产者、所有者、操作者、监管者等成为彼此独立的主体,一旦前者制造风险、造成损害,并可能因其“构成犯罪”而承担“刑事责任”,后者便会尽力规避理应承担的法律责任,甚至逃避应负的法律责任。”[15]42持此种观点的学者似乎没有看到规制人工智能体犯罪背后的意义,之所以赋予人工智能体独立的刑事主体地位,原因就在于明确人工智能体与其研发者、设计者、生产者、所有者、使用者、操作者、监管者的责任划分。基于责任自负原则,人类研发者、设计者、生产者、所有者、使用者、操作者、监管者,不应承担不是出于其意志支配下实施的犯罪行为的责任。诚然,人工智能体虽然可以成为刑事责任主体,但现有的责任评估模式不能简单的适用于强人工智能体,它们并不当然地能够单独实施所有的犯罪,或者能够该当所有的不法类型。赋予人工智能体刑事主体地位,能够有效地解决未来人类与人工智能体刑事责任划分的问题。计算机科学领域相信“技术无罪”,潜在的意思即是正当地开发、使用技术无罪,如若将不可预测的人工智能体的行为所导致的责任一昧地归于人类,技术何以创新。

持否定说观点的学者还认为人工智能体作为刑事责任主体是一种“超个人化”的风险观点:第一,人工智能体的辨认能力是一种纯粹事实行为,不具有非难可能性;第二,人工智能体的控制能力仅仅是系统的模式选择,并不是在主观心态下完成;第三,人工智能体不具有自由意志[11]3-4。持否定论的学者始终围绕着,机器不是人因此不可能同人类一样思考,进而不可能拥有独立的意识,批判人工智能体独立获得刑事法律地位。立足于当下的人工智能和硬件技术水平,完全自主的、不受人类控制的、无法预测的强人工智能体似乎还无法出现。但是,20年前,人类能够相信AI会打败世界围棋大师,以及飞行在万米高空的飞机可以自动驾驶吗?神经网络技术早已被讨论,但技术的变现源于更快的计算机的出现。未来的某一天,当计算机的速度足够快时,数以千亿计的神经网络模型协同作用时,人工智能体产生独立的自我意识将是现实的。

此外,在讨论人工智能体是否具有独立的意识前,需要区分“思考”与“智能”的概念。思考是推理、分析、评估和形成思想和概念的工具;而智能是思维。工具具有替代性,而思维则不可替换。人工智能体学习了人类处理信息和学习的能力,在某种程度上其也可以基于“自愿”去“选择”行为。对人工智能体不经区分,一味地认定为人类的工具,将责任归于人类,即使建立人工智能保险基金,在某些方面也难免阻碍科技的进步。承认强人工智能体的法律地位,势必会对刑法提出挑战,但在刑法发展的漫长过程过,它所经历的困难远比人工智能体引起的更大、更难。未来已来,赋予强人工智能体法律地位也许是“风声鹤唳”,但却不会是也不可能是“百无一是”。

三、强人工智能体在刑事法律体系中应有的地位

在未来的某一天,当拥有人类思考逻辑的强人工智能出现时,人类社会可能会意识到,如果有充足的理由去允许人类与人工智能体签订合同,去雇佣他们,赋予他们颁布法律或在法院担任法官的权利,以及许多其他权利,而这些赋予人工智能体的权利目前仍然由人类支配,在某些情况下这些权利还可能赋予法人时,该如何评价人工智能体的法律地位。为了回答这个问题,必须考虑以下几个方面:第一,法律能力的概念和内容包括自然人和法人。第二,人工智能体的概念及其特征必须澄清。第三,有必要确定人工智能的特征是否足以赋予其法律能力。此外,如果我们开始考虑给予某一特定的人工智能体法律能力的问题,那么具备法律能力的自然人所拥有的道德和意识,人工智能体是否也必须拥有。

首先,赋予自然人和法人法律能力,才能够令他们承担法律责任。当然,并不是所有的自然人都具备法律能力,法律赋予不同年龄的自然人范围不同的法律能力;尽管如此,某些特殊的自然人是否具有法律能力存在很大争议。对比自然人与法人,可以发现他们之所以都具备法律主体地位,是因为他们在社会中均扮演着不可或缺的角色。法人就像自然人一样是当然的社会成员,法人和自然人都必然是法律意义上的人。在公司出现以前,人是法律的唯一主体,即社会中仅有人互相交往;公司法人出现后,在经济、社会交往活动中,人不再是社会交往唯一的主体。法人同自然人一样,发挥着不可替代的社会作用。发挥社会作用是获得法律能力的必要因素。与法人不同的是,动物无法获得法律能力的很大原因是它们无法与人相互交流,不能在社会中发挥作用,它们不具备将想法表达出来并为世界上大多数人所理解的能力。

通过将法人、动物与自然人进行比较,能够发现具备法律能力的主体有能够表达自己的想法并为世界上大多数人理解的能力,以及能够在社会中发挥作用的特征。人工智能体的语言处理技术目前已经实现同步转换,且能够识别出多种语言,所以人工智能体可以与人类无障碍地进行沟通。无人驾驶汽车、机器人医生、专家系统等弱人工智能体已经为人类生活带了巨大的变化,在未来,随着人工智能技术的不断强化,人工智能体的身影将出现在社会中的各个领域。

其次,人工智能体的概念和特征。在日常用语中,“人工”一词的意思是合成的,即人造的,这通常具有负面含义,即人造物体的品质不如自然物体。事实上,人造物体通常优于真实或自然物体[3]3。如同人造光比自然光更稳定、汽车比马更持久一样,人工智能不是自然的,而是人造的。因此,要确定人工智能体的优点和缺点,必须首先理解和定义智能。

将视野放大到自然界时,不难发现智能并非人类所独有的。例如,海豚使用深海海绵来保护它们的嘴,就像人类的祖先利用火来驱赶野兽一样。可以说,在某种程度上,许多生命形式都具有智能。“人工智能宣称的目标是创建可以与人类思维媲美的计算机软件和(或)硬件系统,换句话说,即表现出人类智能相关的特征。”[3]5图灵是第一个试图对智能进行定义的人。图灵开发了图灵测试来判定“智能体”是否拥有智能之一属性[3]6-9。将人类、动物或其他生命形式的“智能”进行比较,或许会发现“智能也许就是高效以及有效的思维。”[3]5

如果说智能是高效以及有效的思维,那么人工智能体具有像人类一样思考的能力则是它们的固有品质。不同种类的动物拥有不同程度的智能,搭配不同的软件系统和硬件系统,人工智能也将表现出不同程度的智能。人工智能是人造的、执行特定的任务,在某些方面,它们的表现超越了人类,且几乎在所有领域都有这样的表现。由于本文关注的焦点是人工智能体能否获得法律能力,故只考虑最发达、自主的、类似或超越人类的人工智能体,即强人工智能体。当人工智能体将能够与人类交流和合作时,它们同时拥有先进的行为和适应动态条件的能力[23]123。

最后,人工智能体能够获取法律能力。法律能力与人格有关,人格不健全者(如未成年人、精神病人)无法获得或者无法完整获得法律能力。一般来说,行为人只有在满足主观和客观两个方面的犯罪构成要件时,才可能接受刑法的调整。人工智能体实施违法行为时,探究其是否具有主观犯罪构成要件,是判断其能否获得刑事能力的关键。

自然人犯罪的主观罪过表现为故意与过失两类。从定义上可知,无论是故意还是过失,均要求行为人对犯罪结果的发生在心理上有认识和意志两个因素[16]188,192。人工智能体的主观罪过的形成表现为决定行动的系统过程。人工智能技术的升级外化为自主化程度的提高,而自主化是由自主系统决定的。自主系统是指在复杂和不确定的环境中,能够“感知、探测、识别、分类、计划、决定和响应各种威胁的系统”[24]13。这位学者还表示,随着人工智能体的自主化程度提高,人类控制和预测这些系统的能力正在下降[24]13。我们所说的强人工智能体的完全自主意味着人工智能体的绝对独立,它的自主化程度可以达到独自产生想法以及如何正确地应用的程度。当人工智能体的自主化程度足以独立产生想法时,它即可以产生自己的意思,并据此实施行为。

辩证唯物主义认为:意识是物质的一种高级有序组织形式,它是指生物由其物理感知系统能够感知的特征总和以及相关的感知处理活动。换言之,意识仅是一种对周围环境的感知和响应的状态。意识是大脑对外部信息处理的一种结果。对于人获得法律能力来说,意识是必需具备的特征。不能意识到周围并对它们作出反应,不是已经死亡就是无法参与到法律关系中。史密斯教授认为,“人类的想法起源于复杂交错的理由、情感、抽象分析、经验、记忆、教育、无意识动机、身体化学反应等。这些人工智能机器人永远不会拥有。即使人工智能机器人能够拥有无限的能力,它都不可能有情感,只是一个高级计算机罢了”。笔者认为,人工智能体“永远不会拥有”意识,曲解了人工智能体的工作原理。人工智能体学习、模仿人类的行为和思考方式,都离不开大数据对神经网络模型的支持,而数据表现的是一般性而非个性。人工智能体学习、模仿的最终结果是大多数人在类似情况下会做的几率最大的选择。人工智能技术通过神经技术的方法,使人工智能体能够模仿人类认识、处理外部信息。人工智能体可能有不同类型的意识,但由于意识的表达与自然人的一样,所以没有理由不赋予他权利和责任。

犯罪意图和罪责要求最初是作为防止在刑事执法时滥用国家权力的保障而制订的。它们的目的是确保,如果一个人在精神上不知道发生了什么,或者没有以某种程度的意志或默许来参与犯罪,那么没有人会对罪行负责。任何对行为负有刑事责任的人都应该对其行为的结果有一定程度的了解和意图(或者有义务知道并小心避免)。只有能明辨是非、有选择余地的人才会选择做错事。归责的先决条件是理解每一种选择所需要的能力和自由选择的能力。人工智能体的自主化程度能够独立产生想法并能够根据情况正确运用时,难道可以否认它作出的行为是盲目的、不是根据经验做出的或者是不具有结果回避可能性的。

人工智能体没有道德,无法接受道德的谴责,它无法被“现实的社会关系中的期待和归责”[17]2,从而对其施加刑罚没有意义。道德主体是与惩罚的概念深深相联系,道德主体可以被定义为各种各样的形式,但是它被最终限制在被惩罚的对象。当有道德的人认识到他们可能的选择和行动与已经因错误的选择和行动被惩罚的其他人相似时,威慑才能发挥作用——没有道德主体的这种反身性选择,没有道德主体之间的相似性认识,惩罚不可能引起威慑。此类观点仅仅关注了刑罚的特殊威慑,与其相对的一般预防也是刑罚所要实现的目的。退一步,即使人工智能体并非道德主体,无法实现刑罚的特殊威慑目的,但是通过惩罚违法的人工智能体,相关事实会以数据的形式被人工智能体认知,系统在今后处理类似问题时能够参考这一数据,影响行动的选择。故对人工智能体施加刑罚,能够实现刑罚的一般威慑目的。

四、肯定强人工智能体的刑事主体地位对刑法的挑战

纵然赋予强人工智能体刑事主体地位有其必要性,但现行刑事法律体系仍然是以规制自然人犯罪为主,辅以规制单位犯罪。将强人工智能体纳入刑法规制的主体范围,势必会对现有的刑法体系带来挑战。承认强人工智能体的刑事主体地位,现行刑事法律体系将面临以下三个挑战:其一,强人工智能体能否实施构成要件意义上的行为;其二,刑法需要重新审视人格;其三,如何对强人工智能体归责。

首先,行为是构成犯罪和承担责任的基础。行为是指“被刑法所明文禁止,表现人的意识和意志危害的身体动静或者言辞。”[16]141不论是因果行为论,抑或是目的行为论或社会行为论,其目的都是为了快速过滤不属于犯罪构成要件意义上的人的肢体或言语活动。因为在理解行为的含义时,需要“注意将它与日常生活中所讲的人的一般举动区分开来”[16]142。行为是表现于外在的身体活动,人工智能体的行为评价不同于自然人。当评价自然人的行为时只需要评价其客观的肢体行动、语言表达,但人工智能体“身体活动”最初的学习和输入、适应学习都依赖于它的设计和程序,这些设计和程序过程必然有人类设计者、程序员和其他相关人员参与,为认定其行为是否为其“自愿”或者“选择的”带来挑战。人工智能体有时将——总处于科技发展的前沿——与操作者有交互行为,也有其他必须参与的人员,例如,在智能驾驶汽车案例中的驾驶员。所有参与的个体都将被带入与犯罪问题有关的场景中,在追究责任时,迫使刑法做出艰难的决定。

因果关系或者原因关系,一直都是刑法理论中争论不休的对象。无论哪一种学说,均在努力寻求将结果归于行为的最合理的逻辑。是否将人工智能体的行为视为刑法意义上的行为,对于因果关系至关重要。如果人工智能体仅仅是人类手中的一件工具,就像一个无生命的工具,如锤子或刀,那么答案很简单。但是,当我们联想到人工智能体的复杂程度足以感知一种情况并继续行动时,事情就会变得复杂,或者,它在本应行动的地方执行任务,从而导致有害结果的产生。此时,如何理解人工智能体的“选择”行为与如何看待人格问题密切相关。此外,行为包含作为与不作为两种类型。自然人的不作为犯罪以存在作为义务为前提,人工智能体的作为义务应当包含的内容需要进一步思考。

其次,刑事责任的承担与法律人格密切相关。人格是法律赋予“适格者”使其成为法律上的“人”,进而成为法律关系中的权利享有者、义务和责任承担者的资格,简单地说就是一个实体要成为法律主体所应当具备的条件[18]12。人工智能体被设计为模仿人类的一个基本特征,即适应环境的能力,因此,它促使我们重新审视对人格的理解[19]。从历史上看,我们对人的意义的理解一直与人类自我反省和自我意识的能力相联系,即我们感知我们独立存在及其延伸到过去和未来的边界的能力。在某种程度上,人格也与我们为自己设定目标并追求目标的能力有关,而就目前而言,当涉及到人工智能体时,这一点似乎受到了极大的限制。虽然他们可能拥有为达到总体目标而制定独立的、较小的目标的能力,但这个更大的目标仍然是由人类程序员或用户(甚至是另一个由人类最初开发的人工智能程序员或用户)设定的。例如,在自动驾驶汽车的情况下,虽然人工智能软件可以在现场对交通作出决定,但从安全导航到偶然需要的目的地的总体目标都是预先确定的。

人工智能体和自然人存在根本性不同,成为否定人工智能体获得人格的论点之一[20]81。如果一个人工智能体不能被看作是一个人,那么他就不能像人类那样,表面上享有权利并受义务约束。限制和义务之间又有质的区别,虽然人工智能体可以被编程来遵守某些限制,但只要这种遵守不是它自己意志的产物,它就不能被认为是“义务”。然而,当我们谈到权利问题时[21]16-59,事情发生了细微的变化;人们普遍认为,权利的功能与法律规定的不能承担义务的主体的义务有很大不同。例如,未成年人往往可以订立合同,但此合同只能使未成年人获益而非减损其利益,否则无效,换言之合同对所授予的权利有效,但对义务无效。人工智能体的“权利”和“自由”领域,依赖于人格的内容。

最后,刑法是规定犯罪、责任和刑罚的法律,当人工智能体成为刑法的主体时,必须明确其因何承担刑事责任。“犯罪是不法且有责任的行为,其中不管是不法或是责任的概念都是以自然人的存在为前提,因为不法概念的基本作用是在对于人的意志的评价,而责任概念则导自于对于人格权的尊重”[9]111。归责的先决条件是理解每一种选择所需要的能力和自由选择的能力。这不仅仅是简单地将一种选择与刑法后果联系在一起,而将另一种选择与自由行为联系在一起——尽管在实践中,这种联系很可能被简化为自由行为。在这方面,必须指出的重点是威慑理论正是在简单地抑制犯罪的人,不管他们的内在动机,而影响深远的法律实证主义教义[22]167-180部分致力于释放负担的遵守法律规则与道德考量解不开的联系。任何对行为负有刑事责任的人都应该对其行为的结果有一定程度的了解和意图,或者有义务知道并小心避免。一个人只有在认识到行为的错误性,并“认真”做出选择时,才会遭受惩罚。这就是为什么儿童在没有完全理解他们的行动的后果,或者有心理健康问题而无法正确推理的人,在刑法下受到不同待遇的原因。最终,刑事责任是为那些本可以奋起反抗但却选择不这样做的人准备的。

人工智能体与动物和法人完全不同。它不像动物一样是具有生命的,也不像公司一样只是虚构的。然而,人工智能体可以独立地(至少在最初的创造之后)存在,不需要人类的参与。对人工智能体进行规制,也不同于法人或自然人。因此,对人工智能体进行归责,需要根植于其“良知”、“道德”获得的途径。人工智能体能否独立发展出一种良知,甚至是道德,从而让它与自然人同等的被归责,这是一个悬而未决的问题。但是,目前我们能够知道是人工智能体能够“学习”道德,或者说它们通过“学习”知道人类社会的道德,并且将之作为行动规则。在某种程度上,我们也可以说人工智能体通过“学习”道德而具有判断是非、善恶的能力。

猜你喜欢

刑法主体人工智能
论自然人破产法的适用主体
过度刑法化的倾向及其纠正
2019:人工智能
人工智能与就业
技术创新体系的5个主体
《刑法》第217条“复制发行”概念的解释与适用
数读人工智能
下一幕,人工智能!
关于遗产保护主体的思考
刑法的理性探讨