APP下载

试论人工智能的法律人格

2020-12-18蔡文坤

知与行 2020年4期
关键词:人工智能

[摘 要]人工智能的责任分配与承担尚未有定论,且面临责任分配的证明困难,将运行人工智能损害的责任全部交由生产者、设计者承担在一定情况下过于苛刻。人工智能的逻辑基础与技术构造决定了其能够模拟人类神经系统,高度发展的人工智能具有形成自主意志的可能性,有形成自我意识与自发行为的能力,具备构成独立个体、获得法律人格进而承受权利义务分配的可能。自主性增强的人工智能与传统意义的生命体之间界限逐渐模糊,对人工智能的界定与理解将随技术发展与伦理认知的变化而改变。人工智能的学习能力来自于人为创造的算法,但其人造性并非否定人工智能自身能够达到高度自主化进而获得法律人格的根源。针对人工智能的“自由”“生命”不应按照传统刑罚理论的理解方式,而应放在数字智能的语境下加以理解。人工智能的特殊人格具有一定可行性,在人工智能自主性增强的情况下能够提供损害归责的思路。

[关键词]人工智能;法律人格;人工智能特殊人格

[中图分类号]D90 [文献标志码]A [文章编号]1000-8284(2020)04-0039-07

人工智能是时代与技术的产物,其出现可以追溯至20世纪50年代。达特茅斯会议开启了人工智能的时代,给技术、伦理等各个领域带来了新的焦点。从IBM的“深蓝”到挑战围棋的AlphaGo及其升级版AlphaZero,从高危领域应用生产机器到外科手术中应用精密操作机器人,以及获得国籍的机器人Sophia,都是人工智能技术性发展的见证。随着技术发展带来的“智慧化”,人工智能无可避免地面临对其人格的发问,能否给予人工智能以独立的法律人格是随着人工智能大量应用而产生的现实问题。

一、何为人工智能

智能指“有生命的个体习得知识或技能、并将其应用于完成任务或逻辑上得出结论的能力”。[1]这种能力在人类身上最为明显,因此也往往被用来指代人类的学习、应用、逻辑能力,成为区别人类与其他生物的一种特性。而人工智能,笔者认为,是通过人为的、机械的、数字的手段所创造的具有类似甚至超越人类智能的智能个体的总称。

人工智能具备“智能”之称的关键在于其具有一定的自主能力。这种自主能力来自对海量数据的深度学习、云计算能力与“神经网络”的模拟构造。[2]神经网络从技术结构上模仿人类神经系统的结构——由氨基酸决定蛋白质的结构与性质,由基因决定蛋白质的发展方向,由这些物质构成单个神经元,而神经元之间的排列与化学物质传递决定了人类的思想与精神发展。[2]神经网络的构建及深度学习的应用使人工智能可以自动从已有的数据中总结规律,自主学习,并且发展出特定逻辑框架,针对特定状况进行自我调整修正。这种深度学习方式超越了传统的由人类教授机器进行活动的“训练”方法,赋予了机器及其算法一定的自主性,具有了类似人类智能的机能。

人工智能通常被分为三类:弱人工智能、强人工智能、超人工智能,或称普通人工智能、弱人工智能、强人工智能。[3]无论名称如何,类似的分类体系都是将人工智能按照自主性程度、自主意识进化程度进行分类,为避免混淆,下文中将使用“弱人工智能”“强人工智能”“超人工智能”的命名方式。弱人工智能(Artificial Narrow Intelligence)指那些仅在人类活动中担当辅助的人工智能,有一定的自我学习能力,但只擅长某一个领域的技术或操作。[4]强人工智(Artificial General Intelligence)则在各个领域中具有与人类相似的独立解决问题的能力,并且能够独立思考、学习,通过总结历史经验进行逻辑推理进而解决现实问题。[4]可以说,强人工智能在各个领域中的学习与逻辑能力都可与人类匹敌。[5][6]超人工智能(Artificial Super Intelligence)指代那些已经各领域中全面超越人类大脑的人工智能体,[4]具有极高的自主性,甚至可以脱离人工程序的控制,具有很强的辨认能力与自我控制能力。

二、人工智能的责任分配困境

人工智能运行致人损害的责任分配问题是该技术所面临的重要现实问题。由于Black Box的存在,即使是人工智能的设计者、制造者也无法完全明晰人工智能的“思考”路径与发展方向。[7]这种不能被人类彻底掌握的具体决策过程不足以完全排除人工智能的运行与预设之间的偏差,而这种偏差很可能导致人工智能在运作期间致人受到损害。

以智能驾驶系统引发交通事故的问题为例。在国际汽车工程师学会的分类标准中,自动驾驶按照自动化程度被分为L0至L5的6个等级。[8]L0代表完全无自动化的驾驶,L5则代表完全由人工智能操作、不需要人力干涉的自动驾驶。L1、L2两个级别中,“自动驾驶”仅仅为驾驶员提供辅助,主要操作仍然依靠人类驾驶员完成,因此被排除在自动驾驶技术范围之外。L3是自动驾驶与非自动化的分界线,汽车驾驶将主要由智能系统进行控制,而驾驶员保留了随时接管汽车运行的权力。L4、L5则是真正意义上的无人驾驶,在这两个等级下的智能驾驶能够实現由智能系统进行对汽车的操控,并且驾驶员会随着自动化程度升高而逐渐失去接管能力,或者说,失去接管的必要。

目前自动驾驶技术的应用尚未达到全面应用的阶段,L3以上的无人驾驶汽车也远没有达到量产并大规模应用的水平。在L1、L2两个级别的自动驾驶系统中,驾驶员是凌驾于系统之上的。汽车的主要操作权掌握在驾驶员手中,一旦发生交通事故,责任理应由驾驶员自身承担,而非交由辅助工具性质的智能驾驶系统承担。

对于L3及以上等级的自动驾驶系统,按照法律责任产生的原理,欲追究智能系统的设计者、生产者的责任,需要证明他们对于交通事故、人身侵害的发生至少存在预见的可能。[8]若要生产者、设计者对他们在现有技术水平下所不能预见的系统运行偏差承担责任,这未免过于苛刻。由于智能驾驶系统极强的自主性与难以预见的运行偏差,责任分配面临的其实是证明的问题。这种证明困难是由技术特性决定的,并且在短时间内难以被克服。而若要对智能驾驶系统分配责任,那么智能驾驶系统面临一个尚未定论的问题——人工智能是否具有法律上的人格。

法律人格的本质,以笔者拙见,是一种法律上对个体资格的认可,这种资格并不因为个体并非自然生命体而完全被法律所否定。以法人为例,法律赋予了身为自然人之间某种关系的合集以虚拟人格,并对该人格的权利义务制定了规则。被赋予法律人格的自然人或非自然人,基于这种法律上“人”的身份,取得了权利义务凭据,并因此获得了将行为转化为权利义务内容的可能。在讨论人工智能是否能够获得法律人格之前,笔者认为,需要了解人工智能的特殊性。明确人工智能的特殊性,能够更加清晰地理解人工智能的法律人格问题。

从生物学角度理解被称为人类的生物,是一种体细胞具有二十三对染色体的灵长目人科人属的生物。人类自诩具有“智能”,并且因此将自己与动物加以区分。但从生物角度而言,人仍然是哺乳类动物,这点并不因相比其他生物人类更擅长运用自己的大脑而有所改变。

而从哲学的角度探索“人”为何物可以追溯至古希腊。最早将“人”的概念带进哲学领域的被认为是普罗塔格拉。[9]在普罗塔格拉的理解中,人是万物的尺度,人具有的arete——那些自然物所固有的特性——表现为人的才能、特长,这些始终美好的arete是将人与其他生物加以区分的关键。[9]苏格拉底将理性视为人的本性,并将其视为人与动物的根本区别。理性带给人理智与判断力,使人追求知识。在苏格拉底眼中,理性是人类与动物能加以区分的最大区别。[9]而在亚里士多德眼中,在人的特质属性中,人的意志自由占有极其重要的地位,人的行为也可以根据人的意志,分为自愿行为与非自愿行为,如果不能遵循自己的意愿、不具备分辨善恶的能力,这种人不应该成为被苛责的对象。[10]人的自由意识与意志,可以说是人与其他生物加以区分的一个重要特质。这并非等同于陈述其他生物不具备自由意识与意志,而是一个程度性的问题,最高程度的自由意识与意志能够达到形成区分与逻辑的结果。

而所谓意识,笔者认为从精神层面来说意识是一种认知与逻辑的集合,从抽象方面对意识的定义是无法穷尽的,但从物理角度看待人的意识与自我认知,其本质上是一种由化学物质传递形成的具有规律的传导轨迹。从这个角度来说,人工智能通过人为构建模拟的神经网络,以电子符号构建“神经元”形成模拟人类神经系统的数字系统,可以获得接近人类的“思维”与逻辑能力,甚至能够做到在某个领域凌驾于人类之上。换言之,神经网络的理论基础,建立在对人类的思维的物理性质的掌握上。从这个角度来看人工智能,很难说高度模拟化的人工智能不可能具备与人类类似的思考方式与意识。如前文所述,随着技术的发展,人工智能的自主性会越来越强,甚至达到脱离人为设计的程序的控制的程度。高度自主的人工智能,虽然冠以“人工”二字,但其认知、自主与逻辑能力乃至“神经”结构,并不足以支撑对“人工智能可以具有意识”的反驳。

在笔者眼中,关于人工智能能不能被视为一个有“生命”的个体的争论本质是伦理问题,而非自然科学问题。在人类的伦理认知中,人类在无形中始终立足于这个地球上最特别的灵长类动物的地位,并认为自己所拥有的思维和思想是最为独特的。所谓伦理即关系论,与技术发展的冲突在前沿领域非常明显,例如某些新锐医药试验,以及人工智能。必须承认,在当前人工智能尚处于“弱人工智能”的前提下,人工智能难以被视为一个独立个体。弱人工智能可以在某个领域成为一个高速运转的计算器,在一般认知中,仅以一个工具的身份在某个领域活动。然而当技术发展到一定程度的时候,这种单纯的计算器的身份将不复存在,尤其是当人工智能以凌驾于人类思维之上的姿态出现时。曾经出现过的家用机器人怪声事件令舆论哗然,一时间引出不少人工智能有害论与人工智能对立论。不难想象在抵达能制造强人工智能的技术水平之前,人们对于可能凌驾于自己之上的智能体的抵触可能会影响这种技术的发展。这种抵触很大程度来自于对事物间关系的未知变化的恐惧。而在笔者眼中,伦理往往具有滞后性,虽然这种滞后并非一成不变。无论如何人为的阻挡,也不会改变人类对于社会关系的认知随着技术和环境变化而缓慢变化的事实,这一点在面对人工智能时仍然适用。人工智能的存在可能改写人类对于生命的认知并且从技术上成为新的生命体,现有的基于“人与机器的区别”的伦理体系[11]也将难以避免地因为人工智能的出现而发生变革。在这种变革中,人工智能这一类突破人工算法之后的形成的新型的生命体,像曾经的公司组织那样通过历史发展而成为人类认知中的独立个体,并非完全没有可能,而能够称为独立个体的人工智能,在特定语境下就具有了获得“人格”的一种条件。

三、人工智能的法律人格

在伦理方面有所突破之前,笔者认为,人工智能很难被现有的大众意识接受为新的生命体。对于人工智能能否具有法律人格一事,目前学界的讨论能看到明显的两种立场:主体肯定与主体否定。

(一)主体肯定说与主体否定说

肯定人工智能的主体资格的学者表示,人工智能具有内部知识以及一定程度的自我意识,具有自主学习、自主角色,自我设定目标的能力。[2]赋予人工智能法律人格在现实需求面前具有一定的必要性,可以解决人工智能运行期间致人损害的责任分担问题,并且现行的法律制度并不排斥人工智能的主体资格,可以说,现有的法律制度体系为人工智能的法律人格留下了一定空间。[12]Solum表示,如果将人类智能视为计算,那么原则上计算机模拟人的心灵并非不可能的,[13]只要智能机器人能够通过图灵测试,那么从技术上,人工智能机器人就拥有了与人类一样的所有属性,足以成为宪法意义上的主体。[14]一旦得到宪法的承认,作为下位法的其他部门法中的人工智能,尤其是强人工智能就具有成立刑法意义上故意和过失的可能性,虽然承认这种可能性的同时,应当基于人工智能的算法基础使之与自然人的主观罪过加以区别。[3]John F. Weaver在《机器人也是人》中从公共政策的角度提出,人工智能应当成为主体自己承担责任,并且这种责任承担只需要满足两个条件:(1)损害或损失是由人工智能自身引发的;(2)不能将损失或损害的所有责任全部归属于人工智能流通中的某一个或数个既存的主体。[15]也曾有学者提出为人工智能创造“準人格”[16]或“临界地位”,[13]以解决人工智能导致损失或损害的问题。

同时,对人工智能的法律人格持否定态度的学者对赋予人工智能法律人格一事进行了批判,其中最典型的辩驳往往从人工智能不具有理解能力、其自我意识并非获得法律人格的保证着手。通常成为法律上的“人”意味着两个必要条件的统一:拥有行使权力履行义务的法律资格,以及相应的意志能力。[17]这意味着,并非所有有意志能力的实体都能被法律赋予主体资格。人工智能的学习能力是算法所赋予的,学习的范围也是由人类设定的范围所限定的,不应当被过度夸大,并且这种学习能力受制于不完备性定理,可以说是“缺少‘直觉” [18]的。由于人工智能不具备财产能力,无法从法律上划定独立的责任范围,这使得责任向财产转化的能力受到阻碍。[17]也有学者认为,人工智能应当被归为单纯的产品,这种产品制造的损害应当被归因于制造缺陷。[14]

(二)对主体否定论之反驳

笔者认为,首先不应当否认人工智能的学习能力是来自人为创造的算法的事实。然而同时不能否认的是,人工智能的学习能力,有超过人工算法的可能性,并且这种可能性并非足够微小到可以忽略不计的。这并非将人工智能学习能力神化,而是阐述事实。可以说当技术的进化超乎目前人类的平均想象时,拒绝承认人工智能的自我能力是对法学理论发展是相当不利的。

对于主体否定说中认为人工智能不具备财产能力进而影响责任分配,因此不应当由人工智能承担责任成为主体的推论,这种推论实质上隐含着一个在先的前提,即人工智能没有主体资格进而不具有财产能力。用隐含在先前提的推论去反驳在先前提的逆命题,从逻辑上来说并不可取。

若将人工智能视为一种单纯的产品则会导致这样一种情况:人工智能的设计者、生产者将由于自己所不能预知或掌控的事情而背负产品对第三人造成损害的责任;又或者,人工智能的设计者、生产者将因自己所控制的范围外的因素而被苛责,随着人工智能自主性增强,这种情况将越来越明显,使设计者与生产者将因为人工智能自主发起的活动而受到苛责。这可以说是将人工智能视为单一产品的最直接的弊端,同时也带来一个问题,如何对待人工智能在具备高度自主性后所产生的人工算法以外的信息。这意味着一个技术性问题:如何将人工智能自主学习的新信息与偏差及其造成的损害与原始预设行为的损害进行区分。

(三)人工智能特殊人格

现阶段考虑人工智能的法律人格问题,通过自主性程度对人工智能加以区分[6]会导致针对弱人工智能的追责存在一定偏移。以自动驾驶系统偏差导致交通事故发生致人损害事件为例,若因弱人工智能的自主性程度较低而放弃对自动驾驶系统的问责,而转向设计者、生产者,则在其问责逻辑中会出现这样一种情况:需要证明自动驾驶系统的偏差的发生至少是可以预见的,自动驾驶系统的设计者、生产者对于这种偏差主观意识上至少是有过失的。但是在现实技术面前,软件运行造成的伤害并不能总是归因于人的过错,这意味着设计者、生产者始终处于被苛责的状态。如果说将运行偏差从所有由自动驾驶导致的损害中剥离出来,针对由原有技术工艺造成的损害,由设计者、生产者自行承担责任,而针对由于自动驾驶系统自主学习而新产生的偏差导致的损害,由自动驾驶系统承担责任,面临的是现实技术问题——如何将这两种不同自主性行动带来的损害加以区分。当人工智能能够发展到高度自主的程度时,这种技术也应当并非完全不可行之物。

以笔者之拙见,对于人工智能,由法律赋予其一种较为特殊的人格并非不可能。赋予人工智能以法律人格能够解决人工智能随自主性增强做出了某种行为造成损害的问题。当发展到强人工智能、超人工智能阶段的人工智能,其算法具有越来越强的自主性,能够辨认和控制自己的行为时,它就已经具备了成为法律上的“人”的基礎条件。在现代法律中,在对行为进行界定时,“人”的物理属性的身体条件已经不是必需要素,行为的本质更多地着眼于基于意志做出某种行为及其后果。[19]人工智能是否具备生物意义上的有新陈代谢功能的肉体,这并非法律应当关注的对象。当人工智能具有自主性与自主能力时,它已经具备了更为根本的有意性条件。

在人工智能被赋予特定法律人格时,损害归责问题也不再是难以解决的问题。人工智能以其超出设计者、生产者意图的自主能力实施了某种行为,造成了一定的损害后果,这种后果与行为之间的因果关系无法被否定,那么责任的归属也就相对明确。此时面临的问题则是人工智能如何承担责任,毕竟单纯地具有法律人格并不等同于具有承担责任的能力。若人工智基于这种法律人格,通过法律拟制,能够取得一定的财产权利,那人工智能至少对经济性质的责任部分具有一定的承担能力。关于人工智能的权利,有学者甚至提出在财产权利之外,应当使强人工智能享有尊严权。[19]尊严权的问题暂且不表,但赋予人工智能以财产权利并不与现行法律系统矛盾,也并不存在伦理上的矛盾。一旦人工智能能够以独立个体身份,以其财产权利为损害承担经济化的责任,生产者设计者也能够从持续的苛责中解放出来。这种财产权利并不等同于保险制度。为人工智能系统设立保险的方式,其本质是将风险转移给流通过程中的其他主体,这种风险转嫁虽然不与人工智能法律人格问题与责任分担问题冲突,但如果因为风险转移而对人工智能运行保险的批判能够成立,商业保险也将失去它的基本逻辑立场。

人工智能所能够取得的法律人格可以与自然人、法人的法律身份加以区分。人工智能由于其人工产物的特殊性质,在“生命”范畴内与自然人具有不同的物理属性。当没有从伦理层面对“生命”一词进行重新界定时,法律意义上的生命权人身权仍然只能适用于自然人。人工智能在获得法律人格的同时,虽然不具有现行界定的生命权与人身权利,但可以以技术手段对其财产进行界定,使其拥有对一定财产的支配权利。这种财产的最初来源可以来自其流通过程中的其他主体,基于风险认同而进行财产转让,也可以是人工智能通过运行自行取得的各种形式的财产。财产权利可以成为对人工智能因其自主行为导致的损害的填平或弥补。

在否定人工智能法律主体资格的辩驳中,反对人工智能作为法律主体承担责任享有权利的理由之一在于,针对人工智能适用自由刑与生命刑是没有意义的。自由刑对人工智能并不适用,而生命刑,对于人工智能而言意味着删除或拆解,只会造成开发人员与使用者的损失。[20]笔者眼中的人工智能的自由并非完全无法受到限制。由于物理性质上人工智能并不存在“位移”活动的问题,对人工智能的自由的限制应该是一种针对其意志与行动的自由而非物理位置自由的技术性问题。而生命刑对于人工智能而言则意味着被拆解、终止使用、被永久地从数字世界中剥离出来。当人工智能能够以独立个体形式活动时,其生产者更多的是以“父母”的身份存在,而非财产所有人。子女的生命的丧失对父母而言是一种损失,但这并不应当被称为一种财产性的损失。这种损失也应当是双向的,并非单方面的流通中其他主体的损失。

四、结语

人工智能是具有被赋予法律人格的条件的,并且赋予其法律人格并不会有违现有法律。以笔者之拙见,在伦理层面对“生命”做出重新界定之前,在落后于技术且本身局限性极强的法律思维层面讨论生命刑对于人工智能的适用,其结果只能是局限且狭隘的。当“生命”的概念被改写或被承认时,人工智能作为一个独立的法律上的主体才真正具有意义。

[参 考 文 献]

[1] Sergio Ferraz, Victor Del Nero.人工智能伦理与法律风险的探析[J].科技与法律, 2018(01):19-24, 31.

[2] 王榮余.“机器人也是人”的法理拷问[J].社会科学动态,2019(11):18-23.

[3] 刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018(01):134-142.

[4] 贺树龙.人工智能革命:人类将永生或者灭绝.网易科技, 2015-02-10,来源http://tech.163.com/15/0210/16/AI3VNEES00094P0U_all.html, 2019-12-16.

[5] Gottfredson L S. Intelligence and social inequality: Why the biological link[J]. The Wiley-Blackwell handbook of individual differences. Blackwell Publishing Ltd, 2011: 538-75.

[6] 马治国, 田小楚. 论人工智能体刑法适用之可能性[J]. 华中科技大学学报(社会科学版), 2018, 34(2): 108-115.

[7] 石冠彬.人工智能民事主体资格论:不同路径的价值抉择[J].西南民族大学学报(人文社科版), 2019, 40(12):94-102.

[8] 江溯. 法律如何应对自动驾驶汽车的挑战[N].经济参考报,2018-06-27(008).

[9] 莫法有.试论中西哲学史上人性论之差异[J].复旦学报(社会科学版),1996(01):10-15.

[10] 时方.人工智能刑事主体地位之否定[J].法律科学(西北政法大学学报),2018,36(06):67-75.

[11] 闫坤如.机器人伦理学:机器的伦理学还是人的伦理学? [J].社会科学文摘,2019(10):11-13.

[12] 陈全真. 论智能机器人权利存在的由因及对策[J].贵州师范大学学报(社会科学版),2019(3).

[13] Lawrence Solum. Legal personhood for artigicial intelligence[J]. North Carolina Law Review. 1992,70: 1232.

[14] 成素梅,高诗宇.智能机器人应有法律主体资格吗? [EB/OL]. 西安交通大学学报(社会科学版): 1-12.源http://kns.cnki.net/kcms/detail/61.1329.C.20191111.1141.002.html, 2019-12-20.

[15] John Frank Weaver.机器人也是人[M],郑志峰,译.元照出版, 2018:46-47.

[16] Peter Asaro. Robots and responsibilities from a legal perspective, 2007. http://www.peterasaro.org/writing/ASARO%20Legal%20Perspective.pdf. 2019-12-20.

[17] 冯洁.人工智能体法律主体地位的法理反思[J].东方法学,2019(04):43-54.

[18] George Zarkadakis. 人类的终极命运[M],陈朝,译.北京:中信出版社,2017:198,276.

[19] 刘宪权,张俊英.人工智能时代机器人异化与刑事责任[J].法治研究, 2019(04):90-97.

[20] 文诗映.人工智能的刑事法律地位探讨[J].法制博览,2019(33):179-180.

〔责任编辑:张 毫〕

[收稿日期]2020-06-17

[作者简介]蔡文坤(1989—),女,四川成都人,硕士研究生,从事国际经济法研究。

猜你喜欢

人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能与就业
China’s Artificial Intelligence Revolution
数读人工智能
人工智能时代,就业何去何从
下一幕,人工智能!