APP下载

从主体资格到权责配置:人工智能法学研究视角的转换

2020-02-10余德厚

江西社会科学 2020年6期
关键词:人格机器人责任

■余德厚

人工智能的兴起对既有法律制度及法律体系带来了多重冲击与挑战,人工智能法律人格也相应成为法学研究的热点。人工智能虽类人,却不具备人之社会属性,赋予人工智能法律人格与人文主义精神不符,亦缺乏实际操作意义。研究人工智能的法律应对措施,应避免投入过多精力于法律人格授予等空洞化议题,而应当在保持谦抑克制立场的同时,着力分析人工智能的权责配置,明确人工智能作为“物”的情况下,权利与责任的归属问题。此外,为了降低人工智能责任对其生产制造者的不利影响,还应从宏观战略视角出发,研究人工智能产业、行业的法律激励机制。

一、问题的提出

近年来,人工智能已然成为理论界与实务界热门的话题。2017年7月,国务院印发了《新一代人工智能发展规划》,针对人工智能提出了三步走的战略目标。在法律政策层面,其第一步即到2020年要实现“部分领域的人工智能伦理规范和政策法规初步建立”的制度供给目标。人工智能作为一种新的技术范式,虽然目前处于“犹抱琵琶半遮面”的朦胧状态,但它给法学、法治带来的挑战与影响几乎是全方位的。因此,法学理论界围绕人工智能对既有法学理论、法律制度体系的挑战[1](P129-133),从人工智能的法律人格、法律责任、风险防控以及司法应对等视角进行了积极的学术回应,产出了系列高质量研究成果。①

在上述研究视角中,人工智能的法律人格具有定性之使命,其界定能够厘清人工智能在整个法律框架内的坐标定位,以锚定人工智能政策法律体系研究与建设的出发点和解释论基础,因此有学者主张,人工智能研究“首当其冲的是其法律人格问题”[2](P10)。相应地,在当前法学界有关人工智能的研究成果中,对人工智能法律人格的探讨相对而言较为集中。[3](P53)然而,在当前发展阶段,赋予人工智能法律人格在伦理与规范层面均存在多重解释性障碍。此外,《新一代人工智能发展规划》亦要求“开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息、安全利用等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,其中,人工智能的法律责任问题处于首位,而未如现有理论研究那样将法律人格作为首要问题。因此,人工智能的法学研究首先要着力解决的便是人工智能的技术与法律风险防控机制以及人工智能产业、行业发展的制度激励机制这样的实践性命题,而非将法学研究视角过多地投掷在讨论与辩驳人工智能是否应当获得法律人格以及具备怎样的人格属性这样的话题上。甚至从某种程度而言,人工智能的法律人格属于一种“伪命题”。笔者撰写本文便旨在通过对人工智能法律人格理据以及其法律人格的实质影响的批判,提出转换人工智能研究视角的建议,即将人工智能的法学研究视角从法律人格转向权责配置。

二、人工智能人格化的学说及其理据

针对人工智能的法律人格问题,当前法学理论界的主流观点认为,民法中的人格自古罗马法延续至今始终呈现出的是一种扩张式的变迁衍化态势,突破人类中心主义思维局限,承认人工智能的法律人格,乃是民法人格理论发展的势之所趋。[4](P101)具体而言,有关人工智能法律人格之学说虽分门别类,但可大致归纳为下述几种,并各有其理据。

(一)有限人格说及其理据

该说认为,人工智能已经具有一定程度的自主意识和行为能力,有资格作为法律主体享有权利并承担义务与责任,然而囿于技术条件限制,当前的人工智能之独立责任能力有限,故它的法律人格是有限人格,而非健全型人格。[5](P50)此外,理论界的“拟制(次等)法律人格说”[6](P94)“位格加等说”[7](P57)以及“人格类比说”[2](P12)与有限人格说殊途同归,并无实质性差别。

该说之理据在于:第一,法律人格其第一要义在于独立的意思形成能力与表示能力。古罗马时期,“奴隶不具有人格属性,为权利之标的”[8](P32);亚里士多德亦认为妇女与奴隶乃没有灵魂之物,虽可参与民事活动,却不能称之为法律中的人(person)[8](P32);该种观念的认知出发点在于法律中的人应当具有独立的意志和认知能力,奴隶和妇女是附属性的,虽具有独立思考的能力,却不能自主决定自己的意志与行为,故不能成为法律上的人。在今天,新技术的不断更新迭代已经使人工智能在意思形成与表示能力上越来越逼近甚至超越人类。如微软公司开发的机器人“小冰”已经可以自主进行诗歌创造、医疗机器人“达芬奇”甚至可以在无人干预的情况下缝合葡萄皮等。可以预见,随着技术的不断进步,人工智能将越来越独立于它的发明创造者,而像人类一样具有独立思考和行动的能力,因此应赋予其法律人格。第二,法律人格是人工智能享有权利和承担责任的载体。比如在人工智能创作领域,具有自主学习能力的机器人创作的小说、诗歌已经在智识上超出了发明者的思维控制范围,在理论上也就不能将这些小说、诗歌的著作权归属于机器人的发明者,此时若不承认人工智能的法律人格,则机器人的著作权就可能成为无主之权。法律责任方面亦是如此,如无人驾驶汽车致人损害时,与其在生产商、经销商以及乘客之间找寻责任人,不如直接将无人驾驶汽车作为责任主体②,追责程序或许更为便捷可行。第三,鉴于目前人工智能法律制度体系尚严重阙如,暂不宜直接赋予其完全独立的法律人格,暂时可借助侵权责任法、产品质量法等法律制度填补人工智能的法律制度漏洞。但在特定情境下,若不存在解释性障碍,应赋予人工智能以有限的法律人格。

(二)人格拟制说及其理据

持该观点的学者认为,囿于当前人工智能尚属于“弱人工智能阶段”,对于人工智能的法律人格尚不宜以成文法的形式予以明确规定,而适宜“以实定法解释论为基础,在坚持人工智能为客体的原则下,运用拟制的法律技术,将特定情形下的人工智能认定为法律主体,从而为应对、引领未来人工智能的发展,奠定法律主体基础”[9](P78)。

该说的主要理据如下:第一,人工智能与现代民法中的法人多有相通之处,从法人人格的发展历程来看,其经历了“否认说”“拟制说”以及“实在说”三个阶段,这本身也说明主体人格的发展是一个渐进式的历史命题。就当前人工智能的技术水平而言,其大致处于“否认说”与“实在说”之间,因此可借用法人人格的“拟制说”适用于人工智能法律人格之认定。第二,人格拟制说确保了人工智能法律制度体系的价值开放性。该说认为,如果对人工智能持“工具论”的立场,完全将其作为客体来看待,则法律的引领与回应价值得不到彰显与体现。例如,对于机器人致人损害的侵权责任承担问题,若采取“工具论”立场,则法官须以产品质量法规则或者类推适用动物致人损害侵权责任规则予以裁判。如果采人格拟制说之立场,则法官可类推适用雇主替代责任原理,虽然直观效果上看并无太大差别,但后一裁判路径无疑为人工智能法律人格“入法”进行了解释论铺垫,彰显了既有制度体系的开放性价值。第三,从域外立法动态看,“欧盟和爱沙尼亚、韩国等正在讨论赋予智能机器人拟制法律人格的动议,无论结果如何,‘拟制论’已经提上了人类的议事日程”[2](P17)。域外有关人工智能的立法动态,值得我们关注。

(三)特别人格说及其理据

特别人格说,并非是一种具体的学说观点,而是笔者对几个观点所做的总结与提炼。其中包含:第一,电子人格说。如2016年欧盟委员会法律事务委员会提起了一份动议,在该动议中,法律委员会主张将人工智能的身份界定为“电子人”。电子人格说的主要理据在于,人工智能学习能力、自主能力随着科技进步将会不断超出发明人的可预见性范围,以至于人工智能的侵权行为对其发明者而言也是难以预见、难以避免和克服的。在此种发展演变趋势下,传统的产品质量法、侵权责任法均难以奏效,故必须承认人工智能的电子人格,以对其进行统一管控。[10](PXIV)第二,电子代理人。如美国的《统一电子交易法》、法国的《统一商法典》将具备独立的运算、存储、交易以及发起其他行为的电子或者自动化工具、手段统称为“电子代理人”。需要特别说明的是,人工智能的电子代理人一说,其理论初衷并非在于赋予人工智能设备以法律人格,而是肇始于认定侵权责任的解释论需求,即代理人所实施的行为可归诸于其本人,故由电子设备所引发的侵权责任可归之于电子设备的所有者、运营者或者使用者。

三、人工智能法律人格之质疑

学界对人工智能法律人格提出了多种学说,极大丰富了社会公众对人工智能属性的认知。但其忽视了一个至关重要的问题,即“法律人格”的界定并不只是法律问题,还是伦理学、社会学问题,法律的外衣并不能理所当然地对各种事物冠以“人格权”,即使法律拟制能够设定缺乏伦理依据的“人格权”,也还需要对是否有必要赋予人工智能人格权利进行充分的论证。

(一)人工智能并不具备法律人格应有的社会属性

在民法原理中,人(自然人)是“能够说话与思维,并以此区别于动物的生命有机体”[11](P368)。受康德伦理学人格主义的影响,在传统民法理论中,长期只承认自然人的法律人格,不承认法人团体之人格。直到《德国民法典》制定时,受日耳曼民族团体主义精神基因的影响,其首次承认了法人的法律人格。[12](P140-142)像自然人须有意思形成能力与表达能力一样,法人也须借助股东会、董事会形成和表达自己独立的意思。行文至此,似乎可以得出以下结论:有独立的意思形成与表达能力,甚或再加一条有独立的责任能力,即可拥有法律人格。如此一来,高智商、具有独立思维和行动能力的机器人似乎当然地应当获得法律人格。

然而,这一思路忽略了最根本的一点:人的本质是一切社会关系的总和,法律是一种社会规范,因此,法律人格的第一属性是其社会属性。那么,我们应当怎样理解法律人格的社会属性呢?笔者认为,法律人格的社会属性体现为具有法律人格的主体必须而且应当对社会行为规范(包含法律规范与道德规范)具有一般的把握与认知能力。这一能力的关键之处不在于法律主体可以做什么,而在于知悉不能够做什么。比如自然人,无论从事何种职业、具备何种技能和特长,都必须对整套社会规范有一般性的认知能力,知道哪些行为属于违法、违反道德之行为,不可为之。再比如,公司在通常情况下具有法人主体资格,但是当公司从事违法活动、滥用公司法人格时,其法人格即应当被刺破。

反观人工智能,尽管随着技术的进步,机器人等人工智能体可能在某些方面已经具备远远超过人类甚至领域内专家的超能力,但是它的认知与能力往往仅仅局限于某一领域甚至某一个小的环节上,并不能够像人一样从事社会交往活动、建立社会关系,并在社会关系中自如地把控自己的行为。[13](P12)处在社会关系中的法律主体,无论其从事何种职业,也不管其是自然人还是作为组织体的法人,他或者它的社会角色都是复杂而多重的。以自然人为例,除了职业性社会关系外,他还需要面对家庭关系、夫妻关系、男女关系以及社会公共生活关系等复杂的社会关系,这些复杂的社会关系均远非人工智能所能理解与掌握的。如有学者将人类的认知分为神经、心理、语言、思维、文化五个层级,并分别在五个层级上将人工智能与人类进行逐一对比后发现,人工智能仅能在较低层次的认知维度上模仿甚至超越人类,而在思维和文化等高层级的认知层面,人工智能的认知能力远远逊于人类。[14](P145-153)其中的思维与文化认知,其主要内容多是社会性的,也正是人工智能难以具备或者永远都无法具备的认知能力。

此外,法律人格的社会属性中非常重要的一项内容是道德感和羞耻心,法律和道德之所以能够对人类奏效,其中一大心因性因素就在于人类拥有道德感和羞耻心,人工智能是“没有道德能力的非人类,故不应当享有法律人格”[4](P102)。正如有学者所言:“AI只是执行人类指令而并不考虑社会意义、社会责任和社会后果,它没有人类的生命和身体,脱离了主体的社会环境和文化背景,也就不能形成主体真正的实践活动和社会属性。”[15](P54)

(二)赋予人工智能法律人格与人文主义精神不符

在支持赋予人工智能法律人格的学者中,有一种观点认为,反对论者的观点落入了“人类中心主义”或者“人类沙文主义”的思维泥沼,人工智能不是一种工具性的存在,它有自己的情感和感知能力,它的权利应当被人类尊重,应该享有法律主体资格。这一观点看似饱含深情,实则为无稽之谈。

第一,人类借助科技手段创造出智识高超的人工智能,其目的是服务于人类自身而非给自己制造一个同类。这一点认知应当是人工智能技术发展的目的与底线。脱离这一认知,发展人工智能不仅不符合人文主义精神,而且最重要的是,会将人工智能引向十分危险的境地。如有学者所说的:“工具化的定位意味着一个完全‘独立’的机器人,不仅可能会引发人类的不安,甚至会被人类社会所‘厌恶’。人类的确愿意用计算机的算法来修正自己的决策过程,但绝不会放弃控制权。”[16](P62)

第二,部分观点认为,在环境资源保护领域,已经突破了“人类中心主义”的观念局限,这对于人工智能的法律主体性认知具有借鉴意义。笔者认为,环境资源与人工智能在主体性这一方面并不具有太多的可相互借鉴之处。一方面,环境与资源问题涉及整个地球生态系统的平衡与稳定,不仅涉及当代人之福祉,还关涉整个人类的可持续发展以及其他生物体的繁衍生息。进而言之,人类对自然、资源以及整个地球的生态系统应当怀有敬畏之心,这一敬畏之心本质上排斥“人类中心主义”的思维定式。人工智能则不然,人工智能是人类创造之物,人类对它的功能定位至少在目前仍旧是工具性的,人工智能与人类关系的最佳状态是人类可以控制它为人类所用,如果不能控制它,最好的方式是消灭它,而不能像敬畏自然生态一样敬畏它。另一方面,即使在环境资源领域,也并非在真正意义上摒弃“人类中心主义”,而是在意识到人类自身的局限性之后,致力于谋求与自然和谐相处,本质上还是为了人类的长远和可持续发展。换言之,人工智能并不能够从环境资源领域获得对其法律主体资格的理论或者伦理支撑。

第三,如果真的突破“人类中心主义”,赋予人工智能以法律人格,那是否意味着植物、动物等生命体也应当被人类当作主体来对待?如果是,将会引发一系列的伦理解释困境。有学者以“美国军事领域普遍使用的拆弹机器人与士兵建立了深厚的感情,士兵们甚至愿意牺牲自己的生命以保护机器人的安全”[17](P39)为例来解释人工智能与人类的关系具有亲情特点,因此得出人工智能应当具有主体资格的见解。笔者认为,该种逻辑实在令人啼笑皆非。一方面,这个例子说明的是人对于物的感情而非物对于人的感情,因为人对物有感情,所以物也具有人的属性,这个推理存在严重的逻辑硬伤;另一方面,人对于物的情感古已有之,且并不局限于机器人,人对陪伴自己的宠物、使用多年的物品均会产生感情,难道均要赋予其主体资格?

(三)赋予人工智能法律人格缺乏可操作性

法律是一门实用的艺术,我们在创设任何法律概念的时候,要考虑的不仅仅是一系列饱含深情的价值命题,更要考虑它的操作性意义,人工智能法律资格问题亦复如此。[18](P177)赋予人工智能以法律人格,我们发现在多个方面缺乏操作性意义。若承认人工智能的法律人格,接下来面临的一个问题是,人工智能的法律人格标准如何设计,即人工智能达到怎样的智识标准才能获得主体资格?这是一个操作难度极大甚至可以说根本不具备可操作性的任务。

首先,人工智能有强弱之分,在人工智能研究的初期,便已经形成了AI(artificial intelligence)和IA(intelligent assistant)之分[19](P224),如今人工智能更是在算法、物化形态、适用领域等方面形成极大的差异,其可以是机器人的物质形态,也可以仅仅是一个智能软件系统等。③物质形态不同、适用领域不同,要建立一个统一的人格标准,其难度可以想象。目前部分人工智能具备深度学习能力,能通过其装备的神经网络之间的不同链接,形成类似于人脑神经细胞之间的沟通,因此可以在既有算法与程序的基础上,自主形成新的思维,作出超出人类预定和控制范围内的行为。如已被授予公民资格的索菲亚、无人驾驶汽车等,皆具有深度学习能力。但目前仍有绝大多数人工智能不具有深度学习能力,如扫地机器人、大数据等。对于两类差异较大的人工智能授予其法律人格不仅存在标准差异,还存在法律资源利用效率问题。授予具备深度学习能力的人工智能以法律人格,其目的在于解决其责任主体问题,而无深度学习能力的人工智能并不存在责任主体认定的困难,作为客体便足以解决其责任问题,因此赋予其法律人格无疑会造成法律资源浪费。

其次,人工智能享有法律人格并不能够独立承担民事责任。在人工智能法律人格的理据中,有学者主张拟制说,即认为人工智能如同企业一样,可以被拟制为“人”。然而,企业被拟制为人是以企业具有独立的财产、能够独立承担民事责任为前提,而人工智能即使享有主体资格也不具有独立承担责任的财产和能力,其责任无疑仍旧是其制造者或者所有者承担。虽然有学者提出建立人工智能基金或者类似于公司注册资本的保证金,但人工智能不像企业,具有创造财富的能力,人工智能的保证金或基金并不能为其“股东”提供收益,也不具有保值增值的能力。设想公司不能为股东创造财富,却具有极大的经营风险,使股东缴纳的注册资本随时处于支付赔偿金的威胁之下,则股东必然不会出资设立公司。所以通过设立基金或者注册资本的形式,为人工智能提供独立财产并不具有实际意义。

四、人工智能法学研究应保持谦抑性

近年来,法学研究普遍呈现出较强的热点追逐跟风效应,但凡出现社会热点问题,顷刻即会产出大量学术论文围猎之,人工智能问题亦是如此。[20](P119)从当前的研究趋势来看,人工智能法律问题已然成为法学研究领域的第一大主流热点题域。以热点为导向的学术研究,其一大积弊即是为了凸显热点问题的学术价值,研究者会倾向性地对新事物进行夸大、粉饰,这一积弊在人工智能法律问题研究领域表现得亦非常突出。其实,任何一项技术的进步、更新迭代都是一个渐进式过程,人工智能也好,智能机器人也罢,严格意义上说均非新鲜事物。在当前的法学研究中,部分研究者选择性地遗漏人工智能发展的渐进式特点,片面地渲染、拔高人工智能对于法律所带来的挑战,似乎人工智能已然足以对现有法律体系构成革命性影响与冲击。如有学者提出:“人工智能的迅猛发展不仅仅是一个科学技术领域的新现象,它正在迅速改变人类社会的经济形态、社会交往模式和政治—法律结构。起源于农业社会(无论是古罗马还是亨利二世时代的英国)的‘现代’法律体系,能否成功应对人工智能所带来的新的风险和不确定性,能否在人工智能时代继续维持秩序与变革、守护与创新、价值与事实之间的动态平衡,是今天的法律人所必须面对的紧迫问题。”[21](P78)笔者认为,法律以及法学研究对待人工智能尤其是人工智能法律人格应当保持适当的谦抑性。

(一)赋予人工智能法律人格缺乏必要性和紧迫性

根据目前我国人工智能技术的发展水平,我国当前人工智能需要解决的问题并非其人格问题,并且即使将来人工智能的技术水准突飞猛进也并非一定要借助人格赋予的方式才得以应对其风险与问题。法律人格的一个价值功用在于,它可以通过把法律责任或者奖励导向特定主体的形式,确保法律的激励与约束功能得以落到实处。但依据我国《侵权责任法》规定的几种侵权责任承担方式,如停止侵害、排除妨害、消除危险、恢复原状、赔礼道歉等,人工智能皆无法完成。在刑事责任中,如某个自然人实施了盗窃行为,最终被处以相应的刑罚,通过刑罚的执行可以对他以及其他潜在的群体起到警示与教育作用。人工智能则不然,以1978年发生在日本一所工厂内的机器人杀人事件为例,在机器人杀人后,如果我们视其拥有独立的法律人格而对其施加刑罚手段,那接下来的悖论是法律去惩罚一个机器人的意义在哪里呢?法律的警示、教育乃至激励功能在这个机器人身上怎样得以彰显呢?所以人工智能责任的承担只能以赔偿损失的形式进行,对此责任我国可以借鉴《法国民法典》的规定,对物件致害时,由物之所有人或对物进行占有、使用、控制的人承担替代责任。此外,对于人工智能创作成果,或者对于一台可以创作诗歌、小说的机器人而言,法律对机器人进行奖励或者保护它的著作权有何实质性意义呢?④说到底,法律应当奖励与保护的是机器人的发明者而非机器人本身。

(二)法律人格并非确定人工智能责任的前提

目前我国对人工智能的研究存在一定的误区,即认为人工智能责任的确定需以其主体身份、法律人格为前提,但在主体责任之外,产品责任、替代责任等在人工智能法律责任中皆存在适用的空间。因此,学术界不应对人工智能法律人格的作用过于夸大,对其研究必须保持法律的谦抑性。人工智能具有极强的技术驱动性与技术规律性,是“知识革命中最具代表性和影响力的时代技术”[1](P30)。这意味着它是立法者、裁判者以及理论研究者并不熟稔的“地方性知识”。对不熟知的事物保持谦抑克制是制度参与者所应秉持的正确立场,以免因为知识性局限而挫伤其创新性因子或者催生出技术泡沫与制度风险。对此,将人工智能视为物之范畴,权利之客体,更符合人工智能在当下发展的需求,也更能避免人工智能对人类伦理造成不可避免的损害。且根据我国当前民事责任的分类,对人工智能责任以产品责任追究,便足以解决人工智能问题,对人工智能通过自主学习能力获得的技能,引发的责任问题,则可以通过保险等形式予以分担。

五、人工智能法学研究视角的转换路径

通过笔者以上的分析可见,人工智能法律人格具有一定的“伪命题”色彩,或者说以目前对人工智能的理解,对其法律人格的研究时机尚不成熟。在当下赋予人工智能以法律人格,并无合理依据,且会无端增加操作难度。以法律人格授予的方式回应人工智能其实是法律资源的错配和误用。面对当前人工智能异军突起,相关法律法规未能提供有效指导的背景,我国更需要解决的是在人工智能作为“客体”的法律现实背景下,权责的配置以及责任的承担问题。

(一)人工智能权责配置的前提——风险识别

尽管在表面上看,人工智能对法律的挑战与影响是多维度甚至是整体性的,但抽丝剥茧之后,其实均可归之于一点,即它在一定程度上对法律制度体系内既有的风险与权责配置机制造成了冲击。如无人驾驶汽车的出现,对既有的道路交通安全法、产品责任法、保险法以及刑法中的相关法律责任配置结构造成了较大的冲击,最起码酒驾、醉驾在无人驾驶时代极有可能不再被视为违法行为。又如机器人创作者的出现,给既有的著作权配置与激励体系出了难题,对于机器人创造的作品,其著作权到底应归属于机器人还是机器人的发明者,既有著作权法对此始料未及。这类问题才是人工智能法律问题之核心,也是当前亟待法律予以回应的真问题。对此,笔者认为应重点从下述几个方面着力:

第一,深度剖析与识别人工智能的技术结构与技术风险。人工智能之核心在于它改变了传统的技术结构,并可能因此而引发新类型的技术风险。如对于传统汽车而言,它的技术结构是双维结构,一是汽车本身的技术构造,二是驾驶者的驾驶技术和驾驶时的精神状态,同时,传统汽车的技术风险也源于这两大技术结构。无人驾驶技术出现后,导致汽车的技术结构由双维结构变为单维结构,相应的技术风险也随之而发生变异。法律对人工智能予以回应的第一步也是最基础性的工作就是要剖析与识别人工智能的新技术结构及其可能引发的新技术风险。

第二,以人工智能的技术结构和技术风险为依托重置相关权责配置结构,以促进创新并化解风险。以智能机器人创作的作品为例,既有法律制度应深挖这种作品的技术结构、技术风险以及法权结构,采用成本收益分析方法,设计出社会成本最低、社会效益与经济效益最高的权责分配结构。

第三,构建以技术和法律为主导的风险监控体系。人工智能风险与传统风险所不同的是,它具有共生性特点,即“技术风险与制度风险共生”[1](P130),这一特点决定了该种风险的监控难度更大、更为复杂。以金融领域为例,以智能投顾为代表的人工智能技术的应用、以区块链为基础的数字货币金融等[22](P18-22),给金融安全、信息安全均带来不同程度的新挑战[23](P222-225)。这意味着人工智能风险监控体系,已经大大超出了单纯的权责配置结构,还应当包含事前的准入监管体系、事中的风险把控体系和事后的风险惩戒与化解机制。

(二)人工智能权责配置的内容——回归人工智能“物”之属性

目前人工智能权责划分的研究较多,但一触及人工智能自身享有权利、承担责任,便难以绕开人工智能法律人格的探讨。人工智能法律人格至今未有定论,以目前的人工智能进程及研究情况观之,尚不具备确定其法律人格的条件。如此背景下,唯有跳出法律人格的限制,研究人工智能作为客体,其权利与责任的归属问题,才能更好地服务于人工智能的发展。

人工智能的权利,除学界常探讨的人格权外,关注度最高的便是人工智能作品的版权问题。人工智能从人类创作的辅助工具,已经逐渐发展成为依靠深度学习能力,独立创作的主体,如人工智能“小冰”创作的诗篇已经足以超过普通读者。但对人工智能创作的作品是否具有可版权性,以及应当由谁享有其版权,学术界皆存在争议。其中争议的内容虽为版权,但争议的核心却受到人格权的限制。在人工智能作品的版权认定中,诸多学者陷入了一种无限循环的困境,即依照目前著作权法的规定,版权的主体必然是人,而人工智能目前不属于人,因此其作品不产生著作权。[24](P150)但笔者认为,对人工智能著作权的认定应当摆脱人工智能人格权利的限制,不考虑人工智能是否属于“人”,而仅通过其作品的产生过程、创造的思维活动等来判断人工智能创作物是否具有可版权性,并最终界定其归属。

人工智能的责任相对权利则更为复杂,其不仅涉及民事责任,还涉及刑事责任,在民事责任中,又存在侵权责任、产品责任等划分。在民事责任领域,无人驾驶汽车责任的研究具有典型意义。对此美国部分州已经明确无人驾驶汽车责任主体,如美国佛罗里达州确立了无人驾驶汽车生产者、改造者之间分担责任,欧盟在人工智能的立法建议中提出“有必要确立智能机器人的特殊地位,至少应当确保技术系统最复杂的智能机器人拥有‘电子人’的独立地位”[25](P108)。

从目前对人工智能责任研究的进程发现,越来越多的学者主张人工智能承担主体责任,因此才会如德国一样,迫切要解决人工智能的法律人格问题,以赋予其主体地位。但将人工智能视为客体,其侵权行为给受害人造成的损失是否就无法弥补?显然不是。具有深度学习能力的人工智能产品与我们日常生活中饲养的“宠物”有一定的相似性,其行为都会受到所有者(人工智能还会受到制造者的影响)的控制,但又都会作出一定的自发行为。法律并未因此赋予宠物主体资格,而是将其视为物,对其造成的侵权行为,也由其饲养人承担责任。所以人工智能的责任并非只有赋予其主体资格才能实现,将其作为物,并适用产品责任、类似于法国的物之替代责任等,皆可实现人工智能损害赔偿。对此,笔者建议我国采取佛罗里达州的做法,确立责任分担原则,由人工智能制造者、所有者共同分担其责任,为避免事故发生后经济赔偿纠纷,提高损害赔偿的效率,可以通过人工智能保险的形式,由保险公司承担损害赔偿责任。

(三)人工智能权责配置的补充——人工智能法律激励机制探索

人工智能风险与责任的研究,必然会增加人工智能生产者、经营者的成本,降低其积极性,因此为了保证人工智能的顺利发展,我国学术界在人工智能权责分配之外,还应格外重视对人工智能激励机制的探索,以将其作为人工智能权责配置的补充。在全球竞争愈演愈烈的互联网时代,人工智能已经成为全球竞逐的新领域,能否在人工智能领域先人一步,将决定一国在下一轮全球竞争中能否占据优势地位。因此,法律应对人工智能不能局限于制度调整的微观视角,还应站在国家战略高度,从顶层设计层面尽快构建人工智能的法律激励机制。

具体而言,可从下述三个维度着力:第一,加强对人工智能的财税政策支持。如对于人工智能产业采取低税、免税的税负政策,减轻人工智能企业的税负压力;在政府采购方面,合理限度内赋予人工智能产品优先权。第二,强化人工智能的知识产权保护。我国既有法律体系在知识产权保护上处于相对薄弱的发展水平,虽然降低了企业的模仿学习成本,但也成为知识创新、科技创新之掣肘。人工智能本质上是知识的创新与再造,知识产权法也是离人工智能最近的法律制度体系。从法律激励视角看,既有的知识产权法律制度体系,应从人工智能知识产权确权、人工智能知识产权侵权纠纷应对、人工智能反垄断豁免以及以新型商业模式为表征的人工智能商业秘密保护等方面着力,构建人工智能的知识产权保护与激励机制。第三,对以人工智能为代表的创新型公司在融资与治理问题上给予适当的制度倾斜。如对于人工智能类企业上市融资开设绿色通道;允许人工智能类公司采取更为宽容的现代公司治理模式(如允许其采用双层股权结构)等。不过需要强调的是,人工智能法律激励机制之构建,须持理性可持续之立场,以避免激励过度引发虚假创新、创新泡沫等异化情形。

六、结论

人工智能并非横空出世的新事物,尽管它对既有法律制度体系会造成一定程度上的冲击,但远未达到颠覆性冲击的地步。法律应当重视人工智能可能带来的种种新的变化和风险,但不能过分地拔高人工智能的法律地位。对于人工智能的法律地位,究竟赋予其法律人格,还是将其视为客体的物,需要法律与技术的充分准备。尤其在目前,法律人格是整个法律制度体系的核心性“元要素”,人格授予是极富神圣性和仪式感的终极操作,不可轻易为之。对待人工智能,我们应当做的是在厘清其风险与功能价值的基础之上,尽可能在既有的理论与制度资源内寻求回应之道,而非动辄诉诸法律人格这样的核心性命题。人工智能虽相对复杂,但尚未足以撼动民事主体的分类,我国法律人格理论发展至今,除自然人、法人外,尚未形成第三类主体,因此人工智能是否足以成为第三类法律人格,尚需人工智能的发展予以验证。只要通过其他法律途径能够解决人工智能责任问题时,便不需考虑将其作为主体追究其法律责任。

注释:

①其中《东方法学》杂志专设“智慧法治”栏目,刊发人工智能领域作品。

②该说认为,可以通过给每辆车设定一定比例的类似于公司注册资本的保证金,用以承担侵权损害赔偿责任。

③如数字货币领域的区块链技术,就是一套技术软件系统,而非像机器人那样的有形之物。

④相反观点参见刘强、徐芃《人工智能主体资格及创作物权利归属研究——以法律拟制为视角》(《武陵学刊》2018年第2期)。

猜你喜欢

人格机器人责任
列宁的伟大人格及其当代意义
共产党人的人格力量
使命在心 责任在肩
远去的平凡背影,光辉的伟大人格
每个人都该承担起自己的责任
机器人来帮你
认识机器人
机器人来啦
期望嘱托责任
漫画之页