APP下载

人工智能的角色定位及责任表达

2023-08-29王玮

关键词:法律责任人工智能

摘 要:法律上人工智能的主体人格讨论是人工智能在法律框架下触及具体问题的一种理论假设。要真正完成人工智能的角色定位,有必要在传统法律主体人格的理论下,对现阶段人工智能的法律人格学说进行检视,围绕物的内涵来确立其本质属性,以期在法律责任制度的框架下论证人工智能物格地位的现实合理性。现阶段,人工智能仍应定位于物,这不仅是法律视域下对人工智能诸多现实问题进行制度表达的实践考量,更是未来解决人工智能技术在带给我们便捷欢欣与强人工智能无法约束的二重矛盾的重要理论思考。

关键词:人工智能;主体人格;客体物格;法律责任

一、问题的提出

进入21世纪,全球的科技创新进入高速发展活跃期,新的产业变革已经出现,以人工智能为代表的科技革命正在重构全球版图,经济结构也发生了重大变换①。2017年7月8日,《新一代人工智能发展规划》将人工智能的技术发展分为三步,第二步便是到2025年,人工智能要在基础理论上实现重大突破,形成较为完备的法律法规和政策体系,以加强未来对人工智能技术的管控与评估。2022年7月,为进一步落实《新一代人工智能发展规划》,推动经济高质量发展,科技部等六部门以场景创新建设为方向,印发《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》。该文件以人工智能的场景创新为方向,为人工智能多领域的发展提供了契机,但是文件中并未提及人工智能法律主体人格的地位问题。毫无疑问,面对新技术与旧制度之间可能发生的适用混乱,从法律框架下对人工智能进行合理的定位已成为紧迫的现实问题。

以发展的视角看,人工智能的未来应是更为自由的智能体,进而逐步摆脱人机关系的束缚。人类或许终要不可避免地退出人机关系的舞台,从而让人工智能独立地从事社会活动[1]。而人工智能法律主体人格赋予与否的问题,不仅是在法律框架内规范治理相关智能行为的逻辑起点,亦是解决当下人工智能法律责任问题的“钥匙”。越来越多的学者(彭诚信[2]、张玉洁[3]、郭少飞[4]等)也开始认为,应当赋予人工智能法律人格并使之成为独立的法律主体。然而,这一做法是否会对人的主体性地位产生挑战,人工智能这个新型的法律主体能否规范合理地纳入现有的法律规范体系,仍需进一步论证。据此,有必要认真审视人工智能的法律主体人格,重新对人工智能进行角色定位,并在法律责任制度框架下予以表达,从而达到引导技术应用、增进人类福祉的目的。

二、人工智能的人格否定

在人工智能广泛应用的今天,赋予人工智能独立的主体人格究竟是解决行为责任“灵丹妙药”还是在开启智能时代无法控制的“潘多拉魔盒”?对此问题,有必要在传统法律主体人格的理论上做出相应判断。

(一)传统法律主体人格理论

自罗马法发展以来,法律上就一直存在着法律人格的概念,法律人格乃是法律对高等智慧生物的自然人进行界定从而使之成为法律主体的结果。只有真正具备法律意义上的人格,方可在法律中实现其主体性价值。而主体性又作为现代法律制度的根本基石,始终将人置于至高的法律地位,并强调人是一切社会活动的最终归宿,一切的社会活动都应当服从“人是目的而非手段”这一道德实践法则[5]。由此观之,法律主体人格应当是法律制度为了满足人类生活的现实需要而设置的一种语言概念,实际上是对社会中人最高地位的间接表达。

从内在的理论要素分析,传统法律主体人格應当包含主体、行为和责任三种能力。第一,主体要素能力。法律主体应是一种人格人,其特征有三:具有意志;属于目的性存在;能够自律[6]。人作为一种具有自我反省与理性思考的高等智慧生物,传统认识中,只有人才能进行辨别、判断与选择。辨别与判断的过程是一个极为复杂的过程,人独特的思考能力会在反复思索中通过自己的意志有目的地做出相应的判断,以此自愿地做出符合内心真意的选择。第二,行为要素能力。法律主体的行为能力主要是指法律主体可以通过自身的作为或者不作为引起法律关系变动的效果,此种行为是一种有意识的自觉行为,也包含了主体可以行使的权利与应当履行的义务。第三,责任要素能力。独立法律主体人格的重要特征之一是在做出法律行为的过程中,具备独立的责任能力,无需借助外力而能够进行自我答责。

纵观人格制度的发展,除自然人的法律人格外,法人的人格实为对传统法律主体人格制度的另一大创新。理由在于,法人人格独有的社会功能赋予了其独立民事主体地位的必要性,在促进物的社会流通、交易便捷和交易安全的功能上,法人人格发挥着重要作用。不仅如此,自然人与法人二元主体模式也赋予了法律人格创设的正当性理由,即法人的主体并不是凭空捏造,而是由自然人本身的主体性延伸而来。法人一切的权利、行为皆是通过现实中的自然人的权利、行为得以诠释。换言之,法人始终基于其背后的自然人得以构造与发展,二者之间具有密不可分的关系并进行了充分的主体性契合。从这一意义上思考,要在当下法律框架内完成其他脱离人的主体性创设是艰巨的。

(二)人工智能法律人格学说

究竟能否赋予人工智能独立的法律主体人格,有必要对现阶段人工智能主体人格的不同学说做进一步分析。当下关于人工智能法律主体人格的学说争论,主要有以下三种:完全人格说、有限人格说和拟制人格说。

1. 完全人格说

完全人格说认为,应该直接赋予人工智能和一般自然人同等的法律主体资格。自从2017年沙特政府宣布世界上第一个公民身份的机器人索菲亚诞生开始,关于人工智能法律主体人格的争论从未中止。索菲亚是完全人格说的现实体现,其与自然人具有同等的公民身份,已然可以行使与自然人一样的权利。周详认为,现代的人工智能具备了权利主体的智能性这一本质要素,智能机器人“人格化”也并不存在法律方法论上的困难,相反具有适应社会发展的正向功能性[7]。所谓正向功能性并非法律技术或逻辑的考量,而是以法社会学的视角看,人工智能的发展趋势是符合社会目的性的。总之,完全人格说主要是通过对社会形势及人类需求的判断,将人工智能从客体物上升到主体人的地位,进而赋予其法律主体人格。

2. 有限人格说

有限人格说认为,现实中人工智能的法律人格并非完全的,而应当是有一定限度的。有限性分别体现在几个方面。其一,意识范围的有限性。人工智能与一般物最大区别在于其具备了一定的自主意识,但该意识范围并不能等同于自然人的范围,尤其在自我决策的问题上,要保持一定的原则底线。其二,个人行为的有限性。人工智能本身实施的行为并非没有依据,而是应当受到其背后算法的约束,即受到人工智能生产者或使用者的限制。其三,责任能力的有限性。人工智能的责任能力与自然人、法人、非法人组织的独立责任能力不同,虽然可以独立自主地参与到民事活动中,但是责任承担却是有限的,并不能独立承担所有责任,人工智能只具备有限的责任能力[8]。袁曾指出,“人工智能的本质仍是工具,其服务人类社会发展的属性并未改变,根据人工智能独立的行为能力,应赋予其法律人格,由于人工智能承担行为后果的能力有限,故而其人格应当是有限的法律人格,适用特殊的法律规范。”[9]总的来说,有限人格说主张人工智能在意识范围、个人行为、责任能力存在不同限度的有限性。

3. 拟制人格说

在罗马法的法学思考中,法律人最重要的一大创制是用法律拟制的思维来处理与人类依附相关但又有别于人类的事物或行为,比如法人人格擬制。当今人工智能革命也可尝试在法学理论上及法律规范框架下将人工智能纳入拟制的传统,这样的依据在于,人工智能已经超出了一般物的范畴但是又没有改变作为工具服务人类的附庸性角色。人格拟制的技术选择不仅可以走出传统法律意义对人工智能物的束缚,更通过法律拟制的手段而赋予了一定范围内的法律主体资格,最终做到人类与人工智能和谐共舞[10]。今天人类社会的发展,已经逐渐步入非唯人类中心主义的时代,要尝试摒弃陈旧的功利主义“人之外皆是工具”的认知,认真对待像人工智能一样的非人实体,在法律拟制问题上要进行多方位的思考与尝试。拟制人格说通过摆脱传统僵硬物的认识从而赋予人工智能独立的法律人格,为解决人类与人工智能复杂的社会生活关系提供了依据,但从理论到实践是否真正可行,仍需要进一步思考。

(三)人工智能法律人格评价

1. 对完全人格说评价

对于完全人格说,学者们之所以主张完全人格理论,主要有以下几项依据:(1)人工智能除了自主决策之外,已经能够从不同的事件经验中自我更新、自我进步,甚至可以作为义务承担者的身份参加到民事法律关系中,进而承担相应的法律责任;(2)人工智能已经初现与人类似的部分道德行为。随着人工智能技术的不断提升,在与人的交流互动中,人工智能能够进行情感交流与释放,尤其在涉及人与人之间基本的道德伦理,这种认识便愈发坚定。在大数据信息化智能时代的今天,人工智能不管是否受到人类的支配与约束,亦不能阻止其平等地获取尊重与行使权利,甚至像人一样表达同情与关爱;(3)责任平衡的补位。这方面考量出自当侵害事件发生后,当人工智能不具备独立的法律主体资格,人工智能的设计者、销售者、使用者对于责任的承担是否过重?完全人格理论选择了应当赋予人工智能法律主体资格的决定,但是作为机器的人工智能,如何具体承担后续的责任则值得探索。完全人格说从社会发展的视角固然将人工智能放置于类似于“自然人”的法律地位,但在现实条件下,人工智能技术仍面临着诸多技术难题,还不能全面准确地嵌入人类的生活,这是必须进行的现实考量。

2. 对有限人格说评价

有限人格说在一定程度上弥补了完全人格说,已经考虑到其意志范围、行为义务、责任能力的有限性。但从现有法律视角出发,有限责任说则更给我们带来一系列的法律难题。依据其本身各项能力的“有限性”,是否应当适用特殊的法律规范?适用的范围又应如何界定?在有限人格的视角下权利又应当如何分担?再如在责任承担问题上,智慧型人工智能作为一种可以进行独立意思表示的特殊主体,尽管独立实施了某一个行为,但由于其算法主体本身的有限性,并不能将所有的责任只归于一体,是否应当考量背后实际生产者或使用者的责任?不同利益主体之间的责任天平又该如何倾斜?有限人格说尽管在理论上存在可能性,但由于其特殊的有限性,在人工智能发展尚未成熟稳定的今天,在现有法律体系下贸然构造特殊的法律规范无疑会过分增加立法的负担。

3. 对拟制人格说评价

拟制人格说是人工智能在面对人物之间矛盾无法调和进而不断权衡的结果。通过拟制独立的人格,把人工智能提升到主体的法律地位,然后尽可能地确定与之相关的法律关系及权利义务关系[11]。当然,不同学者对于人工智能拟制人格说的肯定,多数是源自对现代法人人格拟制制度的思考。但与法人不同,对人工智能的法律人格拟制应当考虑到以下两方面的问题:一是关于社会普遍适用性的问题。当下的人工智能技术只能在特定的范围和领域为一定行为,并不像法人制度能够广泛地适用于社会生活,在社会普适性上仍有不足。第二,与人主体性地位的关系。法人拟制之所以能够准确顺利地契合现有的制度框架,一个重要的原因在于法人并未对自然人的主体性地位提出挑战,法人与自然人二者之间是有机统一的关系。反观如果直接对人之外的人工智能进行人格拟制,则可能会造成更多的社会矛盾,其带来的实际效益或法律纠纷并未得到削减。可以说,拟制人格说是在考量社会实效的基础上对现行法律制度的一种变通,其实质是将人工智能放置在了与人等同的主体地位。

三、人工智能的物之确立

通过对传统法律人格理论及人工智能主体人格的学说分析,当下人工智能仍不具备创设独立法律主体人格的现实条件。这也进一步将人工智能推向客体物的领域,究竟什么是物,人工智能是否真正属于客体的范畴并满足物的基本特征,是否能够被涵摄进而无缝对接到物的法律世界中,有待深入论证。

(一)传统法律中物的认识

物这一概念是罗马法学家抽象思维创造的结果。罗马法中的物有广义狭义之别,广义的物是相对于人的范畴,指人以外的一切。狭义的物指财产。狭义物的概念从广义物的概念发展而来。通常所谓罗马法之物仅指狭义之物,可分有体物和无体物。当下立法中将物作为一个重要概念加以规定,是大陆法系长久以来的立法传统。如《德国民法典》第90条规定:本法所称物,谓有体的标的。《日本民法典》第85条规定:本法所称之物,为有体物。一般来说,作为“物”应具备以下特征:有体性、可支配性、价值性。

过去十年,对于物的认识一直处在不断深化之中。为应对当代经济社会物的种类多极化、复杂化的现实,法律对于物的制度认识应当加以深化,从而来概括不同类型的物。杨立新提出和创设了物格概念和物格制度[12],民法体系中物的世界从此有了新的发展。物可以分为一般物格、特殊物格、伦理物格三个层次。一般物格为最普通的物,与人的感情较远。特殊物格则是建立在现代科学技术不断发展的前提下,传统一般意义上的物已经被一般物格所包含,对于新兴的尤其是离人的感情较近的物无法判断,如脱离人之外的器官、人体辅助性器械等具备部分身份性特征的实物是否可以纳入物的范畴?特殊物格随即应运而生,特殊物格在一定程度上更看重物的使用价值,当然其也适用财产的法律规则。最后的伦理物格则赋予了物最高的法律地位,其与人的感情联系最为紧密,这个时候的物已经初步具备了伦理属性,关系到人的利益,一定程度上可以做出与人类似的伦理性活动。

就人类发展而言,人类走出野蛮时代后,人自然而然成为物的支配主体,人类之外者,本质上皆属人类的工具。人对于物的掌握,早已随着科技进步而不断地提高,罗马法所确立的物,已经远远不能包括现代民法物的范围,当今民法上物的形态已经从单一化走向多极化。面对物的认识不断深化,人工智能要想摆脱自身工具性逃离物的范畴,有必要分析其本身的构造特征。这为人工智能中物的属性研究提供了导向。

(二)人工智能中物的基本属性

第一,人工智能的构成属于物的范畴。人工智能的构成,可以分为硬件与软件两种。硬件当然属于客观实体物,但由算法系统与大数据构成的软件是否可以纳入物的范围?尽管数据与系统都是摸不着的无体物,但其仍属于人类科技进步的产物,属于产品的范畴,并不能和人大脑的智慧置于同等的地位。近代民法从康德哲学体系中抽象出了“人以外全是物”之理念,导致了人与物的二元对立[13]。人工智能尽管初步具备意识性行为,但其依旧不能打破人物二分的私法格局。人工智能作为科学技术,只能是人类进行社会行为的服务者,自身并不能作为目的,就像人工智能不能拥有与人一样的自主性,其只是服务于人类社会的一种无形工具。

第二,对人工智能的支配决定其属于物。人工智能的快速发展,引发了人工智能是否受人类支配的討论。尽管人工智能已经高度发达,但必须承认的是人工智能仍是受人支配的辅助物。追溯物的支配性特征,要回归物本身的概念,物作为一种被法律认可的存在,法律上并不关注物究竟是自然存在还是社会或虚拟存在,更不会对物作详细的列举式说明,法律更多关注的是在适用过程中物的社会价值,即如何通过支配物更好满足人的社会需求,这是真正意义上物的特征。对于物的支配,史尚宽在《民法总论》中论述,物者,谓有体物及法律上具能支配之自然力[14]。王利明在《中国民法典草案建议稿及说明》中对物的定义是,为人力所控制并且具有经济价值的有体物[15]。孟勤国[16]、杨立新[17]等也都表达了物应为人力控制的观点。人工智能作为新兴的科技产品,无论如何智能性,终归要受制于人的支配,从这个认识上,其已经具备了物的支配特征。

第三,人工智能是存在于人身之外能够满足人类某种需要的物。物的一个重要特征在于,存在于人身之外并能够满足人类的需要。人身之内是不能作为物的,如组成身体的部分器官,因其具有绝对的身份性故不能当成物来看。从现实生活看,人工智能并不具备独特的身份性,其仍是存在于人身之外的产品,主要目的仍是满足人类自身发展的需要,其应当被纳入民法物的调整范围,并以此来确定归属和利用的秩序。

(三)人工智能发展了物的内涵

平等是人类永远的价值诉求,但差序或许是无法回避又永远无法消除的现实[18]。人工智能是不是物之所以会引发学术的争论,一个重要的原因在于,人工智能实质上发展了物的内涵。人工智能不同于一般物,人工智能的部分行为已经初具伦理性与可预见性,进而产生了人工智能作为物的理论质疑。比如从人工智能的社会性角度而言,在算法规则的支撑下,人工智能可以像人一样进行有效的互动,甚至成为领域的专家,这就传达出一个错误的讯号,即人工智能已经可以真正等同于人。

实质上,人工智能欠缺人独有的理性。比较人工智能的算法科学,当今法律关于人的界定是建立在以康德为代表的德国古典哲学对人本质的深刻认识基础之上,有深厚的法哲学基础[19]。理性使人类认识到,人自己是万物的尺度,并决心通过构建法律制度来规范现代生活秩序。人工智能尽管实现了由一般工具到智慧型工具的转型,具备了人的外观,但其行为的规律仍是通过数据背后的算法,算法的难易程度代表着人工智能处理信息的能力。相比较社会中的自然人,人工智能没有在社会中进行真实的生活,人的喜怒哀乐情绪表达也是通过其背后的算法进行展现,甚至可以说,人工智能本身内在价值观赋予及其基本行为方式的建构,完全可以追溯至该人工智能的生产者、研发者。

康德认为:“人虽然有着种种的感性欲望,但人主要的行为并不由这些欲望决定,决定其行为的永远是理性,正因为这样,才能对人的行为进行道德评价。”[20]民事法律制度亦是对“理性本位”的深刻阐释,通过理性进而对民事法律中的主客体加以区分辨别。可以说,理性作为民事主体的人独特的认识能力,如同旗帜一样走在人类社会认知的最前面,指引着人类社会未来的发展方向。对于人工智能的理性认识应当是,要充分肯定科学技术进步的价值,但也要确保人本身的主体地位、自由和人格尊严不受侵害,始终树立尊重人类人格的法律底线[21]。人工智能发展了物的范畴,却不能超越人所特有的理性,究其根本,人工智能的创设始终是以服务人类为目标,而非成为人类社会中自然人中的一员。如果将人工智能通过算法构建实行的部分道德性、法律性的单一行为视为其具备与人同等的法律主体人格的依据,这样的结论是欠妥的。

四、人工智能的责任表达

通过对人工智能物的角色定位,有必要在现有法律框架下考量其契合性。作为物的人工智能是否能够真正纳入现有的责任体系,实现责任理论的充分表达。有必要对人工智能的责任主体、责任行为、责任承担做进一步研究,以确证人工智能物的定位合理性。

(一)责任主体的清晰明确

在责任主体的问题上,人工智能作为新兴的科学,其中仍包含着诸多不确定的未知领域,贸然将其设置为法律主体,将为现有的法律责任制度带来颠覆性挑战。但在客体范围内对人工智能的责任主体进行分析,可以保证物为人用,实现人工智能的安全稳定。梳理与人工智能责任主体的相关事件,大致可以分为三类,即因生产缺陷而发生的侵害事件、使用者未尽到注意义务而产生的侵害事件和人工智能自主决策模式下的侵害事件。

第一,人工智能生产缺陷而引发的责任事件。该类责任承担主体较为简单,应由制造该产品的生产者来承担责任。追溯侵权责任法设立的根源,侵权责任法重要功能是对行为自由与权益保护做进一步的平衡。产品责任亦是如此,之所以在法律上规定产品责任属于无过错责任,重要理由在于,通过立法对不同群体的利益进行调试与选择,显然,立法者选择了保护使用者的利益。剖析《民法典》第1166条对无过错责任的规定,在适用人工智能产品责任的问题上,受害人自身有无过错完全不影响侵权责任的成立,仅需证明产品缺陷与受到损害之间存在因果关系即可。其理由在于,正是由于人工智能生产者的过错而直接导致了损害事件的发生,作为设计控制整个生产程序的社会生产者,面对社会众多的智能产品使用者,流通市场之前,其应当具备谨慎的注意义务,担负起更多的社会责任。

第二,使用者未尽到注意义务而产生的侵害事件。弱人工智能时代的今天,多数人工智能的操作仍需要使用者来主动发送指令。如此一来,使用者在行为层面上的过错,也是有效责任机制的重要组成部分。面对侵害事件的发生,生产者已经尽到了相应的告知义务、产品警示义务后,因使用者没有尽到合理的注意义务发生的侵害事件,应当由使用者承担相应的侵权责任。于使用者而言,尽管智能产品使用风险的增加会对市场需求产生不利影响,但却尽可能给予了受害者最大的保护,这样安全权衡的结果是恰当可取的。

第三,人工智能自主决策模式下的侵害事件。从某种意义上说,人工智能的自主决策,往往伴随着强人工智能时代的到来。这个时代的人工智能由于其本身的智能性,故其所依赖的“算法”会更为复杂。因为“算法”对普通人来说其本身就是一个“黑箱”,要求他們理解人工智能自主决策背后算法的合理性更是难上加难。更为严重的是,甚至面对连技术的创造者都无法解释致害真正原因的事故,人工智能生产者再利用责任豁免条款②进行抗辩将更增加侵害事件中因果关系的证明难度。面对一系列的“复杂算法”,受害人在寻求因果关系的过程中,传统侵权责任归责的因果关系链条是否会因人工智能高度的自主行为而被打破?反观,若在此种情形下免除人工智能的生产者等的责任,受害人利益该如何保护?言及至此,自我学习、自我更新、自主决策的人工智能生产者似乎又有不可回避的责任。作为生产者,在处理如此复杂的人工智能算法产品时,其应当具备一定的可预见性,即是否可能会直接威胁到人类安全。这个意义上而言,其不可避免要承担相应的产品责任,应给予受害者相应物质补偿、精神慰藉,这也是人工智能技术进步过程中生产者的社会担当。

(二)责任行为的可解释性

探讨人工智能的法律责任问题,可以通过人工智能行为可解释性的全新思路来推进。廖备水指出,随着对人工智能技术与系统认识的不断深化,可解释性已然成为对人工智能系统的新的要求,特别是在一些高风险决策领域[22]。如果对高风险领域中人工智能的决策处于模糊的认识,势必会引发人类安全问题。不仅如此,人工智能的可解释性问题也需要在哲学世界里有章可循,因为哲学赋予了人工智能正当的地位与长久的生命力,未来人工智能的发展方向,需要我们将更多的精力投入人工智能本身的“思想”中,分析其背后的可解释性。也只有将人工智能的解释性问题思虑周全,才能进一步解决人工智能涉及的法律责任问题。总之,人工智能的可解释性问题,是处理人工智能法律责任问题的关键[23]。

从行为解释角度上而言,按照拉伦茨的观点,法律在适用的过程中应当实现事实与规范二者之间的对向交流,即目光要始终穿梭于案件事实与法律规范之间,在可能适用的法律规范中要保证案件事实的未加工性;在已经确定的案件事实中,将能够适用该事实的法律规范尽可能精确化[24]。对于人工智能而言,需要做的首先是保证人工智能本身决策背后的数据原始性,要弄清楚这一问题,就必须解释清楚人工智能是如何在现实环境中进行判断进而作出算法决策,对该行为的解释决定了人工智能能否对自己的行为承担法律责任。

要研究清楚人工智能主体本身行为背后的决策理由,在当下仍是属于是技术难题。比较明显的是,无法找寻在决策行为中是否具有过错,更无法探寻人工智能背后的善与恶,在法律责任的研究上,具有不可解释性。显然,法律责任的核心内涵是行为人的内在精神方面和自我控制能力,最起码,不能要求一个独立的法律主体对自己不理解和无法控制的事态承担道德或法律责任。这就是法律责任或道德责任中归责的一个重要条件,即控制力。人工智能要对自己的行为有足够的控制力,这样的行为才是真正属于自己的行为,而不是被外在因素所完全决定的。在这一意义上,现实人工智能还远远未达到此程度。人工智能行为的背后主要是生产者的算法介入,远远未达到实施自我控制的行为,换言之,人工智能生产者在生产时所设定的目的对其后续的自主性有决定性的影响。故此,从法律责任上考察作为独立法律主体的智能机器人的可解释性是不现实的,只有将其置于客体物的地位,才具备嵌入现有法律责任框架的合理性。

(三)责任承担的现实可能

责任是否能够独立承担是判断独立法律人格的重要依据,人工智能是否可以独立担责是必须直面的现实问题。尽管不少学者主张授予人工智能实体法律人格以使之成为独立的法律主体来对自己的行为实现责任的承担,但直接赋予其所谓的权利不管是在道德层面还是在法律层面上都是值得商榷的,主张机器人承担自身“行为”责任更是不可能[25]。人工智能只能被动地输入指令,而非主动做出理性的选择,只有将其置于物的地位,才能化解责任承担的现实困境。

一方面,从民法上看,选择哪一个主体承担赔偿责任应当符合效率性的功能,直接讓人工智能作为法律主体来承担责任并不是明智的选择。在侵权责任法的世界里,主体性法律人格的人工智能与自然人人格是等同的,这意味着人工智能将与生产者、销售者、使用者等多个主体共同担责,是否会存在算法黑洞进而造成归责错误?结论是肯定的。因为人工智能本身是由其生产者研发设计,最了解人工智能本身的是生产者,在利益驱动下极易滋生逃避法律惩罚的投机心理。故而,人工智能的责任承担应当回归其产品的属性,方可提高责任效率、预防法律的适用混乱。

另一方面,即使人工智能的主体责任归属明确,证据事实有力,直接对其实施相应的惩罚是否具备现实意义?因人工智能没有独立的财产,无法对其执行财产性惩罚,即使进一步赋予其经济能力,该惩罚远远不能与社会经济生活中的人对财产的认知比拟。而将控制人工智能行为的电脑程序进行无害化修改,甚至删除人工智能的记忆储存、对相关控制程序采取恢复出厂设置等原始化处理等方式[26]都不能发挥根本性的作用,不能满足对自然人道义伦理上的精神补偿。在文化极度繁荣,人类精神世界丰富发展的今天,精神的补偿在某些场合、某些时刻要大于物质上的赔偿,人与人之间关系的相处并非完全由物质财产来决定。将人工智能定位于物,回归传统法律意义上的私法主体或许仍是人工智能时代责任承担的不二选择。

五、结语

法律人格的重要使命在于将不同的现实实体与作为主体的人进行区分。在人格认识不断深化的过程中,或许会通过一定的标准主动筛选个别物并尝试建立起新型人格化的特殊主体,进而维护以之为中心的法律秩序[27]。站在智能技术领域的十字路口,对人工智能法律主体人格进行讨论之时,是与否的思维容易左右摇摆。当下,人工智能的发展方兴未艾,人工智能作为纯粹主体解释力不足,各种学说观点又差强人意,这使得人工智能在发展的过程中不免会产生许多疑虑。我国有学者曾经敏锐地预测到,人工智能的自主意识已经实现了巨大飞跃,并在社会生活中扮演着重要的角色,其摆脱人类的纯粹工具地位而获取主体身份将是一个必然的趋势,与之相关的法律关系主体制度设计也将面临重大变革[28]。但人工智能发展到今天,将其置于客体物格的地位仍是保障人民权利、维护社会安全的必要选择。因为从法律的价值上看,法律的重要价值是为现实人类的生存和发展服务,任何一个时代的法律规则都应以实现该法律的价值为终极目标。人工智能作为新时代科学技术的产物,其存在意义同样在于服务人类社会。若人的主体性在人工智能时代衰微,则现代文明难以存续[29]。在这一目标上,人工智能物的定位与现行法律制度是相辅相成的,也只有在现实基础上将人工智能作为客体嵌入现有的物的法律框架内,才是当今信息时代人工智能的发展方向。

注 释:

① 节选习近平总书记2018年5月28日在中国科学院第十九次院士大会、中国工程院第十四次院士大会上讲话。

② 《产品质量法》第41条,产品投入流通时引起损害的缺陷尚不存在或当时的科技水平尚不能发现缺陷存在,生产者不承担赔偿责任。

参考文献:

[1] 赵秉志,袁彬.人工智能的刑法主体价值问题研究[J].河北法学,2022,40(9):2-14.

[2] 彭诚信,陈吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019,33(2):52-62.

[3] 张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学,2017(6):56-66.

[4] 郭少飞.算法法人的理论证立及构成要素探析[J].东方法学,2021(5):93-109.

[5] 郑智航.平衡论视角下个人免受自动化决策的法律保护[J].政法论丛,2022(4):94-105.

[6] 刘练军.人工智能法律主体论的法理反思[J].现代法学,2021,43(4):73-88.

[7] 周详.智能机器人“权利主体论”之提倡[J].法学,2019(10):3-17.

[8] 许中缘.论智能机器人的工具性人格[J].法学评论,2018,36(5):153-164.

[9] 袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):50-57.

[10] 范进学.人工智能法律主体论:现在与未来[J].政法论丛,2022(3):3-17.

[11] 张绍欣.法律位格、法律主体与人工智能的法律地位[J].现代法学,2019,41(4):53-64.

[12] 杨立新.民法物格制度研究[M].北京:法律出版社,2008.

[13] 刘云生.近代人格理论建构与人工智能民法定位[J].人工智能法学研究,2018(1):71-79.

[14] 史尚宽.民法总论[M].北京:中国政法大学出版社,2000.

[15] 王利明.中国民法典草案建议稿及说明[M].北京:中国法制出版社,2004.

[16] 孟勤国.论中国民法典的现代化与中国化[J].东方法学,2020(4):159-169.

[17] 杨立新.我国民事权利客体立法的检讨与展望[J].法商研究,2015,32(4):23-28.

[18] 王春梅,冯源.技术性人格:人工智能主体资格的私法构设[J].华东政法大学学报,2021,24(5):69-80.

[19] 刘洪华.论人工智能的法律地位[J].政治与法律,2019(1):11-21.

[20] [德]康德.法的形而上学原理——权利的科学[M].沈叔平,译.北京:商务印书馆,1991.

[21] 杨立新.从民法通则到民法总则:中国当代民法的历史性跨越[J].中国社会科学,2018(2):72-97.

[22] 廖备水.论新一代人工智能与逻辑学的交叉研究[J].中国社会科学,2022(3):37-54.

[23] 刘艳红.人工智能的可解释性与AI的法律责任问题研究[J].法制与社会发展,2022,28(1):78-91.

[24] [德]卡尔·拉伦茨.法学方法论[M].陈爱娥,译.北京:商务印书馆,2020.

[25] 解正山.对机器人“法律人格论”的质疑——兼论机器人致害民事责任[J].暨南学报(哲学社会科学版),2020,42(8):84-97.

[26] 付其运.人工智能非主体性前提下侵权责任承担机制研究[J].法学杂志,2021,42(4):83-90.

[27] 江平,龙卫球.法人本质及其基本构造研究——为拟制说辩护[J].中国法学,1998(3):71-79.

[28] 马长山.智能互联网时代的法律变革[J].法学研究,2018,40(4):20-38.

[29] 陆幸福.人工智能时代的主体性之忧:法理学如何回应[J].比较法研究,2022(1):27-38.

作者简介:王玮(1996- ),男,山西怀仁人,华南理工大学硕士研究生,研究方向为民商法。

猜你喜欢

法律责任人工智能
我校新增“人工智能”本科专业
性骚扰的用人单位法律责任研究
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
下一幕,人工智能!
强化生产者环境保护的法律责任
依法治国须完善和落实法律责任追究机制
水资源保护中政府法律责任的完善