人工智能主体地位之否定及其法理刍议
2024-06-20梅智超金晓红
梅智超 金晓红
※ 投稿时间:2023-10-29
作者简介:梅智超(1997-),男,安徽六安人,在读硕士研究生,主要从事民商法学的理论与实务研究。
通信作者:金晓红(1963-),女,江西奉新人,教授,主要从事民商事纠纷、知识产权法律保护的理论和实务研究。
摘 要:在主体—客体二分模式的基本框架下,法律制度的构建与运行皆是以“人”为中心。人工智能作为人造物,其本质属性在于工具性。虽然,在客观上人工智能拥有近乎甚至超越人脑存在的智能系统,但这并不能代表其已经具备“人”的独立意识和理性思维,没有为自己立法的现实可能性,无法取得类似于自然人的主体地位,而法人拟制主体的取得,看似为赋予人工智能以主体地位,提供了现实可行性。但人工智能与法人主体构成的实体性要素和价值性要素的不适配性,决定了其也无法取得类似于法人的拟制主体地位。究其实质,作为人类社会的手段工具,人工智能应当作为法律关系中的客体,予以对待。
关键词:人工智能;主体资格;独立责任;意志能力
中图分类号:D913 文献标志码:A 文章编号:2095-9699(2024)02-0069-06
引言
在1956年达特茅斯会议上,“人工智能”这一概念首次为世人所知晓,而它的出现是社会进程发展的必然。现阶段,学术界对于能否赋予人工智能以主体法律资格的立场和观点,主要分为两类:在主体说领域内,人工智能获得拟制主体法律资格的目的在于解决因人工智能所产生的致害责任承担及“作品”权益归属等问题;[1]基于“人可非人”到“非人可人”的影响,非自然人以外的“人”即可具备主体法律资格。[2]但在客体说领域内,基于主体—客体二分模式的架构,人工智能尚不具备独立的理性思维和意识能力,不宜成为法律关系的主体,同时也有别于具备独立意识并作为自然人集合体的法人,故不应赋予其主体法律资格;[3]人工智能的本质是受到自身特定算法系统的规制,不具备自然人所独有的意识能力;[4]在主体资格证成路径上,人工智能并不具备法人组织成立的事实基础,因此不具备赋予其主体资格的现实必要。[5]虽然主体说拓宽了现行主体—客体二分模式下法律主体的认定范围,具有一定的创新性。然而,由于主体资格证成路径的限定性,人工智能难以在社会现实活动中合理界定其主体地位。于此,本文以人工智能主体资格说的观点及其省察为切入点,在人工智能主体法律资格分析的基础上,对其客体地位的必要性和可行性进行探究。
一、人工智能“主体资格说”及其省察
现阶段,学术界支持人工智能主体法律资格的学者认为,随着人工智能技术的不断完善发展,在其深度融入人类社会生活的进程中,特定算法系统也会衍生出与碳基生命体相类似的“独立意识”。有鉴于此,在现行法律体系下,立法者应当赋予人工智能以主体资格,合理划定其权利与义务的界限范围。其中主要包括拟制人格说、有限人格说以及工具人格说:
(一)拟制人格说
该学说认为,人工智能应当具备主体法律资格,如同团体法人一样,具备法律拟制上的主体资格。其目的在于解决人工智能在法律关系中权利、义务与责任等方面的分配关系。为此,尤瓦尔·赫拉利则认为,既然团体法人作为非自然人组织,能够得到法律的认可,获得主体资格,那么人工智能理应得到法律上的确认,具备主体资格。[6]值得注意的是,拟制人格说在实践中已有相关的实际依据,即美国国家公路交通安全管理局在2016年就谷歌公司关于自动驾驶系统是否符合美国联邦机动车安全标准的回函中表示,该系统可视为“驾驶员”。[7]但是在拟制人格的学说体系构成中,拟制人格的获得系属于应然状态下的立法技术问题,并非实然状态下的法律适用问题。而权利与义务赋予的初衷在于实然状态下的适用,这就意味着行为主体在民事活动中取得了行使权利与履行义务的资格,并且该资格的取得又以行为主体具备独立的意识能力为前提。目前,人工智能尚处于发展的初期阶段,倘若过于草率地通过类比法人制度来赋予其获得法律拟制上的主体资格,是否能够真正切合人工智能的发展性?其权利与义务设定以后是否能够行使以及如何行使,才能实现实然状态下的具体适用?此外,也有心理学实验曾表明,人类很容易将具备拟人化属性的物体视为他们主观认知范畴下有生命的东西。[8]
(二)有限人格说
该学说认为,虽然人工智能具备主体资格,但与自然人、法人相比,却又存在着一定的限制。其目的在于合理划分弱人工智能与强人工智能间的主体资格界限:在弱人工智能阶段,人工智能尚不具备独立的意志能力,仍属于法律关系的客体。 当进入强人工智能阶段时,人工智能理应获得有限主体法律资格,[9]但人工智能主体资格的有限性又该如何明确界定。如前所述,主体资格的取得不仅是行为主体取得权利与承担义务的前提,而且还是行为主体在民事活动中责任承担的前提所在。故而,主体资格的受限必然会引起法律主体在行使权利、履行义务等方面的限定,但在该学说的体系构成中,并未明确表明人工智能有限人格的规范标准,即是参照无民事行为能力人的有限性标准还是参照限制民事行为能力人的有限性标准?此外,主体资格的受限亦必然会影响其在民事活动中的法律效力问题,那又该采取何种措施来有效规避因主体资格受限所产生的法律效力问题?最后,在责任承担方面,主体资格的受限也必然会影响到权利能力与行为能力的完整性。主体资格的完整性是行为主体对外独立承担侵权责任的前提要件之一,而人工智能主体资格的有限性就决定了人工智能无法像法人制度一样,独立对外承担责任。亦有学者曾指出,在责任承担方面人工智能可以参照法人人格否认制度,采取“刺破人工智能面纱”的归责原则。[10]
(三)工具人格说
该学说认为,主体资格由“人可非人”向“非人可人”的过渡转变,其意在表明,法律对主体资格赋予与转变是基于社会需求演变发展的现实需要。在该学说逻辑构成中,主张人工智能应当具备主体资格,但其主体资格的第一要义是工具性,而非主体性。[11]并且,有学者认为,对于人工智能是否具备“智”的判定,则应当是以人为参照标的,且无论如何界定,人工智能主体资格的认定均在工具性的范畴以内。[12]那是否可以认为在未来,即使进入了强人工智能阶段,人工智能的价值本质仍然是人类意识思维在客观物质世界的工具延伸。鉴于此,工具视角下的主体资格说并未对主体—客体二分模式下的主体制度造成实质性的损害。
二、人工智能主体资格的否定
在主体资格说领域内,诸多学者为证明赋予人工智能主体资格的必要性与可行性,分别从人工智能的发展现状、主体资格的演变历程以及域外具体实践等方面进行证成,为人工智能在具体实践层面提供了看似明确可行的方向指引,但却忽略了对人工智能主体资格是否具备现实可行性的证成。
(一)人工智能体尚不具备自然人的主体法律资格
人工智能作为经济社会发展的工具,其本身尚不具备类似自然人的理性思维和价值判断。现有学者曾认为:“可将人工智能体的法律资格区分两类:弱人工智能和强人工智能”,前者作为日常社会生活中人类的辅助性工具,其运行和操作大多是依赖于事先早已设定的程序规则,视为法律关系中的客体,而后者则是综合深度学习、自主行为、认知系统、演进算法等要素,有可能突破程序所编排运行的局限,[13]应当视为法律关系中的主体。但值得注意的是,无论是何种强度之下的人工智能体,其运行和操作系统都是基于逻辑演绎的规则,而非是基于独立自主的理性判断能力。申言之,人工智能的自主性并不等于自主意识的诞生。[14]虽然人工智能具备某些独立判断和自主学习的能力,但它不可能产生与人类那样具备不同属性的理性判断。
在司法领域内注重强调主体间的意思自治,而意思自治的前提是建立在双方主体处于相对平等的社会状态之下。倘若赋予人工智能以主体法律资格,那是否可以认为是在变相承认人工智能具备了仅自然人才具备的理性能力和情感意志。退一步说,此时赋予人工智能类似于法人的主体资格,成立法律拟制上的独立主体,那在将来当人工智能因其自身的发展通过其他方面弥补了与人类在思维意识境界内的差距甚至是超越了人类,智能机器人是否会与人类平等地共处于一个生态环境之中?当双方主体地位不具备平等性时,其意识自治也就不太可能实现了。譬如,作为灵长类动物的黑猩猩,无论是内在脑部生理构造,还是外在形体,均与人类都十分地相像,但它们具有法律上的人格权吗?具有与人类相同的主体资格吗?具备相应的权利和义务吗?……同理,当人工智能与人类的地位不对等的时候,人工智能究竟是将人类看作是主体,还是客体?是否还存在着意思自治?
(二)人工智能无法获得类比团体法人的拟制主体资格
法人制度确立的本质在于为了更好地实现其作为服务于“人”的目的或手段。与自然人不同的是,法人团体想要获得法律拟制的主体资格,需同时满足实体性要素、价值性要素以及法技术性要素[15]:
实体性要素,即具备独立意志能力与财产能力。在独立意志层面,团体本身所代表的意识不是内部某些组织、某些派系的个体意识,也不是这些意识的简单相加,而是整体意识和共同意识,这就意味着团体本身所代表的整体意识和共同意识类似于自然人本身的独立理性意志。并且,法人的实质目的在于趋利避害,是即合理规避商业风险,实现共同利益最大化。在法人财产能力层面,财产的独立性是法人对外从事活动的前提,也是其他行为主体与之进行交易的信任保障。作为一个团体组织,财产来源于其内部成员私有财产的汇聚或者是社会公共财产的捐赠。本质上,该笔财产既不属于某个成员的个别财产,也不属于成员内部的共有财产。基于平等性原则,此时的团体法人在法律层面上仅仅是一个“拟制的自然人”而非是一个团体,而该笔财产的所有权则属于拟制个体的独立财产。
价值性要素,即具备实现经济活动交易价值与主体责任有限承担的社会价值考量。法人制度的演变是基于商品经济在社会经济发展中合理诉求的真实写照。对人工智能而言,主体资格的取得,不仅意味着人工智能实现了权利与义务的独立性,而且因其财产上的独立性必然会促使其对外责任承担的独立性,这既有助于合理分摊各类主体在因人工智能产生致害结果时的责任承担范围,降低开发者、制造者、管理者以及所有者所面临的商业风险,推动实现人工智能技术在未来的高质量发展。但在主体责任有限承担的角度上,法人制度模式下主体责任有限性的本质在于分摊团体内部各成员间的商业风险,促进各类经济主体参与经济活动的积极性与主动性。就人工智能的责任承担而言,有学者主张,可参照适用法人制度模式下的人格否认制度,即适用“刺破人工智能面纱”的归责原则。殊不知,主体责任承担的有限性是法人归责体系下的一般性规定,而人格否认制度则是其在适用过程中的例外性规定。若将法人责任承担的例外性规定作为人工智能责任承担的一般性规定,难免会造成人工智能背后各类主体间责任分配比例不均的窘境。
法技术性要素,即具备“人”与“人格”相分离的特性。罗马法中的“人”与“人格”的分离为法人制度的确立提供了必要的理论支撑。“人”与“人格”的相互分离,使得社会团体具备主体资格,可以向自然人一样参与各种民事活动。自商品经济以来,法人制度得以确认,逐渐成为商事活动中权利、义务与责任的独立承担者,以此降低投资者所面临的商业风险。根据“人”与“人格”相分离的法技术构成可知,人工智能是完全有可能在民事活动中获得主体资格。
三、人工智能客体地位的合理性探究
市民社会中的实体形态主要包括两种类型:人和物。[16]凡独立于人身之外,为人类所能控制支配并满足社会发展实际的自然物及人造物均符合民法中物的构成。人工智能作为科技时代下的衍生物,将其作为法律关系中客体的存在,不仅体现了对现代民法体系下主体—客体二分模式的基本遵循,而且也能够有效解决人工智能发展规制与完善保护之间的对立冲突。
(一)人工智能客体地位的学理证成
1.人工智能客体地位归属的明确性
如前所述,人工智能作为在科技时代下的产物,符合民法中物的构成而应处于法律客体的范畴。然而经过半个多世纪的发展,由于其技术构成分布等级的不同,促使人工智能在社会各个领域内呈现出多元化的适用格局。在实践中,俄罗斯《格里申法案》设置了类似法人的“机器人一代理人”地位,并构建了登记制度使其获得权利能力,但是在责任承担上明确规定,因机器人一代理人的行为产生的责任由其所有权人或占有人承担(第127.4条第1款);[17]而这一举措无疑是对人工智能客体地位的间接承认,这也就意味着在现有主体—客体二分模式的法律体系下,关于物的分类规制手段俨然满足人工智能在今后的发展需求。并且,俄罗斯《格里申法案》也对人工智能提出了两类规制标准:类似于动物的财产与类似于法人的“机器人—代理人”,[18]再依据各自适用领域的不同,进行更为细致的分类。有鉴于此,在人工智能客体地位的分类标准上,可以人工智能技术水平高低为参照标的,借以区分一般性人工智能与特殊性人工智能:在实践中具备普遍适用性的人工智能可以适用法律规范中关于物的一般性规定:如在因普通智能产品缺陷而引起致害结果时,被侵权人可基于产品责任来追究相关责任主体的侵权责任;对于智能化水平较高、自主行为较强的人工智能应以功能用途与人类情感交互程度高低为参照标的区别对待:智能化程度高、情感交互程度低的人工智能仍可适用法律规范中关于物的一般性规定;智能化程度高、情感交互程度较高的人工智能应予适用法律规范中关于物的特殊性规定。
2.人工智能侵权责任承担的归责机制
基于人工智能多元适用的现实考量,人工智能侵权往往不仅涉及产品责任,而且还会涉及《中华人民共和国民法典》侵权责任编体系下其他具体侵权类型。对于前者而言,因人工智能存在缺陷而引起致害结果时,被侵权人可请求产品设计者、生产者以及销售者对其所造成的损害承担无过错责任。对于那些在实践中具备普遍适用性的人工智能而言,其操作执行程序大多是通过数以千计的数据堆砌或特定领域下模拟仿真训练获得的,这就决定了该类人工智能在具体适用范围上具备专门性、特定性以及机械性等特征,对于该种类型的人工智能可按照产品责任的归责机制追究相关责任人员的侵权责任。就后者而言,人工智能侵权并非一种全新的侵权类型,其原因在于在实践中人工智能适用范围的多元性就决定了人工智能侵权形式多样化。譬如:因无人驾驶汽车所引起的交通事故,除了需要考虑产品责任以外,还需考虑机动车交通事故责任背景下的归责原则,借以确定相关责任人以及承担责任的范围大小;因医疗智能机器人所引发的医疗事故,还需参照医疗事故侵权责任背景的归责原则细化各方主体间的过错责任。此外,如前文所述,智能化程度较高、与人类情感交互程度密切的人工智能应适用民法中关于物的特别性规定,这就要求因该类智能体所产生的侵权事由,还需采用一些特殊的制度规定予以必要的法律规制。
(二)人工智能客体地位的现实证成
1.客体定位有利于现有法律体系的良性运转
康德的名言“我头上的星空和我心中的道德律”道出了人的主体地位的界定:从人与自然规则的关系来看,确定了为自然立法的主张;从人与社会秩序的关系来看,确定了为人类立法的主张。[19]
就人工智能而言,其背后带有十分浓厚的人的意识的色彩,本身不具备自然人的理性意识。虽然,自主行为和深度学习是人工智能最核心的两个特征,但即便是装有特定法律知识编程系统的智能体,在实践中也是被动地接受相应的指令性命令,而不是自主选择的结果。在实践中我们所探求的是对人的行为进行必要的法律规制。以刑罚为例,其本质在于以社会劳动的方式给罪犯带来肉体上痛苦的同时借以唤醒其内心深处对主观恶性的救赎。如此,自然人往往都会趋利避害。人工智能作为社会发展所必备的手段工具,其自身的自主进化过程未必会按照人进化历程发展出类似于生物疼痛的神经网络,[20]也就不会产生相应的情感价值需要,更不会引起智能机器人生理和精神上的痛苦,而这就在一定程度上失去了刑罚的本质和机能所蕴含的社会意义。
2.客体地位有助于推动伦理道德的良性循环
人工智能系统作为人类认识世界和改造世界的手段工具,在未来无论是发展到哪个阶段,其定位仍然是物,以其作为法律关系客体的存在切合社会发展的实际需要。自启蒙运动以来,自我意识的觉醒,这就意味着人类在精神领域内关注的重点逐渐从神灵转向自我,而将人工智能置于法律关系客体的存在,在一定程度上凸显出对人这一主体的肯定,人类之外,皆为工具。人工智能的出现不仅仅意味着生产效率的提高,而且还有助于促进生产方式的人性化,帮助人类从繁重的社会劳动之中解脱出来,实现人性的解放。机器人作为人类感知器官在物质世界延伸的手段工具,人的社会目的决定了工具的手段方式,人类在改造世界的过程中最大的目标是实现人的全面发展。作为辅助性工具的人工智能,唯有在人的支配与控制之下,才能满足自然人价值的个性化需求和社会发展的多样化需求。基于现实因素的考量,将其置于客体地位,既可以保证人工智能在今后能够沿着既定的轨道继续发展,有效地避免一些潜在的社会风险,也是尊重人的主体性,践行“人是目的,而非手段”的哲学理念。
结语
法律体系的构建、运行及发展皆是以理性自然人为制度中心。主体—客体二分模式的形成与奠定,既是自然人本我意识觉醒的制度显化,也是民法体系得以形成和发展的关键所在。人工智能的自主行为性与深度学习性的构成特征,在客观上为赋予其以主体地位,提供了看似可行的学理必然性。但是,人工智能作为时代背景下的非自然造物,其价值本质在于工具性。法律的前瞻性应当是在可视且可控的范围内,促发展,防风险。无论是何种学说背景下的主体地位论,均不可避免地会涉及权利与义务的取得和分配、行权是否受到限制及又该受到何种程度的限制、与其他自然人主体的权利义务边界又该如何区分界定等制度设计。而现阶段,若是赋予人工智能以主体既是对客观既存事实状态的选择性漠视,也在法理逻辑构成上缺乏切实可行的理论支撑。法律是稳定的、保守的,任何超越现行社会关系的法律是毫无意义的。对于人工智能而言,今后应当以社会现实为立足点,探索自然人与人造物间的法理关系,对人工智能本身以及背后相应具体个人的行为进行必要的行为规制。社会发展的目的是以人类为中心,人工智能的客体地位,不仅可以有效保障人工智能沿着良性方向继续发展,也能够更好地实现人类所期盼的社会进步。
参考文献:
[1]吴高臣.人工智能法律主体资格研究[J].自然辩证法通讯,2020(06):20-26.
[2]张志坚.论人工智能的电子法人地位[J].现代法学,2019(05):75-88.
[3]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017(05):128-136.
[4]王利明.人工智能时代对民法学的新挑战[J].东方法学,2018(03):4-9.
[5]张力,陈鹏.机器人“人格”理论批判与人工智能物的法律规制[J].学术界.2018(12):53-75.
[6]尤瓦尔·赫拉利.未来简史:从智人到神人[M].北京:中信出版社.2017.
[7]彭诚信,陈吉栋.论人工智能法律人格的考量要素[J].当代法学,2019(02):52-62.
[8]温德尔·瓦拉赫,科林·艾伦.道德机器:如何让机器人明辨是非[M].王小红,等,译.北京;北京大学出版社,2017.
[9]孙占利.智能机器人法律人格问题论析[J].东方法学,2018(03):10-17.
[10]彭诚信.人工智能的法律主体地位[J].人民法治,2018(18):98-100.
[11]许中缘.论智能机器人的工具性人格[J].法学评论,2018(05):153-164.
[12]郑戈.人工智能与法律的未来[J].探索与争鸣,2017(10):78-84.
[13]韩旭至.人工智能法律主体批判[J].安徽大学学报(哲学社会科学版)2019(04):75-85.
[14]杨易川,李娜.主客体二分视角下人工智能法律主体地位之否定[J].重庆理工大学学报(社会科学),2019(11):118-128.
[15]刘洪华.人工智能法律主体资格的否定及其法理规制构想[J].北方法学,2019(04):56-66.
[16]刘洪华.论人工智能的法律地位[J].政治与法律,2019(01):11-21.
[17]康德.实践理性批判[M].邓晓芒,译,北京:人民出版社,2016.
[18]皮勇.人工智能刑事法治的基本问题[J].比较法研究,2018(05):149-166.
责任编辑:周瑜
Denial of the Subject Status for the AI Product and the Legal Theory Behind It
MEI Zhichao1, JIN Xiaohong2
(1.Jingdezhen Ceramic University, Jingdezhen 333403, Jiangxi, China;
2.Jingdezhen University, Jingdezhen 333400, Jiangxi, China)
Abstract: Under the framework of the subject-object dichotomy model, the construction and operation of legal system are people-centered. The essential attribute of AI products, being artifacts after all, lies in their instrumentality. Although objectively AI product has intelligent system that is close to or even more sophisticated than human brain, this does not mean that it has the independent-to-be awareness and rational thinking ability that is unique to humans. So there is no realistic conditions for them to legislate for themselves, and it is impossible for them to achieve the subject status similar to that of the natural human being. The current achievements in subject status pursuing for the AI product seems to provide practical feasibility for giving the AI product such position. However, the incompatibility between the AI and the legal person in the substantive and value elements determines that the AI product cannot obtain the subject position of legislator like the legal person, because as a tool of human society in essence, AI product should be treated as the object when dealing with legal relations.
Keywords: artificial intelligence; subject qualification; independent responsibility; will power