人工智能体法律地位探析
2023-09-18费艳颖谢雨含
费艳颖 谢雨含
[摘 要]人工智能发展浪潮提高了社會发展的智能化水平,促进人类社会进行新一轮技术变革。一方面,人们的日常生活充分享受了人工智能所带来的便利,另一方面,由于人工智能作为一项新兴技术,其在发展应用过程中也会引发一系列新兴的法律问题。人工智能体作为人工智能技术的现实转化,探析人工智能体的法律地位是解决现实问题的前提指向与核心抓手,可以通过以人工智能的现实转化为切入点,分析现阶段人工智能技术发展境况,对学界观点进行阐述与评析,分析人工智能体作为法律主体的理论必要与现实可能,提出具有指向性的针对人工智能体法律地位的具体规制路径。
[关键词]人工智能体;法律地位;责任归属;行为能力;法律风险
[中图分类号]D921 [文献标识码]A [文章编号]1672-2426(2023)08-0053-07
[收稿日期]2023-06-15
[基金项目]辽宁省社会科学规划基金重点项目“辽宁人工智能产业发展的法治保障研究”(L21AFX002),主持人 费艳颖。
[作者简介]费艳颖(1965— ),女,辽宁营口人,大连理工大学人文与社会科学学部教授、博士生导师,主要从事 人工智能法学研究。
谢雨含(2000— ),女,内蒙古赤峰人,大连理工大学人文与社会科学学部硕士研究生,主要从事人工 智能法学研究。
人工智能体,是人工智能的实在化、具体化,属于人工智能技术与外在物质形态结合的实体,是人工智能在现实生活中的具体应用表现。人工智能与人工智能体相互依存、不可割裂,前者是后者的关键核心技术,后者是前者的现实形态与应用实体。针对目前人工智能的发展现况,《人工智能标准化白皮书(2008年)》根据技术、产业和标准化的发展将其分为三个发展阶段:第一阶段利用知识驱动人工智能体,可称为计算智能阶段,在这一发展阶段,机器具备初步的逻辑推演能力,并未达到智能化水平;第二阶段是在数据驱动下的人工智能体,可称为感知智能阶段,要求人工智能体能说会听、能看会认,对一些基本指令进行简单操作;第三阶段是利用算法、算力与大数据技术共同驱动下的人工智能体,可称为认知智能阶段,即让计算机能够独立思考、进行深度学习,对人类的部分工作进行辅助或代替。目前,人工智能的发展处于感知智能阶段的初期,即当前人工智能处于“弱人工智能”发展阶段。
法律主体是法律关系中最为本质的基础性概念,是构成法律关系的原点。一般法理意义上的法律关系主体是指法律关系的参与者,即在法律关系中能够享有权利和履行义务的人。法律主体的概念有三个特性:首先,法律主体的概念具有时代发展性,法律主体的概念与标准并不是与生俱来、一成不变的,而是在不同的历史阶段被时代赋予了不同的内涵和意义;其次,法律主体的概念是伴随着人类认知水平和现实生活需要而不断丰富和发展的;最后,责任承担概念与法律主体概念紧密相连,法律关系主体的确立意味着其具有承担法律责任的义务,也就是说,法律关系主体是法律责任构成的前提与基础。
近年来对人工智能体法律关系主体地位的研究,即人工智能体究竟是法律上的“人”还是“物”抑或是介于两者之间的特殊存在,已经成为法学界激烈讨论的热点问题之一。面对纷繁复杂的人工智能法律难题,必须回归至其基本前提——是否具有法律人格。随着人工智能的发展,法律主体范围也相应发生变化,对于人工智能体的法律主体资格的探析也会进一步发展,尤其是在责任能力方面,可以说,人工智能体是否具有独立承担责任的能力是判定人工智能体是否具有法律主体地位的核心问题。
一、关于人工智能体法律地位的现有学说及其局限
针对人工智能体是否具有法律主体地位的辨析可以为人工智能发展所带来的法律问题提供解决路径,推动人工智能技术在法律的框架下行稳致远。对于人工智能体是否可以被赋予法律主体地位这一命题的讨论,学界主要形成了三种观点,即肯定说、否定说与折中说。学者们基于对人工智能发展的不同认识与思考维度形成了三种迥异的学术观点,三种学说瑕瑜互见,既是对人工智能体是否应被赋予法律主体地位的学术突破,亦存在着基于人工智能体发展认识上的不足。
(一)“肯定说”“否定说”和“折中说”之对比
1.肯定说。顾名思义,“肯定说”是主张赋予人工智能体法律地位的。伴随着社会的进步与发展,法律主体的外延范围不断进行扩展,支持“肯定说”的学者们认为人工智能由于其高智性,理应具有相应的法律关系主体地位,可以在法律上被视为独立的人格存在,并且伴随科技的飞速发展,赋予人工智能体以法律主体地位是无法阻挡的时代浪潮。
持“肯定说”的学者对人工智能体的发展持积极态度,认为人工智能体的发展注定会突破原有法律关系主体认定的框架。部分学者从历史发展的角度考虑,认为法律主体资格认定的标准随着时代的发展而发生变化,其内涵与外延都在不断丰富与完善,在人工智能发展的未来,可以通过法律拟制的方式对人工智能体法律关系主体地位加以认定。
2.否定说。“否定说”认为人工智能体不应该被赋予法律主体地位,支持该学说的学者认为,人工智能体归根结底是作为辅助人的工具而存在,不论其发展形式如何变化,也不论其智能化发展形态如何趋近于“人”,其根本属性自始至终都是辅助人的工具,是法律关系的客体,不具有人类作为法律关系主体所具有的行为能力和责任能力。吴汉东认为,人工智能的独立意志、学习的知识都是人类通过技术为其创设的,根本上其并不具备人之心性与灵性,无法与人类等同而论,不能赋予其法律地位。[1]人工智能技术的发展是为了给人类的生活提供便利,其本质为算法与概率,人工智能技术的发展与运用处于人类的设计与控制之下,因此无须赋予人工智能体以法律主体地位。
3.折中说。“折中说”巧妙地避开了“肯定说”与“否定说”的对立观点,对是否应该赋予人工智能体以法律主体地位既不肯定,也不否定。其中以“第三种物质说”为“折中说”的代表观点。该观点将人工智能体的性质界定为一种处于人与物之间的第三种特殊存在,同时将人工智能体是否具有自主意识作为判别标准,对不同类别的人工智能体进行区别看待,认为弱人工智能不具备法律主体地位的资格,而对于超人工智能,因为其发展程度超过人类所赋予的技术能力,且其具备了独立思考和行动的能力,具有成为法律关系主体的可能。
(二)“肯定说”“否定说”和“折中说”之局限
肯定说、否定说和折中说都存在着一定的局限。对于“肯定说”而言,目前人工智能处于感知智能的初期发展阶段,人工智能体不具有独立思考的能力,它们只是程序的被动执行者,是作为“辅助者”被应用于现实生活中,它们没有感情,无法应对突发的变化,与人类存在着根本上的差异。归根结底,当前人工智能体的存在依赖于人的操控。假若根据部分学者所持意见将其拟制为法律主体,从根本上回避了针对人工智能技术本质的拷问,当前人工智能体的行为都是取决于自然人的意思表示,没有自己的思想与行为,与人的关系依然是无法割裂的。又如部分学者所持的“电子人格说”,而电子人格作为一种新兴概念,其范围标准都不明确,对于其配套理论目前也并不完善,亦忽视了现阶段人工智能的实际发展情况。
“否定说”采用“一刀切”的方式对人工智能体的法律主体地位进行全盘否定,而忽略了人工智能体的自主学习能力和独立思考能力。就目前发展阶段而言,人工智能尚处于“弱人工智能”的发展阶段[2],但对于人工智能的发展前景,是现阶段无法估计和预料的。结合目前人工智能体表现出来的趋向于人的学习能力和智能水平[3],将其长期定位于法律关系的客体势必不足以满足社会发展的现实需求。
“折中说”对尖锐的“是”与“非”问题进行回避,但实际上对于法律主体地位的确定应予以明确,否则易引发更大的问题。分析“折中说”则可以发现,实际上“折中说”将人工智能整体进行割裂处理,它作为客体的同时又以主体身份存在,同时,提出“第三种物质”概念,并不符合当前法律体系的规定,不具有现实可操作性。此外,“折中说”虽然对人工智能体的法律地位进行了有條件的部分认可,但是它对于人工智能体的发展仍然处于一种回避的中立态度,通过对人工智能体的权责划分,最终回归到将人作为最终责任承担者,不具有时代发展的前瞻性。
“肯定说”对当前人工智能发展阶段认识不清,有部分盲目乐观之嫌;而“否定说”无法应对人工智能体向高智化发展的时代大势,因此结合两家之言,本文认为可以在人工智能体发展的高级阶段赋予其法律主体地位。在智能化技术高速发展的阶段,传统的法律主体理论势必无法满足发展中的人工智能体的权责归属与责任承担。此外,人工智能体的发展本质上是研究人类的智能,探索人脑、利用人脑,而人类是有着高级智慧,能够发掘自身潜能并加以利用的复杂个体集合,这也就意味着人工智能体发展的高级阶段要具备全面的认知和学习能力,形成对外界事物的全面认知,有着独立思考与自主行动的能力,实现与人类的深度对话,虽然其脱胎于人类,但不能以单纯的行为对象对其进行界定,而要将其视为独立的存在,赋予其法律上独立的人格,使其拥有独立的权利能力与责任能力,在法律的框架内得到规制与保护。
二、赋予人工智能体法律主体地位的理论必要与现实可能
人工智能的核心是利用智能技术模拟或实现人类的学习行为,从而为人类生活创造便利。伴随着人类社会进入智能化时代,人工智能技术的发展将促使人工智能体进行深度学习,更大范围地参与到社会生活当中,更深度地融入智能社会。从理论层面与现实角度梳理赋予人工智能体以法律地位的必要性与可能性,将人工智能体纳入法律关系主体范围进行考量,能为应对人工智能发展所面临的法律困境提供思考维度。
(一)赋予人工智能体法律主体地位的理论必要
第一,从法律主体范围扩张的规律来看,法律主体的认定标准随着时代发展而不断发展变化。法律主体的范围并非一定不易的[4],而是随着社会发展而不断进行拓展,逐渐涵盖了各类主体;自然人也并非天然即拥有法律关系主体地位,也并非每一个法律主体自其诞生以来都是平等的。随着经济发展,出现了法人、合伙企业等不具有法律实体但却同样具有法律人格的主体,因此,赋予法律关系主体地位已经从伦理本位逐渐发展为“满足社会的需要”的价值本位,目前对于法律主体人格的判定并不要求当然具有伦理性,这一具有价值趋向性的判别标准已经成为是否赋予法律主体地位的主要考量。而人工智能是以“人”为导向进行研发的,具备类人的学习和行动能力。社会的经济增长有赖于经济创新为其提供发展动力,因此想要人工智能获得长足的发展,势必要为其提供新的发展动能。
第二,赋予人工智能体法律主体地位的根本目的是化解人类所面临的由人工智能发展所带来的法律风险。法律的创设旨在为维护人类利益提供方法与途径,人不是手段,而是目的。在法律上赋予人工智能以主体人格,根本目的亦在于解决人工智能体带来的法律风险,法律制度的创设和更新都是将满足人类的需求和推动人类的发展作为其出发点和落脚点。而人工智能的发展也是一把双刃剑,在为人类生活带来便利的同时,也产生了相应的社会问题。因此,赋予人工智能体法律主体地位[5],使人工智能体在一定程度上可以对自己的行为承担相应的责任,对人工智能体生产者、使用者、所有者、受害者的责任进行明晰,亦可以有效推动人工智能的发展,也会对司法的发展产生促进作用。
第三,认定人工智能体法律主体地位能够为解决人工智能体带来的法律风险提供现实解决方案。目前,伴随着人工智能科技的革新发展,人工智能体不断涌现,在其广泛应用到社会生活的同时,也会引发一系列新的法律问题,例如,人工智能体所创造的作品是否具有著作权;无人驾驶汽车导致的侵权损害应如何归责;甚至于计算机程序之间因为无法兼容而导致的算法竞争。在这种境况之下,再将人工智能体视为法律关系“客体”看待,已不足以解决人类社会所面临的人工智能发展与应用所导致的问题,而通过赋予人工智能体以法律主体地位,破除“非人即物”的固有观念,可以为人工智能发展问题的解决提供切实有效的法律路径。
(二)赋予人工智能体法律主体地位的现实可能
人工智能体理论上具备赋予其法律主体地位的必要性,赋予人工智能体法律主体地位也具备现实实现的可能性。
第一,从人工智能技术自身发展而言,能否赋予其法律主体地位,本质上即要分析人工智能体是否符合法律关系主体的构成要素。首先,在民法基本法的理论框架下,法律关系主体必须具备权利能力与行为能力,成为法律关系主体的权利来源于独立的法律人格,即第一层面的权利能力。李永军认为,权利能力是法律技术性的表达且无伦理性,那么只要人工智能更具有智能性,并向人的行为靠拢,就可以被赋予权利能力。在未来的强人工智能阶段,人工智能体的发展更趋向于人的行动,并可以进行独立思考,具备高智性的特点,人工智能体有被赋予权利能力的现实可能。其次,人工智能体成为法律主体要求其具备相应的责任能力,即可以对自身行为承担责任,这是成为法律关系主体的必然要求。对于未来强人工智能阶段人工智能体的责任承担问题,可以通过设立人工智能储备基金或者对人工智能体架设强制性保险机制来解决。最后,人工智能体是否具有独立的意志,即人工智能体是否可以在不受人类干预的情况下独立、完整地作出自主判断,并进行相关活动。《人工智能标准化白皮书(2018版)》早在2018年就已经提出了人工智能独立思考的可能性,人工智能体的独立意志有赖于智能技术的发展与创新,就目前而言,人工智能体确实依赖于人类的编程与操作,但在强人工智能阶段,人工智能体的发展势必会突破现有的技术局限,因而对于人工智能体是否具有独立的意志,应以发展的眼光看待。
第二,从人工智能体的现实应用路径看。首先,在人工智能体主体身份方面,2017年沙特授予人工智能机器人“索菲亚”以公民身份[6],这是全球第一位拥有公民身份的机器人,对“索菲亚”的公民身份的承认并不单纯是对其身份的认可,更深层次而言,公民身份获得的前提是对其法律主体或者权利主体资格的肯定[7];美国国家公路安全交通局将Google无人驾驶汽车所采用的人工智能体认定为司机;日本基于个案赋予陪护机器人“帕罗”以户籍地位。其次,在知识产权归属方面,南非被认为是世界上第一个授予人工智能发明专利的国家——将一种基于分形几何的连锁食品和饮料容器的专利确定“达布斯”(统一感知的自主引导装置)为其发明者;百度发布的《百度人工智能专利白皮书2022》中显示,截至2022年4月,百度全球人工智能专利申请超过2.2万;北京联合出版有限公司将署名为人工智能体“小冰”的“人类史上首部人工智能灵思诗集”进行出版。此外,目前生成式人工智能ChatGPT的广泛应用,其生成物是否具有知识产权引发激烈讨论。最后,在人工智能体的责任分配方面,伴随着人工智能的深度学习能力的发展,例如达·芬奇手术机器人、无人驾驶汽车等可能会出现的侵权风险,也亟须赋予其法律主体地位,使其在法律上承担相应的责任成为现实可能。因此,赋予人工智能体以独立的法律主体地位亦是社会发展的现实需求。
三、人工智能体法律地位的系统规制
将人工智能体发展纳入法律治理的框架之下,通过系统规制对人工智能体的法律地位予以明确,规范人工智能发展,协调人工智能体与社会主体之间可能潜在的法律冲突,通过技术规范与伦理保障,推动人工智能与法治社会的协调发展。通过立法回应与制度关照,实现良法善治,推动人类社会与人工智能发展的同心同向同力同行。[8]
(一)探索人工智能体的立法架构
第一,要对人工智能体的法律地位进行明确界定。以人工智能技术迅猛发展的势头,在未来其势必会突破现有立法框架的窠臼。目前,我国虽然在宏观政策与行业规划上对人工智能发展予以肯定与支持,并逐步从人工智能技术的旁观者发展为引领人,但对于人工智能体的法律地位仍没有明确的法律规范进行界定。法律具有滞后性,但法律的制定要求立法者能够具备前瞻性。因此,我国需要补足人工智能体法律规范的短板,通过制定与完善相关法律法规,对不同发展阶段的人工智能体从法律层面予以界定并加以规制,以法律促进人工智能技术的良性发展,以人工智能技术的发展推动法律的完善与进步。
第二,要对人工智能体权利的标准与范围进行明确。人工智能体发展到高级阶段,具备深度学习能力与在独立意志支配下的自主行动能力,需要对它的权利边界进行明确的划定。人工智能体的发展初衷是更好地满足人类的需求,那么人工智能体法律上的权利义务关系亦应在人类所设的标准之下,其权利的行使也应该在严格的限制之中。面对发展着的人工智能技术,不能采用列举法对人工智能体的权利加以规制,而应对人工智能体的权利范围进行兜底式规制。在对人工智能体权利标准与范围的划分这一问题上,要结合现实社会的实际發展需求,既要赋予其相应的权利,也要对其权利行使的标准与范围进行严格限定,实现人工智能技术的长效发展。
(二)明确人工智能体侵权行为的责任归属
明确人工智能体侵权行为的责任归属,可以说是处理人工智能体侵权问题的痛点与难点。
第一,目前,我国法律尚未对人工智能体法律地位进行界定,加之由于无法明确人工智能体的责任归属,使人工智能体归责后续责任承担问题一直处于悬而未决的困境之中。将人工智能体视为法律关系主体,是人工智能体承担侵权责任的先决条件。《中华人民共和国民法典》明确规定,承担侵权责任要求主体必须适格。当前,人工智能体并非适格的侵权责任主体,针对《中华人民共和国民法典》中有关侵权责任编的具体规定无法进行适用。在人工智能技术高度发展的前提下,应赋予人工智能体以法律主体地位,使人工智能体成为适格的法律关系主体,使其具有参与法律关系的“入场券”,为其侵权责任承担提供路径[9]。通过赋予其法律主体地位也为其拥有独立财产权提供了基础条件,为其后续责任承担提供了可能。
第二,在理论上即便对人工智能体的法律地位予以认可,但在短期内其无法实现与人类比肩的责任能力,即它虽然具有完整的权利能力,但其责任能力的承担范围可能并不能与完全能够承担独立责任的法律主体相比,但作为法律关系的主体,参与到社会活动当中,相应地,其理应承担相应的法律责任。承认人工智能体独立的法律人格可能更有助于厘清法律关系,划分人工智能体具体的权利义务,将致害责任进行合理分担,更好地将人工智能发展纳入法制轨道中。例如,为人工智能体强制投保责任保险,将人工智能体可能存在的现实风险利用保险进行转移;又如设立人工智能体发展基金,为人工智能体独立承担责任提供现实基础。
(三)加强人工智能领域的技术保障
第一,要对人工智能设计程序加强技术规范。人工智能体根植于人工智能技术,至于强人工智能,纵使它可以进行独立思考并进行深度学习,在创设之初也都是采用人工智能设计程序对其进行编写方可使其不断发展,人工智能设计程序造就了人工智能体的“性格”,决定了它在后续深度学习中与人类社会的契合度,以及以何种姿态参与到社会生产生活中。例如,在与人类的相处之中,可以成立专家团加强对人工智能技术的管控,进行技术报备,设立统一的程序编写平台对其进行实时评估等。
第二,要对人工智能开发阶段的程序设计提高适用门槛。对开发阶段的编写代码进行实质审查,对安全性、保密性、合规性进行全过程监管,从开发源头避免人工智能体在实际应用中的可能性风险。例如,可以在开发程序设计内部设置风险预警机制,一旦发现有疑似违规行为,立即进行警示反应并溯源到具体行为人,以技促技,为人工智能的发展保驾护航。
(四)完善人工智能领域的法律监管与伦理规范
法律是调整社会关系的主要工具,但法律具有不可避免的滞后性,因为为了保证法律的权威性和公平性,需要经过严格且漫长的立法程序。在法律保障层面,一方面,要通过法律适用对人工智能发展进行正向引导与规制,如不能及时加以规制,易使人工智能发展不受约束,可能会存在人工智能体扰乱社会秩序、威胁社会安定的风险;另一方面,可以通过政府介入,对人工智能技术的发展进行引导与管控,同时建立专业机构进行实时综合监管,使设计、研发成员遵守伦理规则并积极承担社会责任,使相应的制度与机构配套协调发展。此外,人工智能法律监管的机制设立需要接入国际人工智能法律监管机制的轨道当中,为防范人工智能技术发展所带来的潜在法律问题,需要及时对人工智能法律监管机制进行提质升级,并借鉴国外的优秀经验。
此外,在注重法律保障的同时,也要兼顾伦理规范保障。《人工智能伦理治理标准化指南(2023版)》从全球战略角度加强伦理规范在人工智能发展领域的应用,以期建立人工智能伦理治理标准体系与具体标准研制规范。人工智能发展的伦理规范机制可以将人本位思想作为中心思想贯穿于人工智能的发展过程。赋予人工智能体法律主体地位的目的在于更好地保障人类的合法权益。人工智能技术的发展本质上是为了更好地为人类服务并在现实生活中为其提供便利,因此,在确立人工智能伦理规范时必须坚持人本位的中心思想。同时,确立人本位的中心思想是为了使人工智能研发、创造、发展的全过程都可以始终将满足人类的发展需求作为目标和方向,尊重人的尊严与价值。此外,人工智能伦理规范的确立需要遵循协调发展原则。人工智能技术的发展为现代生活的智能化发展提供了新契机,同时由于人工智能在一些体力型工作上大规模应用,取代了传统人力,使就业岗位减少,对工作岗位的要求越来越专业化、高素质化,因此,在推动人工智能发展的同时,也需要协调由于其发展所带来的不相适宜的问题。
四、结语
人工智能技术的进步推动了社会生活的智能化发展,为现代人类生活创设了更多便利,也给人类社会带来了一系列新的发展问题,同时在一定程度上对人类的生存发展提出了挑战[10]。就目前人工智能的發展现状,结合未来的发展前景,将人工智能体长期归类于法律关系的客体,不仅会阻碍人工智能技术的长远发展,同时对于解决人工智能体所引发的法律问题与潜在风险也毫无裨益。对于是否应肯定人工智能体法律主体地位,应该在秉持谨慎性的同时,在一定的发展背景下对法律主体范围进行扩张解释,为人工智能发展释放新动能。当然,我们不能放弃严谨性的原则,对人工智能体在一定条件下被赋予法律主体的后续制度安排,也要进一步统筹优化,为其具体适用提供完善的程序和制度保障。赋予人工智能体法律主体地位是时代发展的现实要求[11],也是推动人工智能技术发展的必然选择,我们要进一步加强相关制度的构建和法律保障,为人工智能发展所带来的问题提供法律路径,通过法律促进人工智能的长足发展。
参考文献:
[1]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),2017,35(5):128-136.
[2]汪庆华.人工智能的法律规制路径:一个框架性讨论[J].现代法学,2019(2):54-63.
[3]吕尚彬,黄荣.智能技术体“域定”传媒的三重境界:未来世界传播图景展望[J].现代传播(中国传媒大学学报),2018(11):37-45.
[4]刘云.论人工智能的法律人格制度需求与多层应对[J].东方法学,2021(1):61-73.
[5]彭诚信,陈吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019(2):52-62.
[6]程承坪.论人工智能的自主性[J].上海交通大学学报(哲学社会科学版),2022(1):43-51.
[7]范进学.人工智能法律主体论:现在与未来[J].政法论丛,2022(3):3-17.
[8]李海娟.人工智能主体化的法律应对——以未来强人工智能的出现为视角[J].对外经贸,2022(10):76-79.
[9]姚远,刘迎迎.人工智能法律主体性的考察和探究[J].青岛科技大学学报(社会科学版),2019(1):85-90.
[10]何欣蔚,夏建国.人工智能法律主体地位问题研究[J].大学教育,2020(10):143-146.
[11]程龙.人工智能体刑事诉讼被追诉人地位审思[J].学术交流,2020(7):79-93.
责任编辑 宋桂祝