APP下载

人工智能法律主体资格研究

2021-03-04王蕊王晓星

关键词:主体资格法律地位人工智能

王蕊 王晓星

[摘 要]人工智能究竟是否能够具备法律主体资格,是人工智能时代法学界的重要命題。因人工智能在不同发展阶段的科技含量有所不同,其法律主体资格自然不可一概而论。文章对不同类型的人工智能分别进行讨论,提出不应赋予弱人工智能以法律主体资格,其依然是物,而强人工智能有成为法律主体的可能性,权利设置也具有法律上的有限性。同时对强人工智能的法律地位问题提出保护措施与制度规范,为我国大力发展人工智能的强国战略扫清法律难题。

[关键词]人工智能;主体资格;法律地位;权利能力

[中图分类号]D923    [文献标志码]A   [文章编号]2095-0292(2021)06-0082-06

[收稿日期]2021-09-12

[基金项目]河南省法学会法理法史学研究会一般项目“紧急状态下个人隐私权的限制与保障”(20HNFLFSS011)

[作者简介]王蕊,郑州大学法学院(知识产权学院)硕士研究生,研究方向:法学理论;王晓星,河南警察学院讲师,研究方向:民商法。

一、人工智能可否具备法律主体资格

(一)问题的提出

1956年,人工智能一词第一次被公开提出。AlphaGo在与围棋大师李世石的围棋对战中表现得更胜一筹、历史上第一位公民机器人索菲亚的诞生、俄罗斯总统普京于2019年10月宣布人工智能领域的国家战略等等,无不体现了人工智能对当代生活的影响之重大,人工智能在法律、金融、工业、服务、医疗等多个领域的高度关注之下,正渐渐地对个人、社会和法律产生深刻的影响[1](P152-152)。

自然人若要有效地管制人工智能,除了科技,最重要的就是法律。然而,法律为了保持社会秩序的稳定,并不会轻易改变,人工智能发展快速而产生的一系列不在现有法律调整范围内的问题亟待解决,具备学习能力和独立决策能力的人工智能或将出现,向传统民法的“人—物”二分法发起了巨大挑战。

研究法律是否应当赋予人工智能主体资格,符合我国全力发展人工智能的国情。国务院在2017年提出,应当明确界定人工智能主体问题,明确人工智能相关权利、义务和责任。

《国务院关于印发新一代人工智能发展规划的通知》(国发〔2017〕35号)提出相关问题的探讨应当为新兴事物的发展预留适当制度空间。在不远的未来,交通、医疗、服务等方面的人工智能例如自动驾驶汽车[2](P168-173),极有可能替代自然人担任许多职位,成为未来社会的“最强大脑”。在这种情况下,最迫在眉睫的法律问题就是怎样面对人工智能相关的法律问题,由人工智能创作的作品知识产权如何认定?由人工智能造成的损害后果侵权责任何以划分?如何将人工智能的发展与社会主义法治建设有机融合?问题的解决离不开人工智能机器人之主体资格这一基石性焦点的研究。人工智能可否被赋予主体资格、能否成为法律主体,是否应当继续作为客体存在,将成为人工智能时代法学界亟待解决的关键问题。

(二)国内外研究现状

对人工智能法律主体资格问题的探讨不绝于耳,各学者观点摩擦碰撞,各有所长。通过查阅大量相关文献资料,归纳国内学界、司法界、立法界的论争大致如下:

首先,国内外大多数学者的主流意见是,人工智能不具备拥有法律主体资格的条件。反对论者理由有三,第一是当前人工智能相关法律困扰足以在现有法律体系下进行解决,把人工智能认定归纳入法律客体范畴足矣;第二是人工智能并不具备生物学上“人”的特性,纳入法律主体范围有违伦理[3](P24-31);第三是人工智能法律问题可以寻求“可替代方案”,而不是重塑现有的法律框架。笔者以为,部分学者并没有用比较分析的眼光去对待人工智能发展问题。人工智能自主性特征的具备与否决定着其法律主体资格的赋予,不能简单地将人工智能机器人归入法律客体范畴,因其在本体特点上与其余受动客体拥有实质性区别[4](P109-121)。同时,人工智能的发展突飞猛进,而法律的制定必须具有前瞻性,这就决定了关于人工智能的法律是一部未来法。现阶段人工智能的局限性或许在不远的将来就会被突破,所以现阶段人工智能的局限性并不能成为承认人工智能主体资格的障碍。

其次,不同于反对论者对人工智能保守的看法和观点,肯定论者和折衷论者认为,人工智能机器人已然具备或未来即将具备与自然人类似思维与行为的可能性[5](P100-110)。但是,学者们在人工智能被赋予法律主体资格的路径、论证等因素上具有千差万别的观点,目前主要包括拟制主体说、电子主体资格说、有限主体资格说等等。这些学说无不提供了先进性研究,但其所提出的“有限主体资格”、“拟制主体”、“行为效力限度”所指何种限度、何种范围缺乏深刻剖析,须予以进一步圆满。

人工智能在不同的发展阶段对现有法律造成的冲击自然不同。以笔者之见,理应对不同发展阶段的人工智能主体资格分开讨论,基于此的研究和探讨,其结论才更加科学、系统、可行。本文首先对人工智能机器人本身进行解读,依照国内外学界的普遍观点,对人工智能进行分类,将其划分为弱人工智能与强人工智能[6](P135-143),接着以其不同类型为切入点,提出弱人工智能仅仅能作为法律关系的客体,而强人工智能可以有限地赋予其法律主体资格,并对强人工智能法律主体资格的保护提出理论与实践上的路径建议,如重视人工智能立法,设立立案登记制等等。为人工智能在我国更好地发展而助力,为我国法律体系更加完善更加系统而助力。

二、弱人工智能:不具备法律主体的条件

(一)弱人工智能的界定及特征

由弱人工智能的定义弱人工智能,是指不能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。可知,其最大的特点是不具备自主意识。弱人工智能的使用者设置的程序和发出的指令是其所有行为动机来源。从某种意义上来讲,弱人工智能在生活中随处可见,例如被欧盟《人工智能白皮书》表示3至5年内禁用的人脸识别技术;自2017年12月深圳市首次上路行驶无人驾驶公交车以来发展得如火如荼的无人驾驶技术;棋类运动中大放异彩的“深蓝”系统;“阿尔法围棋”、“智能家电”等软件;苹果手机内置的智能助手Siri、甚至是能够根据使用者不同位置自动调节明暗度的照明设备以及智慧法院中的“AI”法律助手等都是弱人工智能。需要指出的是,弱人工智能具有以下明显的特征:

第一,依赖指令。弱人工智能没有独立的思想,也不跟自然人一样有很强的行动能力。弱人工智能活动的实施并不是出于类似自然人自主的意志,而是有赖于自然人设计者、训练者、操作者下达的具体指令[7]。指令依赖所带来的主要后果是,弱人工智能不能随着外部环境的变化而改变由自然人设定的原定方案,换言之,弱人工智能是承载着自然人思想的“行动机器”。

第二,显著的人机区分。弱人工智能因为依赖指令,并不能独自应对复杂又多变的外部环境,正因如此,很容易将弱人工智同自然人进行区分辨别。行为上,弱人工智能无法随机应变,不能做出未被写入行为系统的行为;思想上,弱人工智能没有“自主意识”,无法进行等同于自然人的思考过程,进而无法感知物质世界与精神世界;理性意义上,弱人工智能不具备意思能力和认知能力,这导致弱人工智能无法能动有效地感知世界,即使表面上做出符合道德规范的行为,也是出于设计者、训练者或使用者的干涉,其显然不可能为自身设立遵循道德标准的行为准则。

第三,缺乏智力学习能力和自主创新能力。弱人工智能或许可能具备一定的学习能力,但是这种学习往往是自然人共同参与的结果。关于人工智能创作行为的本质,可分为以下三种情形:其一,人工智能的创作过程受自然人主导,自然人在此创作过程中扮演着作者的角色,所生成的作品作者也理应是自然人;其二,人工智能的创作基于自然人所提供的基础数据,此种情形下的作品是计算机程序经过数据分析和算法完成所生成的运行结果,从理论层面分析其作者为自然人[8]。

通过对以上特征的分析,可以看出:弱人工智能不具备独立的思维运转能力,其本质是自然人思想或行为在特定载体上的投射。弱人工智能不仅无法替代自然人,同时需要依赖自然人的指令,其本质上属于自然人用以提高自身能力创造社会价值的工具。

(二)弱人工智能法律主体资格的否定

所谓法律主体,是指在一段法律关系中,既享有权利又承担义务的一方。享有权利的同时承担义务的资格,也就是法律人格。康德主张,有理性的存在称之为人,无理性而仅仅具有相对价值的存在称之为物[9]。人与物的划分标准之理性应作何理解?可将其理解为道德能力、自主认知能力和意思表达能力的统一[10](P63-72)。一旦弱人工智能引发侵权问题,若由该弱人工智能承担法律层面的全部责任,从而让人工智能的发明创造者、训练者、使用者免于承担责任,笔者无法赞同。笔者认为弱人工智能仍然只是自然人工具的延伸,并不具备法律人格,不应承认其法律主体资格,具体理由体现在以下方面:

1.弱人工智能不具有主观能动性

当弱人工智能顺利结束一整套动作,它只是在执行某种提前植入芯片的毫无意识的动作,而不是通过主观意愿而做出本身想要做出的行为。向多台具备同一功能的弱人工智能输入同一命令,得出的结果集合将如出一辙,这是因为弱人工智能的运行过程仅仅是一种无意识的、刻板的、机械的运算行为,其并不拥有自然人对客观世界的主观能动性。例如,苹果手机自带的系统语音助手只会根据程序的设定回答指定问题,同一主观性问题由不同的人问出,得到的回答总是由设计者写入的为数不多的固定回答。这就是弱人工智能机械性的直接体现。

2.弱人工智能不具有自然人的情感

弱人工智能由于其不具备主观能动性无法理解任务背后的真正含义,自然人所具备的同理心、对公平正义的追求、对伤害行为的谅解等人类情感均无法在弱人工智能身上得到体现。这导致弱人工智能不能进行非财产性赔偿,例如侵权责任中的赔礼道歉等,再如上海法院推出的三项诉讼智能应用,提供扫码立案、网上调解、诉讼咨询等多项智能服务为一体的诉讼服务体系,该系统基于程序运行所导出的分析和决策支持,虽极大提高了司法效率,但其决策过程并不具有人类的公平正义、同情、谅解等情感,运算系统不会理解其意义,这仅仅是算法产生的机械性结果。

综上所述,弱人工智能由于不具备主观能动性和自然人的情感而无法处于法律客体之外,其并不具有享有权利和承担义务的能力,在现行法律体系框架下,无需考虑对法律主体资格的赋予。

三、强人工智能:有限地赋予法律主体资格

(一)强人工智能的界定

根據强人工智能的定义强人工智能,是指智能机器人能够运用与自然人基本相同的智慧来执行任务。,其与弱人工智能的不同之处在于,强人工智能拥有自身思考能力,可以进行推理进而制作行为计划,最后执行,在某种意义上强人工智能已经不属于自然人的工具。即使当下的人工智能技术尚未达到强人工智能阶段[11],从法理学角度进行剖析,未来发展出的具有主观能动性且能够做出独立意思表示的强人工智能有条件成为法律主体,一旦满足相应条件,则应在一定限度内赋予其法律主体资格。

认知能力是界定强人工智能的重要条件。认知能力作为理性的基石性因素,具备认知能力的存在才有资格成为法律主体[12](P10-17)。一旦人工智能拥有了认知能力,便可以如同自然人一般地感知、联想、记忆、思考,然而仅仅具备认知能力,对人工智能来说拥有法律主体资格还为时尚早。

不仅如此,意思表示的做出是界定强人工智能的另一核心要素。主张“欠缺论”的学者认为,否认人工智能法律主体资格的重要原因之一是,人工智能身为由人类发明创造的智能计算机,不具备自主意识、欠缺自由心智、欠缺灵魂、无法享受权利且无承担责任的能力,换言之,人工智能欠缺与人类相同的意思表示[13]。可见,意思表示能力是赋予人工智能法律主体资格的重要因子,一旦具备了意思表示能力,其同时也蕴涵了分析、思考、决策、行动等多个能力要素。

同时具备认知能力和意思表达能力的人工智能,其自主分析做出决策的能力往往会超出设计者或使用者的预期,从主观能动性的角度来看,强人工智能或已达到成为法律主体的程度。值得注意的是,随着拥有深度学习功能的“阿尔法狗”战胜人类围棋冠军李世石、具备创作功能的人工智能生成了独具风格、富有商业价值的“作品”等人类认为其不可能完成之事的发生,人工智能的发展逐渐超乎人类的想象。在科技强国的发展面前,仅就法规技术而言,不能单以伦理、道德或者哲学等观点对强人工智能的界定加以限制,而理应注重到人工智能与设计者、训练者和使用者等自然人所做出的意思表示和蕴涵范围有其务实性的一面,这要取决于人工智能在具体应用中各个领域的实际运作情况[14](P240-253)。

(二)赋予强人工智能法律主体资格的必要性

日本有部分学者的观点是承认除自然人之外的法律主体的存在,日本民法学家星野英一在分析法律主体的意义时指出,即使是面对人以外的存在,有关于适合作为法律上权利义务之主体的概念,也应当得到承认[15]。在人工智能迅速发展的当今时代,一些新出现的事物难免会与现行法律产生冲突,所以,法学研究者应当把目光放长远,考虑到人工智能在今后的发展状况。只有这样,才能为人工智能的良好健康发展打好法律基础。承认强人工智能法律地位的必要性可从以下角度展开。

1.人工智能发展的需要

国务院已提出,人工智能技术将引领未来,要加强出台一系列政策和规划,努力在当今国际科技的激烈竞争中占得主导权《国务院关于印发新一代人工智能发展规划的通知》(国发〔2017〕35号)。。伴随着科学技术的迅速崛起和广泛应用,人工智能在社会生活中起着越来越重要的作用,人工智能本身的发展日新月异。尽管已经经过了半个多世纪的发展,人工智能依然需要跟进社会发展得步伐。如上文所述,在不远的未来,一旦迎来强人工智能时代,人工智能会在许多领域创造出超乎想象的社会效益,如交通、美容、医疗等领域[16]。因此,有限地赋予强人工智能的法律主体资格,是在为未来人工智能的进一步发展和科技强国的稳步崛起奠定坚实的法律基础。

2.社会发展进步的要求

人工智能的快速发展可以对诸如计算机、物联网、互联网等行业起到推波助澜的作用。二者相互促进,相得益彰[17]。以科技带动社会的发展,以法律促进科技的进步。例如将人工智能和互联网相结合的智慧法院,虽然目前智慧法院对人工智能的运用仍处于初级阶段,但不排除强人工智能时代由机器人充当律师甚至法官角色的可能性。因此,为了更好地促进社会生产力的增长,更好地适应经济社会的发展趋势,更好地促进我国智慧司法体系的更新和完善,应当在一定限度内适当肯定强人工智能的法律主体资格。在如今人工智能相关的法律法规调整跟不上其发展速度的大背景下,赋予强人工智能以法律主体资格是大力发展人工智能强国战略的重要意涵。

3.自然人权益保护的重要举措

一旦步入强人工智能时代,自然人与人工智能之间就不再是法律主体与法律客体的关系了。自然人为了自身的进步,一方面不断地对人工智能进行更迭换代,另一方面也在逐渐地改变着自己的生活方式。无论是搬运工、快递员等体力工作者还是法官、会计等脑力工作者,都将面临被人工智能取代其职位的威胁。与此同时,强人工智能的出现可以代替自然人完成一些我们很难做到的高难度工作。可见,人工智能发展并崛起的速度是足够快的,远远超过了自然人自身的进化速度,这令人不得不担心,是否在不远的将来,人工智能悄无声息地改变了我们的思维模式和生活方式。一旦事实如此,人工智能的肆意生长就可能为我们造成无法预料的威胁。因此,在人工智能尚且处在弱人工智能阶段的今天,出于法律的滞后性考虑,在适当限度内承认强人工智能的法律地位不仅可以规制人工智能技术的健康有序发展,同时有效地降低人工智能时代对自然人生存带来的风险。

(三)赋予强人工智能法律主体资格的有限性

强人工智能作为特殊法律主体,具备理性认识以及意思表示能力,在未来发展满足相应条件的前提下,应当有限承认其法律主体地位[18](P20-31),这种有限性主要体现在其所享有的权利有限。

出于强人工智能特殊性考虑,即使在满足相应条件对其法律主体资格予以承认时,也应着重限制其部分权利,譬如选举权和被选举权等政治权利,以避免人工智能对自然人社会造成更大威胁。换言之,即使是拥有法律主体资格的强人工智能,在成为宪法主体时也应面临更严谨的法律限制。与此同时,出于生物伦理安全的考虑,人工智能在婚姻家庭方面也将面临着法律限制。

由此看来,即便符合了赋予其法律主体资格的条件,强人工智能的法律主体地位也是十分受限的。作为私法主体,其受到伦理、道德、生物学方面的限制,作为公法主体,强人工智能很难同自然人一样参与到方方面面的社会生活中。

四、人工智能法律主體资格的规范路径

法学是一门实践的科学[19](P89-99),法律主体资格的赋予与否不能仅局限于理论研究,也应当重视在实务中的可操作性。智能时代的到来极大改变了自然人的生活模式和思维方式,但人们对人工智能的未来发展很难进行准确的预测,这不仅会引发一系列诸如知识产权、侵权责任等法律纠纷,也会衍生出相关的道德问题。综合上文所述,在人工智能不同的发展阶段中,其所具备的科技性、能动性、主观性有所不同,因此当人工智能处于不同发展阶段其法律主体资格也不可一概而论,对于弱人工智能不应赋予法律上的主体资格,而对于强人工智能有必要赋予其有限的法律主体资格。即便人工智能当前仍处于弱人工智能阶段,但为了有效解决时代快速发展、科技飞速进步可能会产生的法律问题,对有必要具备法律主体资格的强人工智能采取保护及规范措施,是当前大力发展人工智能、推进科技强国建设和法治国家建设的重要意涵。

(一)重视人工智能相关立法研究

近几年来,我国对工业机器人的消费在国际上一直名列前茅,然而,人工智能使用率的增加并没有伴随着相关法律法规的规范与保护,我国迄今为止尚未制定较为完整的人工智能法律规范。在国务院提出的发展规划中2017年7月8日,国务院发布《新一代人工智能发展规划》,将人工智能发展定位为我国战略产业,分为三步发展,第一步就是要加快人工智能核心技术的研发应用,然后再逐步建立人工智能法律法规与相应监管以最大限度降低风险。,我国已经提出以分步走的方式建立健全人工智能相关法律规范的战略目标,但并未提出具体的可行性建议。在人工智能越来越普遍且功能越来越强大的今天,如何解决人工智能带来的法学难题,如何构建人工智能体系化法律规范,成为法学界迫在眉睫的研究焦点。

《数据安全法》和《个人信息保护法》先后通过,人工智能相关立法也已提上日程。在发展迅速的智能时代,应当加快建立健全人工智能相关法律制度,对不同发展阶段的人工智能分别进行法律上的明确规定,在法律层面明确承认人工智能的主体地位,从而为人工智能技术的发展提供法律保障,为学界对其的研究与探讨提供话语基础。

(二)赋予权利与限制权利齐头并进

综合上文所述,强人工智能相对而言具有较强的自主性和能动性,其法律主体资格在一定程度上应当被承认。在合理范围内,其理应享有相应的法律权利,面对我国现行法律体系对人工智能相关规定的缺乏,强人工智能的法律权利明确、权利限度设置等法学难题亟待解决。强人工智能权利的赋予应当遵循拟人性、必要性原则。

强人工智能在合理范围内被赋予的法律权利应当具有拟人性。其最大特征是享有被尊重对待的权利,因强人工智能与一般法学意义上的“物”有所不同,除了自我深度学习能力、自主意识、能动性之外,强人工智能具备辨认和控制能力,熟悉人类社会的伦理、规则,故其不应被视作奴隶、犯罪工具等不具尊严的存在。

强人工智能法律权利的赋予应当遵循必要性原则。当且仅当人工智能相关法律关系亟待其相关权利的设定时,其法律权利方可被赋予,除此之外,强人工智能的法律权利应当被严格设置限度。无论是当前学界讨论的“肯定式例举”还是“否定式例举”,对强人工智能法律权利的周延性都难以作出严谨具体的规定,基于此,笔者认为部分学者提出的“法律保留”的限定方式具有较强可行性。譬如可通过法律保留的做法对人工智能的政治权利加以限制,如选举权和被选举权等,通过法律保留将其自由权限制在对自然人有利的界限以内。从人工智能设计研发的初衷以及霍金对人工智能与人类未来的预言角度来看,对强人工智能法律权利的限制一定程度上避免了人类所忧虑的人工智能危机。

可见,赋予权利与限制权利齐头并进,是研究人工智能法律权利问题的关键。我们在承认强人工智能法律主体资格的同时,也要意识到对其法律权利加以限制的必要性。这不仅有利于完善人工智能相关法的制度设计,同时为人工智能的长远发展构建了稳固基石。

(三)实施强人工智能备案制

法律基于稳定性的需要不可随意改动,智能时代,其稳定性难免导致法律跟不上时代发展的步伐,这种滞后性导致现行法律体系无法同人工智能等新兴事物相契合。在发展迅速的人工智能时代,出于法律的滞后性考虑,学界需要以预判的目光审视当下、展望未来。为适应我国大力发展人工智能的需要,推进人工智能技术健康茁壮发展,夯实制度基础是明确人工智能法律主体地位的题中应有之义。

在探索与人工智能相关法律问题的制度构建道路中,人工智能备案制无疑是最熠熠生輝的指路牌之一。承认强人工智能的法律主体资格,自然伴随着相关法律法规的建立健全和具体制度的构建与实施,实行人工智能备案制度,需要法律法规及相关部门设立标准,以不同的身份识别标识对符合条件的强人工智能逐一登记备案,便于以数据或编码的不同对其进行识别。对强人工智能实施登记备案,不仅有利于明确人工智能相关法律问题中各方权利义务,保障法律责任的清晰划分,同时为人工智能法律主体地位的赋予提供了制度保障。

足以见得,法学学者要正视法律的滞后性特点,用稍具超前的学科眼光审视人工智能的法律主体资格问题,在此基础上充分认识到赋予人工智能法律地位的必要性和可行性,为人工智能的发展道路扫清法律障碍。

(四)保护制造强人工智能的核心技术

现实中,部分人工智能会做出诸多对自然人不利的行为举动,例如削面机器人突然攻击自然人,扫地机器人向主人发出语音恐吓,智能驾驶汽车脱离控制引发交通事故等行为。而这些对自然人不利的情况,不排除由于其研发者动机不纯,故意为人工智能设计出不利举动的可能性。未来人工智能会如何发展,很大程度上决定于人工智能研发者和设计者的想法。假设一位致力于违法犯罪的犯罪分子掌握了强人工智能技术,后果简直不堪设想。那些存在于科幻片中的画面或许某天会在现实中上演。当然,这不代表着自然人要抑制人工智能的发展,而是要在推进人工智能发展的同时,牢牢保护好核心技术。我们可以设立强人工智能核心技术专门保护机关;对剽窃强人工智能核心技术的行为予以严厉打击;提高人工智能研发者的法律意识和道德感等等。与此同时,提高研发者的法律意识和责任感,对于未来人工智能的建设十分重要。只有如此,我们才能保障人工智能时代的和平与美好。

五、结语

人们在享受人工智能所带来的便利与美好的同时,也要预料到人工智能的快速发展可能会带来的法律风暴,防患于未然,合理防范各种风险的发生[20](P14-19)。讨论人工智能的主体资格赋予问题,不仅有助于为人工智能技术的发展道路扫除法律障碍,同时为推进我国法律体系的逐步完善和更新提供助力。多学科多角度的研讨分析,一定程度上将促进我国引领世界人工智能新潮流的发展进程。面对不同发展阶段的人工智能,我们需要制定和完善人工智能相关的法律法规,对不同类型的人工智能予以明确的区别,并在法律上赋予二者不同的法律主体资格。一方面继续把弱人工智能当作法律上的物,即法律客体,另一方面承认强人工智能有限的法律主体地位,同时承认其法律主体资格的有限性,使其作为法律主体参与到法律关系中,充分发挥强人工智能不同于自然人的优势,利用科技的进步带动自然人社会的发展,同时促进我国法律体系不断地更新和完善。与此同时,强人工智能的法律认定标准及其在道德、伦理和哲学层面的剖析,亟待学界开展更深层次的法学研究。

[参 考 文 献]

[1]纪明政.人工智能与智能机器人探析[J].中国科技纵横,2013(13).

[2]朴宗根,杨玥.人工智能法律主体资格之刑法评判[J].南京师范大学学报:哲学社会科学版,2019(5).

[3]龙文懋.人工智能法律主体地位的法哲学思考[J].法律科学(西北政法大学学报),2018(5).

[4]骁克.论人工智能法律主体的法哲学基础[J].政治与法律,2021(4).

[5]徐文.反思与优化:人工智能时代法律人格赋予标准论[J].西南民族大学学报:人文社科版,2018(7).

[6]程龙.从法律人工智能走向人工智能法学:目标与路径[J].湖北社会科学,2018(6).

[7]章琪.人工智能——机器人专题(下):机器人和法律[J].世界科学,2015(1).

[8]李菊丹.“人工智能创作物”有没有著作权[N].经济参考报,2018(8).

[9]伊曼努尔·康德.康德著作全集:第4卷[M].李秋零,译.北京:中国人民大学出版社,2005.

[10]王重尧.人工智能法律主体资格的法理学分析[J].河南财经政法大学学报,2019(3).

[11]房绍坤,林广会.人工智能法律主体适格性之辨思[J].苏州大学学报:哲学社会科学版,2018(5).

[12]孙占利.智能机器人法律人格问题论析[J].东方法学,2018(3).

[13]GerhardWagner.Robot,Inc:PersonhoodforAutonomousSystems[M].NewYork:fordham.rev,2019(88).

[14]朱凌珂.赋予强人工智能法律主体地位的路径与限度[J].广东社会科学,2021(5).

[15]星野英一.私法中的人[M].王闯,译.北京:中国法制出版社,2004.

[16]尤瓦尔.赫拉利.未来简史:从智人到智神[M].林俊宏,译.北京:中信出版集团,2017.

[17]克劳斯·施瓦布.第四次工业革命:转型的力量[M].李菁,译.北京:中信出版社,2016.

[18]郭明龙,王菁.人工智能法律人格赋予之必要性辨析[J].交大法学,2019(3).

[19]舒国滢.法学是一门什么样的学问?——从古罗马时期的Jurisprudentia谈起[J].清华法学,2013(1).

[20]李帅.人工智能威胁论:逻辑考察与哲学辨析[J].东北大学学报:社会科学版,2019(1).

[责任编辑 孙兰瑛]

猜你喜欢

主体资格法律地位人工智能
2019:人工智能
人工智能与就业
数读人工智能
环境污染侵权案件实务中的问题研究
完善我国现行合伙制度的构想
从“成路15轮”看保险经纪人的法律地位和义务
论间接义务
环境公益诉讼主体存在问题及对策
下一幕,人工智能!