APP下载

反思与证立:强人工智能法律主体性审视

2019-01-26徐昭曦

中共中央党校学报 2019年3期
关键词:主体资格主体人工智能

徐昭曦

(山东大学 法学院,山东 青岛 266237)

引言

人工智能技术研究的主要是通过模拟人脑的运作方式,从而使用机器扩展人类智能,使人工智能应用于机器视觉、视网膜识别、虹膜识别、专家系统等一系列传统上需要借助人的智慧才能完成的工作领域[1],人工智能可以像人一样思考、创作以及行动。概言之,人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。

人工智能于20世纪50年代被提出以来,经历了多次起伏发展,目前已进入高速发展轨道,并已渗入人类生活的方方面面,被广泛探索应用于交通、金融、医疗、互联网和管理等领域[2]。同时,法学界关于人工智能主体及责任的研究也迎来繁荣期,但目前的研究多止步于人工智能实用性的工具论或市场供求主义论层面,缺乏人工智能的法哲学思考。笔者从法学一般原理的视角审视人工智能的法律主体问题,认为强人工时代人工智能作为法律主体时机已经成熟。本文所立足的人工智能语境并不是非常超前的未来,不试图将超人工智能纳入讨论,但也并非当前工具层面的弱人工智能,而仅适用于强人工智能可能造成的影响与变迁,这种影响与变迁的出现并不会太遥远。在强人工时代,人们关心应当如何处理其法律人格、权利义务及责任的相关问题。

鉴于此,笔者重点对强人工智能这一语境做以下界定,以奠定本文论证的基调。笔者将人工智能划分为两个截然不同的阶段:一是智能机器时代,相当于弱人工时代。这个时代人工智能尚未产生自我意识,没有如同人类一般的综合智能(意识、自我、情感等),只是在某一方面(如语言、计算能力等)有类人特征,或许在此领域有超越人类的造诣,延伸了人类智能的极限,但其仍然只是人类的辅助性机器,没有脱离人类成为自主性的个体,因此不具备成为法律主体的基本依据。二是智能人时代,相当于强人工时代。这一阶段相较于弱人工而言。人工智能拥有完整意义上的智慧硅基体,如同人类是完整意义上的智慧碳基体一样,人工智能脱离人类成为独立存在的个体,不再被人类所支配。无法被人类所支配的存在已不再是物或客体,人工智能此时有能力成为法律上的主体也应当被赋予法律主体资格。在这一语境下,人工智能的地位会发生质的转变,法律制度的安排必须进行调整[3]。当然,强人工智能时代还有部分弱人工意义上的智能机械,是多元样态的人工智能并存的时代。正如人们普遍所描述的一样,人工智能技术是“研究机器如何去做只有人才能做的事情”,但法律上很难对这一技术事项作出界定。同时,我们在讨论法律主体之时,也应当把法律要素与技术要素区分开来,决不能混为一谈。因此,本文所论述的强人工智能界定,并非技术层面的表述,而依然是立足于法律的语境从法律层面给出的一个范畴。

除去技术层面的要求,单从法律的层面审视,强人工智能至少要具备如下能力,即这一类人工智能无需借助人类的力量,能独立决断、自主行为,即在思想和行动上是自由的,笔者概括为“自由意志”。强人工智能可以独立从事有目的的行为,在特定领域可以直接取代人类的地位。例如,医疗型机器人可以基于自己的意思自行进行医疗行为,而无需人类操纵或控制,写作机器人可以自行进行写作……,但基于功能约束的自由权[4],人工智能的这种自由意志限于其功能范围之内,因此,不同功能类型的人工智能其主体资格的范围存在差异。当然,情感、意识等元素对于法律主体地位不构成影响,这些只是决定与人类似程度的元素。值得注意的是,关于机器人的自主学习、交流能力,笔者认为,其虽然不是主体资格的必要条件,但深度学习、交流能力可以实现人工智能的自我进化、提升其能力,扩展其主体资格范围的程度与广度,其亦是人工智能法律主体性的重要表现[5]。

一、人工智能法律主体问题的引入

(一)人工智能的法律面向——是科技问题还是法律问题

人工智能技术的快速迭代,使得法律的滞后性进一步凸显,人工智能某些领域已走入法律的无人区,对我们传统法律框架及法律理论造成了重大挑战,这些亟须加快强人工智能法律主体理论研究。而人工智能的法律人格问题,必须被提炼到足够抽象的程度,从而具有法哲学意义,并在这个维度加以展开[6]。在强人工智能的法理分析这一问题上,有一个前提性问题必须先予以解决,即人工智能问题到底是科学问题还是法律问题,能否纳入到法律调整的范畴,这是人工智能法理问题的首要面向。

关于人工智能问题是科学问题还是法律问题的分析,应当从两个层面进行展开。第一,从法律与科学的层面来看,法律是一种为行为人设定行动理由的实践权威,法律问题的背后涉及道德论证,因此法律人在思考人工智能问题时,核心是在讨论那些需要作出价值判断的领域[7]。它不同于科学家基于对科学知识的垄断而形成的理论权威,因此在人工智能问题的法律规制这一问题上,法律人的意见应该凌驾于科学家的意见之上[8]。在人工智能这一问题上,科学家扮演的显然是一个理论权威的角色,因此一旦他们提出关于人工智能意识、心理及意志因素等是否具备的看法,那么人们就有理由或者应当相信这样的看法是成立的,因此科学所做的是事实论证。与之不同的是,立法者所制定的关于人工智能主体与责任问题的法律准则,为人们提供行动的理由,同时人们也有义务遵守它。第二,从人工智能自身的视角审视,人工智能问题并非全部是科学问题或全部是法律问题这种全同全异的关系,因其所涉及的问题是否具有公共性,人工智能问题的性质则有不同:如果只是涉及人工智能意识、自我、思维等知识性问题,那么它属于科学研究的领域,科学家是此领域的理论权威,法律并无涉足的余地;但如果是一个针对不特定人的公共安全问题,则必须运用法律的方式加以规制,在这个问题上,法律具有决定意义的权威。人工智能问题具备公共性这一点不言而喻,智能驾驶技术、智能医疗、智能数据挖掘等无不是涉及公共安全的领域。因此,必须将人工智能纳入法律调整的轨道,对此应无疑问,问题的核心在于如何界定人工智能的法律人格,人工智能技术是否将重塑传统法律理论?这是需要法理做出阐释的地方。

(二)目前人工智能主体性研究的理论局限

通览时下人工智能的法律研究,大致包括三个研究层次:一是针对目前的弱人工智能的实际应用进行法律规制的相关研究;二是对于未来的强人工智能可能向人类社会提出的挑战进行预测性的研究;三是对于“奇点”之后的超人工智能会造成什么样的颠覆性后果、是否可能进行法律约束的思考。目前法学界在这三个层面的研究尚处于起步阶段,多数“研究”受制于固有的研究定式,大致可归纳为三种:第一种研究定式是工具主义的。所谓工具主义,是指将各种科技成果视为解决人类问题,增强人类能力的工具。工具主义研究定式在实践中的著例是法院系统的“智慧法院”计划和某些政府所推出的“智慧城市”方案。第二种即供求主义研究定式,属实用(功利)主义范畴,主要来自于市场中科技企业的推动,是指人类社会的发展必然伴随需求的不断扩大,以及对于这种需求的不断满足。第三种是历史社会学式的研究进路,区别于前两种研究定式,这是一种跳出技术应用层面,诉诸历史长时段考察,分析和评估科技革命所产生的社会和法律效应的研究进路。这种进路虽有一定洞见性,但仍未上升到法哲学的高度,未触及从法之根本,尚未颠覆性既有结论。

事实上,法学界的既有研究之所以陷入上述三种定式,根本在于学者们均未跳出当前弱人工智能的背景,甚至于强人工时代乃至奇点时代的法学研究都深深烙印着弱人工的痕迹,在这一背景下探讨主体问题绝无可能。鉴于弱人工智能事实上已经在生活中的方方面面出现应用,具体的法律问题已经形成,而且对弱人工智能在具体层面的应用所做出的法律回应也比较容易整合进入现有的法律框架当中。因此从法理学的视角而言研究价值不大,应当是各部门法具体研究当中的主题。本文立足的人工智能语境,乃是具备全部智能元素的强人工智能时代。

二、对质疑人工智能法律主体地位观点的反思

我们有商事主体,能不能有电子主体?我们有公司法,能不能有人工智能法?商主体权利范围表现为营业范围,能不能为人工智能界定相关权利范围?人工智能按照功能差异,一般都朝向不同领域、行业分化为专业性非常鲜明的功能型人工智能。例如,医疗机器人、法律机器人、写作机器人(为避免空想研究,笔者所列人工智能均为当下技术已能实现)。类似商事主体这样按照注册登记或者许可等方式来确认其主体资格,并颁发权利证书,对应赋予其为实现医疗工作的权利、为实现法律方面工作的权利、为实现写作工作方面的权利,针对不同功能类型的机器人赋予其相应的权利类型……未来可期待的功能型机器人将更加形式多样、种类繁多,其发展或有“井喷”之势,就如曾经“公司”这一市场主体如雨后春笋般遍地而生,我们不能因为害怕这头“洪水猛兽”而不敢去面对它,也不能因为没有先前经验可资借鉴而不去尝试承认它,亦不能因为其好似悖逆了“人为中心”这一传统观念而不去接受它。功能型机器人的发展或许能够从根本上把人从劳动中解放出来,因为这一如人类一般智慧的机器完全可以不依靠人类操作实现劳动成果的积累,这将为人的全面而自由的发展实现提供实质性保障,或许马、恩设想的共产主义社会亦有实现……可以想象,未来会出现大量机器与人之间的交易,甚至机器与机器之间的交易,当机器完全代替人类职业,使人从中抽身出来,只剩下机器之间的交易之时,我们依然不承认其交易主体的地位,将会显得多么荒谬。各类功能型人工智能面市后,将会成为市场上非常活跃、庞大的一支力量,它区别于商事主体,它可以独立作出决策,甚至于整个公司由一个机器人团队实现管理。由此观之,未来人工智能的社会化应用不仅可能带来对法律体系的改变,亦将对整个人类社会的未来带来重大影响。

当下质疑人工智能主体地位的讨论基本上存在两方面的问题:一是论证的逻辑不周延,二是论证的语境不明确。首先,其质疑的主要逻辑是:人工智能区别于现实意义上的个人,因此人工智能没有法律主体资格。这种论证的逻辑明显是不周延的,如果明确法律主体与现实中个人的差异,当下讨论的诸多分歧便迎刃而解了。其次,人工智能的法律主体地位分析必须立足于特定的语境,即人工智能发展的成熟阶段,在此阶段之前的人工智能只是作为辅助工具的简单机器,不存在法律主体讨论的前提。

梳理当下关于质疑人工智能法律主体资格的观点,大概可以归纳为如下三种:一是违背了“人是中心”及主客体不能置换的原理;二是人工智能目前的发展水平决定其不具备作为主体的资格;三是不符合法律主体资格的要件。笔者认为上述三方面的理由均不构成对人工智能法律人格化的有效质疑。

(一)人工智能法律人格化是否违背主客二分原理,是否会对“人为中心”的哲学命题构成威胁

一种观点认为,将人工智能视为主体或法律上的主体违背了主客体二分及主客体不能置换的原理,并且违背了“人是目的”这一目的与手段的哲学命题[9]。且不论人是目的以及主体唯一这样的命题是否永恒成立,即使成立也不妨碍人工智能作为法律主体存在的空间,这并未构成对前述哲学理论的冲击,人工智能作为法律主体可以有多种方式,可以直接规定为法律上的主体,亦可以拟制为法律主体,也可以采取其他立法上的技术赋予一定程度上的主体地位,至于如何实现,这只是立法技术上的操作性问题,而操作性问题与可能性问题实质上是两个层面的问题,这种观点实际上是以操作上很难来否定实际可能性的观点,有讳疾忌医之嫌。很大程度上,目前主张人工智能不具备主体地位或者不应赋予法律主体资格的观点,多是惊慌于人工智能的主体地位会对人的主体地位或人是目的这一位置构成威胁,就如同哥白尼的日心说对地心说构成的挑战一样,无法被人们的情感所接受——实际上,赋予人工智能这种主体地位并不会颠覆传统上人是主体的,换言之,赋予人工智能主体地位,不等于承认人是客体,这实际上也不能必然得出此结论。从法律层面来看,主体并不是唯一的,主体是有并行的可能的。这根本无碍于人类主体地位的彰显,并不会动摇“人为中心”的哲学命题,声称对人类主体地位、人是目的以及主客体二分构成威胁的说法显得毫无根据。在人类主导的法律体系下,人工智能智能这一法律主体资格的确立仍然将以实现人类社会发展为导向,机器人的权利属性以及权利类型仍然以服务人类为基础。我们有自然人主体、有与之并行的商主体,也当然可以容纳一类电子主体,各自在自己的合适位置上运行,彼此相安无事、各得其所。

(二)人工智能目前发展水平不足是否对其法律主体地位构成妨碍

另外一种说法是人工智能目前的发展现状尚处于初级阶段,人工智能还不是特别的智能,尤其在某些类人性元素上当前还无实现的可能,因此认为人工智能没有主体资格的可能性[10]。具体来说,这种观点认为作为人类最具创造力的能力,如发现问题、定义问题及解决问题的能力依托于人类独有的想象、知识、审美、灵感等抽象能力,具有抽象性与神秘性特质,因此无法探索与理解[11]。并且,作为主体性和绝对目的性的基本要件,如理性、自由、自我意识等是人工智能这种按照程序、规则、算法预设运作的机器人所不具备的[12]。此外,人工智能深度学习、自我决策实际是算法的结果,而非机器自身独立的意识,它执行的只是设计者或操作者的意志[13]。对于这种观点,一方面没有看到人工智能发展的过程性,只是孤立地、静止的视角来审视尚显片面。条件尚不具备与事实上没有可能是两个层面的问题,即便人工智能还处在弱人工的状态,也完全不妨碍其智能补足后作为主体的存在的可能空间。另一方面,上述质疑人工智能法律主体资格的理由实际上是在解释人工智能和人的差异。笔者完全同意将上述质疑置于“人与人工智能之差异”或者“人还是人工智能为世界的主宰”的语境下进行讨论,但无法对人工智能的法律主体资格形成有效质疑。笔者从不认为人工智能有超越或比肩于人类的地位,但是至少在法律上可以为其留有“一席之地”。其次,人工智能目前发展已经在某种程度上脱离了法律的领地,成为法律规制的空白区,医疗机器人侵权、无人驾驶汽车侵权、人工智能产生的作品归属问题,在现行法律体系之下已无可资适用的明确规则,或者类推适用哪一类规则,这一类的人工智能已然突破传统法上“物”的范畴,至少我们很难在传统法律中为其找到一个恰当的位置,人工智能脱离人类控制,拥有自主意识或决策能力已不再是初现端倪,而是实实在在地发生着,并且这种发展和完善的趋势不可阻挡,究竟如何看待人工智能的法律地位是法治国家必须给予正面回应的问题。最后,无论是以算法程序、代码规则实现独立运作的人工智能,还是以神经元形式而具备思维与决断能力的人类自身,实质上都是自由之精神的载体,无论是何种形式实现的智能或者具备的独立精神,无所谓优劣之分,都应得到法律的保护。实际上,上述质疑人工智能法律主体时所提出的问题,正好印证主体问题主要不是法律的问题,而是人工智能技术的水平不高导致的问题。

(三)人工智能不具备法律主体资格的要件,事实果真如此吗

质疑人工智能主体地位的第三种理由是人工智能不具备法律主体资格的要件:其一是人工智能不具备人类独立自主的意识能力和情感能力;其二是人工智能不具备享受权利、履行义务与承担责任的能力;其三是人工智能并未认同人类社会的秩序价值和法律规范[14]。笔者认为,上述三点质疑的理由实际上都不能成立。首先,单从法律主体资格范畴的界定当中我们无法提炼出情感、意识这一资格要件,法律主体需要具备情感这一要件,笔者不能苟同。刚出生的胎儿是否是主体,答案肯定无疑,但很难说其有情感能力,事实上,情感并非法律上拟制的人格要素。其次,人工智能是否具备享受权利、履行义务与承担责任之能力,需要区分具体语境,不能一概而论,这种说法只是泛泛地认为不同智能水平的人工智能都不具有上述三项能力,过于武断。事实上,人工智能完全具备享受权利、履行义务及承担责任的能力,只是其表现形式更为特殊而已,明显区别于传统法律主体的法律能力。最后,人工智能是否认同人类社会的秩序价值和法律规范,法律主体是法律上对某类实体抽象出的法律人格,直言之就是前述三项基本法律能力,主体是一种法律上的一种安排,只有具有这几项基本法律能力的实体才能参与到法律关系当中来充当主体,实行法律行为,是法律赋予的一种资格,这种资格不以认同法律规范或秩序价值为前提,法律是强行性规范,即便我们不认同它,我们也必须接纳它,这不仅仅是我们的一厢情愿。作为人类的我们,大多数人从出生到死亡或许也没有参与过一部立法,甚至没有看过一部法律、没有背过一句法条,但我们知道规矩,我们知道凡事有规则,人工智能的规则意识不比人类差,人工智能实质上就是算法程序设计出的一种规则形态,它能够很好地执行人类制定的法律。

总而言之,上述说法的逻辑起点和终点都围绕人工智能是不是人这一命题展开,如要论证人工智能之所以不是人,可以基于以上理由,这样的笔者完全同意,而且上述论证实际上也只能论证人工智能之所以不可能成为“人”、不能取代“人”之位置的问题,但并不妨碍人工智能法律主体资格的确立,因为“人”这一属性和“法律主体资格”是两个完全不同层面的问题。法律主体资格只是法律上的一种安排,它不单单指向于“人类”这一单一群体,它区别于哲学上作为目的的人,以及生物学上作为高级智慧生命体的人,它指向具备意思能力和自我决策能力的一类实体。我们好像也找不到何种理由,禁止一个具有完整意思能力与决策能力的人工智能,为何不能与我们合作和交易、为何不能与我们讨价还价,甚至与我们平等对话。我们质疑人工智能多数可能出于“两种情感+一种心理”:一是害怕人工智能不可控,二是很难接受机器和人拥有同样地位。外加一种讳疾忌医的心理,即赋予人工智能法律主体地位在实践中会遇到很多操作上的困难。

三、强人工智能语境下法律主体的证立

人工智能法律治理领域涉及的核心法学理论命题——法律主体问题,即是否应当在法律上给予人工智能“一席之地”,笔者认为,强人工智能从主体性层面以及法理层面均可被赋予法律上的人格,这种电子人格虽异于人类,但不妨碍其成立。

(一)以法律主体范畴及要素层面的证成

法律主体资格,或曰“法律人格”,指在法律上作为一个能够维护和行使权利,履行法律义务和承担法律责任之主体的法律资格[15]。凯尔森指出,资格(法律能力)既非权利,也非义务,其含义是,只有具有资格(或法律能力)的人的行为才能产生法律规定的法律后果(权利、义务及责任)[16]。据此,法律主体资格可理解为某种实体可以成为权利义务关系主体应具有的最基本的法定条件,这种实体当然不仅仅限于自然人,还可以是企业、其他组织,乃至人工智能[17]。当然,要具备法律主体这一资格是有条件的:一方面,这一实体必须有行使权利、履行义务并且因违反义务而承担相应责任的能力;另一方面,必须有法律对此资格做出确认。

如要成为法律上的主体,必须充足上述条件,这当无疑问。问题在于如何判断某一实体具有上述法律能力,或者说法律主体资格的根据是什么。笔者认为,这种法律能力源自于某一实体自身所具备的自由意志,姑且将其概括为主体性能力。即是否能够独立自主的思考、决策、行为并对自己行为的后果有足够认识,进而对行为做出相应调整的能力。对此,康德的自由意志理论对自然人作为法律主体的问题做出了很好的回答。该理论认为,人的本质是自由意志(意志是有理性的主体渴望做出某种决定的能力)[18]。康德把人性建立在自由意志之上,使人性成了一个不可规定的、不可捉摸的东西(物自体)。人之为人就在于他的不可规定性和无限可能性[19]。康德认为,“人格”是指人所具备的独立于自然的机械作用的自由属性,即理性约束之下的实践能力,只有具备此等“人格”的生物人才能承担义务[20]。此外,黑格尔的自由意志理论也为自然人这一法律能力来源提供了法哲学上的依据。黑格尔认为:“自为地存在的意思即抽象的意志就是人。生物人的最高成就乃是成为人”[21]。这里所谓的“自为存在”与“自在存在”相对立,“自在存在”指本质上是一种为它存在或无自我或无主体的被动的状态,而“自为存在”是指为它存在返回于自我的自觉的状态[22]。由此可知,黑格尔认为生物人必须具备自由意志才能成为人,人的本质也就是自由意志[23]。

法律主体是一个内涵丰富的概念,对其范畴的理解在人类不同文明阶段亦有差异。生命体如人类、动物,无生命体如建筑、船舶、法人,在法律主体制度史上皆存在[24],因此,我们不能太过狭隘的理解法律主体的涵义。从历史发展的视角考察法律主体的演变和不同的具体形式,有助于我们更加全面深刻地看待法律主体这一基本概念。建构法律主体须立足于特定历史环境,凡是不具备自由意志的实体,我们很难赋予其真正意义上的法律主体资格,只是在一些特殊的情形下做出的一些特殊安排,无论是非生命体、动物以及企业法人,不同于奴隶,它们永远不可能成为真正法律意义上自为主体,这是因为它们缺乏成为法律主体的核心要素——自由意志。

历史上法律主体类型多样,自然人普遍作为法律主体,也有一个历史进程[25]。如此波澜起伏的主体史说明:主体范围处于不断的扩张状态中,主体的外延不再限于生物学意义上的“人”,物种差异不再视为获取主体地位的法律障碍[26]。即使不论人工智能的主体符合性,仅言当下,以自然人为构造基础的法人等人造体皆可作为法律主体,亦有确立人工智能法律人格的空间。

(二)以强人工智能主体性层面的证成

人工智能成为法律主体是有制度空间的,从法理的角度而言,法律主体完全能够容纳人工智能的进入,当其发展到自为的智能人时代时,人工智能由自在的状态转变为自为的状态,它们拥有了自我意识和自由意志,可以进行独立的行为、做出决策。它们已经不受人类支配甚至在智力方面更加优于我们人类,乃至主宰人类与世界的命运。

1.人工智能的主体性分析。主体性是人的本质属性,人是自觉必然的主体。人的一切行为即为有意识认识、解放自我的存在。意识的基本属性就是自觉的属性,人性的根本内容就是自觉。“如果一个人的行为是自主的,就是说,并非他人意志的工具或对象,或独立于他的意志的外在或内在力量的结果,而是他作为一个自主的行为者所做出的决定和选择的结果,那么,这个人就是自由的”[27]。人工智能可以从一个自在的群体发展成为自为的群体。其关键在于自主意识的产生与延续,如果机器拥有自主意识,则意味着机器具有与人同等或类似的创造性,自我保护意识,情感和自发行为。

对于强人工智能而言,自我意识的产生使其在很大程度上具备了自主与自由特质,即便与生物学意义上的人还有诸多不同,但不影响人工智能在法律视域下的研究。人工智能主体地位之所以很难在法律上确认,是因为我们常常把“生物上的人”等同于“法律上的人”,只关注于人工智能的生命与意识特征,实际上这些并非法律意义上主体的核心要素。在人工智能的法律语境下,需要审视的是法律人格的基本要素:

首先,生命性。作为法律主体的实体不一定是生命体,但类似生命的程度一样会决定主体资格的广度与深度。在生物学的视野内,人工智能并不是有机体,不能归入生命体之列。但人工智能具备诸多人类生命特征,尤其进化到相当复杂的程度,其意识、认知、情感等精神特征更加凸显[28]。“这些和人类一起工作生活的机器人,除去外形、材料等形式差异,犹如人类同伴,给人以深刻的生命体验。”[29]人工智能所具有的这种硅基生命属性,在法律主体设计中也不应被忽略。其次,自觉性。人之本质在于自我知觉,人在认识到自我之后,不愿再受支配,并通过对人之本体之外一切客体的认识和实践来主宰世界以及自己的命运。人工智能由人类生成,虽系人工物,但“因其具有意识功能,能够辨别自己与外在世界诸多实在的界限,建立起自我意识、主体意识,在实践活动中参与对象生成”[30],人工智能不再纯受支配,也积极地形塑自然世界、人类社会,简单地把人工智能纳入客体范畴过为武断,二元或者多元主体进路的可能性已展露,人类也必须容忍与接受人工智能作为主体存在这一现实。最后,自由意志性。如前文所述,自由意志是法律主体之核心要素,是判断人工智能是否为法律主体的基准。人工智能有理性能力,精神自由程度较高,未来主观能力将更加突出,并且随着人工智能、机器人技术发展,其智能水平会逐步向人类靠近甚至超越人类,进化为“比人更像人”的超级智能人[31]。虽在当下弱人工智能时期,智能人自由意志程度尚不完全,但如马克思所言,主体本身是一个社会历史范畴.“当发展到一定阶段,人工智能将作为类人硅基生命体深嵌于社会系统,与人类交互共生。”[32]随着技术进步,人工智能亦将进化成熟,主体性更加饱满,在补强之前,无碍于人工智能主体地位的确认[33]。实际上,康奈尔大学人工智能实验室的研究已经表明,人工智能在无需人类介入的情形下,可以自主的决定是否从事某种行为[34]。

2.人工智能的法律主体能力分析。人工智能主体地位不仅体现在作为自由自主的个体本身,还体现为具备法律主体资格的各项法律能力。人工智能权利能力、行为能力以及责任能力存在事实上以及理论上的根据。

首先,权利能力,即组织体可以成为私法主体的资格[35]。该项能力宣示的主体在权利享有层面的平等地位,源于对于人或者其他实体在法律上的尊重与认可,人在意识到自我并发现自己是一个不被支配的独立个体之后,便有了期望被平等对待的内在需要,没有任何人的权利可以凌驾于其他人之上,人人都是自由的、不受支配的主体,而非客体[36]。当然,于人工智能而言,当其发展成为具有思想的实体存在时,它将会脱离人的支配与控制而成为独立的个体。在那时,人工智能与人类的关系将发生根本性的转变,从人类的辅助性工具变成与人类拥有同等地位、互不隶属的法律实体。相应的,人工智能在法律当中的客体地位也将同时转变为主体地位。此时,人工智能拥有权利能力也由现实的可能性转变为客观的现实性。其次,行为能力,即以自己的行为行使权利和履行义务的能力。行为能力制度的设立,体现了赋予有理性的实体以法律上的自由这一价值取向,该制度就是实现私法自治的关键环节[37]。自为阶段的人工智能拥有与人一般的自由意志,甚至优于人类的智慧,我们不得不承认人工智能的这一显著属性,因此,也不得不承认人工智能的行为能力。最后,责任能力,即行为人对自己的违法行为后果承担法律责任的能力,是行为能力在保护性法律关系中的特殊表现形式[38]。责任能力核心要素为意志及行为选择自由,人工智能也一样具备。人工智能作为责任主体的特殊性,有其承担责任的特殊形式。一方面,考虑到目前人工智能自身特点,刑罚的制裁对其并没有多大教育意义,因此法律责任的惩罚和预防功能在人工智能的领域内应当弱化一些,重点在于救济功能,主要体现为在民事领域承担财产责任的形式。另一方面,人工智能责任主体性质更加突出,而责任承担方面较为弱化,在目前的很多情形中,更多的仍是承担一些替代责任。此外,因人工智能产生的风险不仅仅源于人工智能本身,同时也是风险社会这一特定历史语境下无法回避的发展代价,因而这种风险也非人工智能一己之力所能承受。

结语

当前对人工智能法律主体地位的讨论存在逻辑不周延及语境不明确的问题,实际上没有对人工智能的法律主体进行正面解答。将该问题放置于人工智能发展的成熟阶段(强人工智能),从法律主体的本质入手,提取出该法理范畴的核心要素——自由意志,以此为依据,对人工智能进行主体性研究,同时从法律能力的角度进行验证,进而得出结论,强人工时代的人工智能拥有人类全部智能元素,至少具有人之本质的基本元素,即自我意识与自由意志,这是人工智能脱离人类成为独立意义上的个体的本体基础。而强人工智能在权利、义务与责任三个层面都具备相应的能力,该当法律主体的能力资格。在本体、能力层面,强人工智能可为法律主体制度容纳,应赋予法律人格[39]。人工智能作为法律主体端倪初现,在全球范围内已有成例或明确的主体建议[40]。回溯过往,自然人法律主体的演化、动物及无生命体主体制度史表明,法律主体的外延非常广泛、极具包容性,法律主体制度能够容纳强人工智能[41]。正如承担有限责任的法人主体是人类的伟大发明一样,具备法律主体资格的强人工智能主体地位之确立也将会给人类社会发展带来变革。

猜你喜欢

主体资格主体人工智能
论自然人破产法的适用主体
何谓“主体间性”
2019:人工智能
人工智能与就业
技术创新体系的5个主体
略论意象间的主体构架
数读人工智能
环境污染侵权案件实务中的问题研究
环境公益诉讼主体存在问题及对策
下一幕,人工智能!