论人工智能的法律人格:一个法哲学的思考
2018-02-15李俊丰姚志伟
李俊丰 姚志伟
摘要:人工智能是否具有法律人格的问题,是解决人工智能所引起的诸多法律前沿争议的一大关键。从人工智能发展的趋势看,人工智能具有“近人性”,这决定了人工智能法律人格本质上之有无;从法律史的角度看,法律人格是一种社会建构,认可人工智能的法律人格并不以“人工智能是人”为前提;从人工智能的现状看,其已开始具有独立影响他人权利义务的能力,考虑认可人工智能的法律人格已具有一定的现实意义。面对人工智能的飞速发展,我们有必要对认可人工智能的法律人格保持一种开放性态度。关键词:人工智能;法律人格;“近人性”作者简介:李俊丰,法学博士,广东第二师范学院马克思主义学院讲师,主要研究方向:法学理论、法律史(E-mail: stleejf@163.com;广东 广州 510303);姚志伟,法学博士,广东金融学院法学院副教授,广东外语外贸大学国际战略研究院博士后,主要研究方向:法学理论(广东 广州 510521)。基金项目:广东省教育科学规划课题(党的十九大精神研究专项)“人工智能应用趋势下的高校思想政治理论课发展研究”(2018JKSJD65)。中图分类号:D903 文献标识码:A 文章编号:1006-1398(2018)06--
一 问题的提出
2017年10月25日(当地时间),人工智能机器人索菲亚被沙特阿拉伯授予了公民身份;虽然正如评论员所言,沙特阿拉伯并没有真正解决机器人公民资格的问题,亦未解释授予索菲亚的公民资格之具体法律含义为何,但在某种意义上说,此举也确实将人工智能的法律人格这一问题摆在了人们面前。
法律上的人格,本质上指人的资格,即成为法律关系主体的资格,故法律人格亦可被理解为法律认可的一种享受权利、承担义务的资格。事实上,在当前人工智能高速发展并已开始投入应用的环境下,此一问题已远非是“科幻”式的,法律实践和研究都必须直面之。在不少关于人工智能和法律的讨论中,学者开始留意到了人工智能的法律人格问题,专门的探讨也已出现。
不过在这些研究中,倾向于认为“人工智能不具有法律人格”的论者仍占多数。这种意见的提出和坚持,应和学界的相关讨论多立足于当下和解决现实问题有关,即学者们多意欲在现有法律框架下来解决目前已经出现或可以预见将要出现的人工智能相关法律问题,以维持法律制度的稳定性、结构性和可行性;而在当前人工智能仍处于弱人工智能阶段的情况下,这种追求也是可以理解的。
但这种基于现实关怀的思考似并未能真正回答“人工智能可否具有法律人格”之问题。当下的实然毕竟不能等同于未来的实然甚至是应然。如果我们留意到过去数年人工智能的迅猛发展,并因此对人工智能之未来持有一种“非保守”态度的话,这一道理自应不难明白。因此,在本文中,笔者的思考虽也从现实问题出发,但主要是尝试跳出现实关怀的思维框架,从法哲学的角度来对“人工智能的法律人格”进行思考,探讨其中的若干方面,也希望由此能给现实问题提供一些参考。
二 人工智能法律人格的本质性问题
认为“人工智能不应具有法律人格”的重要论点之一,是认为人工智能和人存在根本性不同,人工智能不可能成为人。根据现行法律制度和法学原理,除了法人可具有拟制法律人格外,法律人格只有自然人才能享有,故人工智能不可能具有法律人格。
无可否认,当前的人工智能仍和人有着巨大的差异,这种差异在未来可能也不会完全消失。但这种差异的存在却掩盖了一个其实并不难看见的事实:人在制造人工智能时,归根到底是以人为模板的。这是人工智能发展和此前的工业革命、电气化革命、信息化革命等科技革命存在根本性不同的地方。此前的科技革命,归根到底还是为了延伸、扩展人的能力,并把人从机械性劳动—包括体力劳动、记忆和计算等重复而相对简单的脑力劳动——中解放出来:织布机节省了人生产布匹时的体力和时间,汽车节省了人进行移动时的体力和时间,计算机节省了人进行计算和记录时的精力和时间。通俗言之,它们所起的作用,是让人能“省力”,从而能让人的能力集中发挥于只有人才能完成的工作之方面,例如,创造性劳动;借助这些科学技术,人本身是得到“加强”的。与此不同,当前所呈现出的人工智能发展之特点,并不是“加强”人,而是“代替”人。虽然在客观上看,目前不少人工智能技术也起到了“加强”人的作用,如语音助手之类;但其实颇为显而易见的是,当前人在发展、制造人工智能时,归根到底是以“做人的工作”为取向的,即希望其能完成一些以往认为只有人本身才能完成的工作,如下围棋、自动驾驶、人工智能写作、翻译等等,都是如此。
因此,人工智能的发展态势是趋向于“与人相同”的,为了让人工智能能“做人的工作”,人类必然会不断将本来仅为人类所具有的能力赋予人工智能,并让人工智能表现得越来越像人。人工智能的这种特性可以称之为“近人性”。更重要的是,必须看到,这种思想观念其实在今天相当普遍地存在着,Google Assistant的演示中的那句“Hmm”引起了观众的强烈反映,恰恰反映出人类对人工智能的“近人性”的认同;而“为何不少研究者对人工智能的研制、普通人对人工智能的想象,都是以人型人工智能为依归”的问题,也可从中找到部分的解释。
概言之,人工智能的本质属性与其说是“拟人性”,不如说是“近人”性;今日的人类其实也默认着这种观念,制造人工智能的取向和路径,也正建基于此。因此,人工智能很可能最终将具有我们今天认为属于强人工智能甚至是超人工智能的性能,如交谈、思考之类——虽然这在目前似乎还显得遥遥无期。到了那个阶段,人工智能在行为、语言等等方面的表现,可能已和人类并无太大差异,我们可将此称为人工智能的“类人”阶段。由此角度观之,人工智也许便并不是一个新问题了,或者说,其只是人的问题的一个亚型而已。例如,人工智能的黑箱性和算法的公正性,被视作是一个以往人类并未遭遇过的全新问题;如何从法律等层面规制人工智能的呼声和争议,与此密切相关。以司法为例。美国Northpointe公司基于人工智能开发的犯罪风险评估算法系统系统性地歧视了黑人,被认为是非常不可靠的。但是,类似的问题难道在人的身上就没出现过、发现过吗?例如,在法律现实主义看来,法律是法官等司法人员在实际上对法律案件的所作所为,法律现实主义代表人物弗兰克便认为,法官的个性及其他一些非理性因素如情绪、性格、直觉等,都会对判决起作用甚至是主要作用;“對于司法权的行使,弗兰克最终所意图揭示的是在整个过程中隐而不现却实质上发挥支配作用的因素”。波斯纳亦指出,很多司法决定都受到了法律之外其他因素的影响,如法官的个人特点、偏好、职业经验等等。人类法官的这些特点和人工智能的黑箱性、算法公正性其实并无本质差异,两者都一样会影响司法判决,都一样不易为他人所知,甚至可能都一样连判决者自己都意识不到。也就是说,今天我们倾向于将人工智能的黑箱性、算法公正性等等视为“新”问题,但严格来说,我们所未曾面临过、思考过的,只是“工具的黑箱性、公正性”问题。在本质上,我们的焦虑,来源于将人的命运交由非人来决定,而并不在于黑箱性、公正性本身。
“人工智能的法律人格”问题也可以类似的思路看待。如果我们承认人工智能的“近人”性,并因此将其纳入“人”的视角而观照之,那人工智能的法律人格问题也可以理解为:人工智能在本质上具有法律人格,只不过到“类人”阶段,人工智能的法律人格才表现得难以否认或接近完全,在此之前,其法律人格则较少体现出来或需受限制—在某种程度上,这和未成年人的法律人格问题有相似之处。“人工智能的法律人格”问题的新颖性,只在于人工智能的法律人格表现存在明显的阶段性差异—特别是在“类人”阶段之前被掩盖在了工具性之下;而人工智能本质上的有无,在人工智能的“近人性”中其实已被决定。
概言之,人工智能法律人格之有无,并非是人所赋予的,而是在人制造人工智能的取向和路径中被决定的。如果人工智能的未来发展仍是按现有的“以人为模板”的思维框架进行的话,那似乎对人工智能法律人格的承认,便是一件迟早会发生的事情。
三 人工智能法律人格的建构性问题
人工智能法律人格之有无是在人如何制造人工智能的取向和路径中被决定的,也意味着人所能做的,仅仅是认可或不认可人工智能的法律人格,而并不能决定其本质上的有无。可以预见,对此观点的一个重要反驳是:人工智能根本不是人,和人有着本质上的不同,怎么可能具有法律人格?然则,人工智能具备法律人格与否,是否必须以其“与人相同”为前提?所谓“本质上的不同”究竟是指什么?“天赋人权”等理论暗示,人的权利必须以人之为人作为前提;但考诸历史不难发现,在某种意义上看,人的法律人格也不是天然的,而只是一种社会建构。
以西方女性的法律人格发展史为例。在相当长的一段历史时期中,英美等国的女性所能享有的权利,和男性有着极大的不同。在美国,虽然平等的思想在独立革命时期已日渐形成和傳播,但女性仍然处于明显的从属地位,没有选举权,不被允许拥有财产,没有平等的就业机会和受教育机会……到19世纪,情况仍是如此。英国的情况也差不多。
理解这段历史的一个关键在于,在当时人眼中,女性和男性之间存在着本质上的不同。当时主张否认女性权利的男性所持的一个重要观点,是女性在思维能力、智力等诸多方面均不如男性,甚至缺乏成为“人”的能力。在美国,伯克在《法国革命反思录》中认为,妇女只是一种动物,而且是低等动物,关注妇女解放的弗朗西斯·赖特也注意到,妇女被认为和男人不具有同等的理智和情感,难以取得一般的社会地位;后来成为美国总统的约翰·亚当斯称赞主张女权的凯瑟琳·麦考利是“一位拥有男性般高明理解力的女士”,但这话却恰恰反映出,在亚当斯等人眼中,女性在理解力等方面不及男性。相类似地,在英国,女性在17世纪时被认为是头脑简单、意识薄弱的;到1866年,《旁观者》杂志声称,全国具备政治能力的妇女不超过20人,甚至连一些女性自己也认为,女人没有判断力,故确不能从事医生等职业。
由此可见,今人眼中人工智能和人的不同,和时人眼中女性和男性的不同其实并无性质上的差异:他们都被认为具有本质上的、根本能力上的差异,故所具有的法律人格自然也应有所区别。但正如约翰·穆勒在那个年代便已意识到的一样,这些被称为女子气质的东西其实是人为制造出来的。按此观点,上述所谓本质差异本身便是建构出来的,建基于此的法律人格差别自然也是如此。女性的法律人格在日后的发展,也显示出这一点:到了今天,我们至少在理论上承认了女性和男性之间并无本质不同,故也应具有同等的法律人格。
既然如此,对于人工智能,我们是否也可作如是观?进一步说,特别是当人工智能发展到“类人”阶段之时,其和人类的不同究竟还有多大?这种不同,是否必定比女性和男性的不同更大?如果我们不应因女性和男性的差异而否认女性的法律人格,那至少在逻辑上说,差异也不能成为否认人工智能之法律人格的理由。
总之,“与人不同”不能成为否认人工智能具有法律人格的充分条件,反过来说,“与人相同”也不应被视为认可人工智能法律人格的先决条件。因为法律人格本身便是建构的产物,“人工智能是否具有法律人格”与“人工智能是否是人”乃两个相互独立的问题,没有什么必然的关联。
四 人工智能法律人格的现实性问题
如果我们承认人工智能法律人格的被认可与否和其本质上之有无是两个独立的问题,也承认对人工智能之法律人格的认可其实是一种社会建构,那接下来便必然要面对如下一些问题:应在何时认可人工智能的法律人格?当前是否有必要将此视作一现实问题来加以考虑?
如上所述,当人工智能发展到“类人”阶段,其法律人格便会得到明显的体现,从而变得难以否认。然则,循此思路很容易将问题延伸到“如何界定人工智能发展到‘类人阶段”“‘类人的标准是什么”甚至“人工智能什么时候具有人的意识”“人的意识是什么”等等至今仍充满争议、难有定论的哲学性讨论上。因此,我们有必要转换一个思路来考虑这个问题。如前所述,所谓法律人格,可被理解为指法律认可的一种享受权利、承担义务的资格。故权利义务一致性的原理,实可作为相关思考的理论基础。毋庸多言,权利义务一致性是一基本的法学原理。例如,我国宪法便确认了公民权利与义务一致性的原则。权利和义务是相互依存的,权利和义务是一个问题的两个方面,也是互相促进,相辅相成的,所谓“有权利即有义务”是也。当前人工智能发展的现状和人工智能的“近人性”,意味着其将具有甚至是已经开始具有一种颇具特色的能力,即“脱离人类控制而独立行动”。而这又意味着人工智能有能力独立影响他人的权利义务。人工智能自动驾驶便是一个典型的例子。
随着人工智能自动驾驶技术的发展,人类使用者对驾驶的参与可能会变得越来越少。在此情况下,一旦发生了损害,相应的法律责任到底应由谁来承担的问题,至今仍充满争议。不过,常见的观点包括让智能机器人的制造商或者使用者承担严格责任等等,让人工智能自动驾驶汽车本身来承担法律责任,则似乎根本未被纳入考虑和讨论之中。然则,这些观点都未能完满回答人工智能自动驾驶所可能引起的问题。所谓人工智能,按李开复的概括,比较主流的定义是:人工智能是有关“智能主体的研究与设计”的学问,而智能主体则指一个可以观察周遭环境并做出行动以达致目标,并可通过深入学习增进自身上述能力的系统。换言之,人工智能并不等同于搭载有人工智能系统的物质载体;严格来说,此两者乃是两个完全不同的概念。在人工智能自动驾驶问题上,也会出现大量汽车搭载同一套人工智能自动驾驶系统的情况。一方面,当人工智能自动驾驶技术发展到一定程度,甚至连“司机”的概念也不存在之后,让使用者承担严格责任显然并不合理——正如在今天,一辆出租车的交通事故责任不可能要求乘客来分担,除非其实质性地对驾驶行为作出了干扰等影响。但另一方面,即便两台人工智能系统物质载体是由同一个制造商生产的,但经过深度学习之后,它们在面对类似情形下所作出的驾驶反应可能也会有所不同,而这些反应甚至可能是连制造商也无法精确预测的;在这种情况下,一律让其制造商承担严格责任是否亦有不妥呢?
此间的关键在于,当他人的权利或义务受到影响时,相对应的义务或权利也随之产生;但因人工智能所具有的独立性,将此种相对应的义务或权利归诸于其他人在一般情况下是难言合理的,也不符合权利义务相一致的原理,而只能归诸于人工智能。而要让人工智能有独立承担权利和义务的能力,则意味着必须认可其具有法律人格。因此,当人工智能“脱离人类控制而独立行动”、独立影响他人的权利义务之事例开始出现时,认可人工智能的法律人格与否便开始成为一个需予以考虑的现实问题了。
除此之外,现今人工智能所引出的其他一些法律争议,也开始表现出难以在现有法律框架下来加以解决的特点。再以人工智能的著作权问题为例。当前的主流观点认为,人工智能创作的作品之著作权,应归属于设计者/训练者/所有者;但这种观点难以解释在实践中可能会出现的一些情形。如上所言,人工智能并不等同于搭载有人工智能系统的物质载体;假如甲、乙分别拥有一台人工智能系统物质载体,这两台物质载体搭载的其实是同一套人工智能写作系统,甲、乙都将其用于新闻稿件的写作。不难想象,当某一新闻事件发生时,两台物质载体创作出来的稿件很可能非常相似。此时,无论将著作权归属于人工智能的设计者、训练者还是所有者,都可能存在不妥之處:设计者在此过程中显然不具有实质性作用;而假如甲、乙最终输出、发表其高度相似的稿件的时间,只有5秒之差,能认为发表在后的乙侵犯了甲的著作权吗?由于两台物质载体的工作环境不一样(例如,其所在的网络环境不同,所能获得的网络资源不一样),随着它们各自的深度学习的进行,此后它们写出来的稿件可能会变得有所不同,甚至风格也大相径庭,这又带来另一个问题:如果这种独创性来自于人工智能系统物质载体的自主学习,而不是来自于其设计者/训练者/所有者,那还应该将著作权赋予后者吗?显然,人工智能所具有的“脱离人类控制而独立行动”的潜力,也正是这一具体问题的关键。由于现有法律框架并未考虑到、也不可能考虑到这种情况的存在,故也难以对此作出应对。而认可人工智能的法律人格,反而是一个可行的方法。
不可否认,认可人工智能的法律人格,是对现行法律框架的一个非常大的冲击,故确要谨慎为之。当前是否确要为之,或如确要为之时具体应如何为之等等问题,此处不拟讨论。但无论如何,当前人工智能的发展,其实已经开始表现出“脱离人类控制而独立行动”的能力或具有这种能力的可能性。因此,我们至少有必要将认可人工智能的法律人格视为一个现实问题,而不是将其仅仅视作一个遥远的“科幻”问题。
五 结 语
综上所述,根据现今人工智能的发展趋势,从法哲学的角度观之,人工智能获得法律人格,似是不可避免之事。其一,人制造人工智能的取向和路径,决定了人工智能具有“近人”性,因此,人工智能具有法律人格,与其说是不可想象的,不如说很可能是随着人工智能的发展而自然而然的。其二,从法律史的角度看,法律人格乃是一种社会建构,“是否具有法律人格”与“是否是人”之间没有什么必然的关联,故认可人工智能的法律人格,不必以将人工智能定性为“人”作为前提。其三,根据权利义务相一致的法理,在人工智能能“脱离人类控制而独立行动”并影响他人的权利义务时,对人工智能法律人格予以承认的考虑实际上便已成为了一个现实问题。
当然,笔者并不是说,赋予人工智能法律人格迫在眉睫。正如本文开头所言,当前人工智能的发展仍处在弱人工智能之阶段,这种情况下,试图在现有法律框架下解决人工智能带来的法律争议,既是可行的,更是可以理解的。然则,面对人工智能的飞速发展,我们也许必须保持一种开放性态度,即,不应将固守现有法律框架作为解决人工智能法律争议的前提,并因此而对其他路径遽然否定。
人之所以为人,也许并不在于其是否具有生物性,而在于其能否保持人所应具有的一些基本价值,例如,对他者的尊重。“人工智能威胁论”这一颇受关注的热点争议,也与此相关。当人工智能发展到一定高度——例如“类人”阶段之时,人类所一直坚持的把人工智能视为工具,否认把人工智能看作“人”的立场,是否还能站得住脚?如果人类没有给予人工智能以与其性质相符的尊重时,是否将可能反过来导致人类本身得不到尊重?从某种意义上看,沙特阿拉伯授予索菲亚公民资格的做法也许确是一个玩笑,但却也未尝不是代表着了一个能在未来解决人机关系这一根本性问题的可能性。而在一定程度上认可人工智能的法律人格,亦意味着我们至少对这种关系人类未来的可能进路保持着一种灵活的开放性,而不是在根本无法预测人工智能之未来的今天,便断绝了未来本身。
【责任编辑 龚桂明 陈西玲】