人工智能法律主体批判
2019-03-14韩旭至
韩旭至
近年来,随着人工智能产业第三次浪潮的到来,许多学者将人工智能法律主体地位问题作为“人工智能时代的新挑战”进行研究。事实上,自1956年达特茅斯会议上人工智能的概念被提出以来,西方学界即开展了人工智能与法律的相关研究。1985年佛雷塔斯更是明确提出能否为“具有自我意识且能作出道德选择的机器人”构建“机器人人格”的问题[注]Freitas Jr. Robert A., The Legal Rights of Robots, Student Lawyer, vol.13, no.1, 1985, pp.54-56.。1992年索罗姆关于人工智能法律主体的经典论文更是指出,人工智能可作为目的受限的受托人[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。自此以后,人工智能法律主体理论得到蓬勃发展。目前主要形成以 “智能代理人”“强人工智能人”“电子人”为代表的多种理论。这些理论主张主要依托于“法律人格扩展论”“人工智能发展论”“有限人格论”三类论据,试图在法律人格理论发展、社会客观现实需要与制度设计可行性三个层面分别证成人工智能的法律主体。
目前已有不少学者对人工智能法律主体提出批判,并形成了“工具说”“电子奴隶说”“比照动物说”等多种学说。也有学者认为,人工智能是特殊物,具有“最高物格”[注]杨立新:《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》,《求是学刊》2018年第4期。,或暧昧不明地认为人工智能既不是人也不是物[注]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。。然而这些主张和批判并没有针对人工智能主体论的三类论据进行反驳,有时甚至陷入循环论证,如认为人工智能不是法律主体的原因在于其没有“健全的人体和人脑”[注]杨立新:《用现行民法规则解决人工智能法律调整问题的尝试》,《中州学刊》2018年第7期。。人工智能主体之争的双方实际自说自话,陷入自身定义的漩涡之中。本文将通过对人格的一般理论与人工智能的技术事实进行分析,针对人工智能主体论的三大论点进行批判。
一、法律人格的人类中心
人格是法律主体的基础,并与权利主体相对应。星野英一即将法律人格、法律主体、权利能力三个概念进行互相替换解释[注][日]星野英一:《私法中的人——以民法财产法为中心》,王闯译、梁慧星编:《民商法论丛(第8卷)》,北京:法律出版社,1998年,第154页。。纵观法律人格制度的发展史,法律人格的范畴确在不断变化发展:一方面得益于自然法的理性与平等观念,自然人成为了法律主体;另一方面又得益于实在法中权利能力的抽象性与制度性,特定组织成为了法人。立足于这一历史事实,“法律人格扩展论”认为,法律人格具有开放性与抽象性,人工智能人格“可依迹而循”[注]刘宪权:《人工智能时代机器人行为道德伦理与刑法规制》,《比较法研究》2018年第4期。。事实上,“法律人格扩展论”对法律人格的制度史与制度内涵均存在误解,法律人格总是以人为中心,非人的人工智能难以构成法律主体。
(一)自然人人格的人文关怀
罗马法上的人格已与生物人相区别,是法律技术的产物。其通过性别、国籍、血缘、财产等因素,在生物人之间构建出不平等的法律人格。长期以来,奴隶、妇女、印第安人、黑人的人格并没得到承认。直至1804年《法国民法典》,法律人格才涵盖所有自然人。19世纪末制定的《德国民法典》受萨维尼法律关系理论的影响,进一步抽象出权利能力、行为能力的概念,成功建立了现代法律人格制度。从自然人人格实现的这一历史可见,法律人格的概念确在变化,自然人主体也确实在扩张,但却推不出“法律人格扩展论”的结论。抽象的自然人仍是“始于出生,终于死亡”的“凡胎肉体”。在人工智能尚未能颠覆自然人概念之时,人工智能就不可能是自然人主体。
1.自然人的抽象仍落于具体的人
“法律人格不应该被理解为一种揭示生命意义的形而上实践”[注]Ngaire Naffine, Review Essay: Liberating the Legal Person, Canadian journal of law and society, vol.26, no.1, 2011, pp.193-203.,然而这一“法教义的拟制”仍无法离开现实的人。一方面,在分析实证主义法学中,凯尔森虽明确反对以自然人界定法律上的人,但其实际上承认法律上的人是抽象的自然人在权利义务规范中“人格化了的统一体”[注][奥]凯尔森:《法与国家的一般理论》,沈宗灵译,北京:中国大百科全书出版社,1996年,第106~107 页。。另一方面,在功利主义法学理论中,边沁所说的人亦非理性人或抽象人,而是日常生活中的平常人。
诚如星野英一所指,法律中的人也是具体的人,尤其是“弱而愚”的人[注][日]星野英一:《私法中的人——以民法财产法为中心》,王闯译、梁慧星编:《民商法论丛(第8卷)》,第175~194页。。也有学者运用“总体财产”的概念主张“无财产即无人格”,试图“将人格与人的基本物质生活条件相联接”以呼唤对弱者权利的关注[注] 尹田:《再论“无财产即无人格”》,《法学》2005年第2期。。由此可见,虽然“人是法律规则的人格化行为的结果”[注][德]拉德布鲁赫:《法哲学》,王朴译,北京:法律出版社,2013年,第149页。,但法律规则并没有取消对自然人的关切。杜兹纳虽指出婴儿的“第二次生命是由法律给的”,但亦无法否认“婴儿的第一次生命是母亲给的”[注][英]科斯塔斯·杜兹纳:《人权的终结》,郭春发译,南京:江苏人民出版社,2002年,第249页。。在“自然人—人格—主体”的逻辑结构中,法律主体的最终依托仍是自然人。从意志与法律行为出发的现代法律人格理论,不但没有消灭人与物的界限,更是确立了主客体二分的法律结构。
2.自然人的内涵外延无法涵盖人工智能
“人是什么”是哲学的终极问题之一。现代科技的发展使自然人的概念受到一定的挑战,人工智能能否称为人亦成了疑问。从人的法律定义与生物技术发展两方面看,人的概念均无法涵盖人工智能。
一方面,自然人“始于出生,终于死亡”。有可能发展为人的胚胎、胎儿以及曾经作为人存在的死者都不具法律人格,只能通过法律特别规定进行保护。冷冰冰的算法与程序实难以有实现人格的可能性。另一方面,生物医学技术的发展客观上挑战了人的概念。自然人成了“人造与自然的混合体”。有学者根据卢曼社会功能分化的理论认为,人工智能革命将导致法律人格的继续演化[注]余盛峰:《从老鼠审判到人工智能之法》,《读书》2017年第7期。。无法否认,人工智能与生物技术结合将对自然人的概念形成挑战,如克隆人、换头者、基因编辑人、加装智能假肢者等均可能存在法律人格问题。然而,在生物人中运用人工智能技术仍是以生物人为基础的。这些人工智能与生物人的结合体可能具有法律人格的原因恰在于其生物人的特性,而使人格受到质疑的因素又正是其人工特性。可见,人的概念绝无法涵盖脱离生物人的人工智能。“碳基生命”的法律实难以构造出“硅基生命”的主体。
(二)法人制度的人类依托
通过权利能力,生物人实现了向法律人的转型,法律人格的范畴扩大到自然人个体之外。通过权利能力的赋予,法人已实现财产与实体的独立化。如拉伦茨所言,“法人本身的基本特征是它自身作为一个法律实体与其作为法律实体的成员或者职能机关的个人相分离”[注][德]拉伦茨:《德国民法通论》,王晓晔等译,北京:法律出版社,2013年,第180页。。据此,“法律人格扩展论”主张,法人已与伦理性的人相剥离,成了立法者的一种决断,在必要之时立法者可为人工智能创设法律主体[注]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。。确如托依布纳所指,法律是“一个自创生系统”,本质上是“开放的系统”,但同时“法律是一个再生产它自己的基本法律行为的网络”[注][德]托依布纳:《法律:一个自创生系统》,张骐译,北京:北京大学出版社,2004年,第8页。。法律主体的革新亦无法天马行空,需遵循基本的法律逻辑。一方面法人虽有抽象化的面向,但其离不开人的组织和执行机关;另一方面法人确有其实用主义的内核,但仍无法撼动法人构造的人类中心主义。
1.法人离不开背后的人
从历史上看,法人即源于人的集合。罗马法上的家族便是法人的最初雏形,家长即是家族的代表。尽管现代法人制度显示出高度抽象化的面向,但其亦未否定法人背后的人。现代的法人人格仍是一种“团体人格”,法人背后的人与法人意志的表达、责任的追究、利益的享有都密不可分。从具体制度来看,我国《民法总则》规定了营利法人、非营利法人和特别法人。无论是哪种法人都是人的组织,以自然人作为法定代表人。在财产混同时,还以“撕破公司面纱”制度追溯到法人背后的控制人。在法人犯罪时,也存在“双罚制”,能追究直接负责的主管人员和其他直接责任人员的责任。即便是德国法上为财产独立化和用途限定设立的财团法人也离不开管理者——人。《德国民法典》第85条即规定了财团的组织由捐助行为确定。此外,《德国民法典》还规定,财团法人由不危害公共利益的捐助行为设立,财团消灭后财产归财团组织所规定的人。
就人工智能而言,人工智能财产无法真正从所有人中独立,并且其财产亦非通过特定目的捐助产生的或由于特定目的设立的。最重要的是,人工智能一方面缺乏作为组织成员的人,另一方面其背后承担责任的人也不甚明了,实难以成为法人。若回到人工智能设计者、生产者、所有人、管理人的角度探讨人工智能背后的人,实际上已经否定其主体地位的可能。
2.“非人主体”未能否定人类依托
必须承认除法人外,历史上确实存在诸多“非人主体”。格雷就认为法律主体类型包括“正常生物人、非正常生物人、超自然人、动物、无生命物、法人”六种[注][美]约翰·齐普曼·格雷:《法律主体》,龙卫球译,《清华法学》2002年第1期。。其中动物更是常出现在法律舞台之上。据统计,从9世纪到19世纪,西欧有超过200起有记录的审判动物案件。从驴马牛羊到蛇鼠蝇蚁均上过被告席,甚至被判处监禁、流放、处决[注]Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Dordrecht: Springer, 2013, p.36.。凡此种种均无法撼动法律人格中的人类中心主义。
上述“非人主体”主要是实用主义的功能性产物。虽然现代法人制度也有其实用主义的面向,但却是制度性而非功能性的。必须承认法人具有便利交易、限制责任等实用主义的功能,法人人格也是商品经济的产物,其“在于经济上的合理性而非哲学上的合理性”[注]李永军:《民法上的人及其理性基础》,《法学研究》2005年第5期。。然而,法人绝不等于一时的便利构造,具有权利能力是其本质属性。而“非人主体”常常是在具体情形中的具体拟制,更类似于诉讼资格而非法律人格,其权利或责任往往仍落于具体的人。如海事赔偿中对船舶的诉讼只是一种形式,其责任最终还将落于船舶所有人或光船承租人。同时,许多所谓的“非人主体”事实上就是法人。寺庙和教会在当代就是财团法人。我国许多公园、山川、河流也是机关法人。这并非说物直接成为了法人,而是形成了对物的管理主体。当然,对人工智能也可成立管理机构进行管理,但也只能是相关管理机构是法律主体。
此外,虽然动物权利的论点常被用以佐证人工智能主体的可行性,但实际上动物并非法律主体。动物保护归根结底关注的还是人类。1990年《德国民法典》虽然增加了第90条a款规定“动物不是物”,但实际上只是将动物作为受特别保护的特殊物[注][德]梅迪库斯:《德国民法总论》,邵建东译,北京:法律出版社,2013年,第877~878页。。在对动物的犯罪中动物也不是受害人,只能由人类组织行使受害人的权利。此外,虽然美国法上有给动物开具人身保护令的奇特案例,但实际上亦未承认动物的主体资格。2015年美国曼哈顿高等法院对大猩猩开出人身保护令的同时亦明确指出,法院并未承认大猩猩是人[注]Matter of Nonhuman Rights Project, Inc. v. Stanley, 2015 N.Y. Misc. LEXIS 2816.。2014年纽约州最高法院审理的类似案件中,法院更是直接拒绝了相关人身保护令请求,并同时指出大猩猩保护属于动物福利立法问题[注]People ex rel. Nonhuman Rights Project, Inc. v. Lavery, 2014 NY Slip Op 08531.。同时,虽然美国法上可将动物作为信托受益对象,实际上其亦未承认动物的主体地位,仅旨在回应动物所有人处分财产的愿望。由此可见,动物在现代法律体系中并无主体地位。就动物保护而言,其核心乃立足于伤害动物有悖于公众感情。因此,试图通过“非人主体”论证人工智能主体可能性的思路是错误且荒谬的。
二、人工智能的内在局限
意识、意志、理性三者密不可分,并内化于法律主体之中。意志被认为是“实践理性”的体现,而意识又被认为是理性的前提[注]李海星:《主体自由:康德道德法则的价值底蕴》,《社会科学家》2009年第8期。。法律主体更被认为是具有“意志—主体—理性”的抽象结构[注]李永军:《民法上的人及其理性基础》,《法学研究》2005年第5期。。也就是说,以意志承认人的理性能力,又以理性考察主体的可归责性。因此,人工智能可能有自主意识、自由意志、理性思维等命题一直是论证人工智能法律主体的核心。“人工智能发展论”主张,人工智能基于复杂的算法可能超出程序的设计实现自主活动,可推断人工智能是具有一定的思维能力与认知能力的[注]刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期。;在未来还可能实现在所有领域具有通用智能的强人工智能[注]刘宪权、房慧颖:《涉人工智能犯罪的前瞻性刑法思考》,《安徽大学学报(哲学社会科学版)》2019年第1期。,甚至是全面超越人类的超人工智能[注]马治国、田小楚:《论人工智能体刑法适用之可能性》,《华中科技大学学报(社会科学版)》2018年第2期。。然而,“人工智能发展论”对人工智能这个概念究竟所指何物,实则缺乏清晰认识,既有将人工智能等同于现代科技产品的,也有用科幻文艺作品中的场景想象人工智能的。通过对人工智能的考察即可发现,现阶段人工智能虽有一定的自主性,但远未实现通用的智能,更谈不上形成自主意识。人类意志在本质上是机器所无法模拟的。对人工智能的展望与设想并不能等同于现实存在的冲击与挑战,法律主体制度无法亦不应回应“人工智能发展论”不切实际的幻想。
(一)自主意识的缺失
人工智能概念的提出者麦卡锡认为,人工智能是“关于智能计算机程序的科学”[注]John McCarthy, What is Artificial Intelligence?,http://www-formal.stanford.edu/jmc/whatisai/,最后访问日期: 2018-12-12。。罗素和诺维格进一步指出,人工智能实质上是“一种现代的方法”,具有像人一样思考、像人一样行动、合理地思考、合理地行动四个维度[注][美]罗素、[美]诺维格:《人工智能:一种现代的方法》,第3版,殷建平等译,北京:清华大学出版社,2013年,第3页。。从这个意义来看,人工智能的目标的确是获得人类的思维和行动能力。必须承认,目前人工智能在技术方法上已实现许多重大突破。人工智能科学已掌握了包括专家系统、贝叶斯网络、马尔科夫模型、神经网络模型、遗传算法、递归搜索、组合方法等多种工具,机器亦具有了深度学习、语音识别、自然语言处理、图像识别等多项功能。这些功能通过搜索引擎、定向推送、信息过滤、机器翻译等具体应用进入了人们的日常生活。具有连通性、自主性、智能性的智能机器人亦开始逐步普及。无人驾驶汽车、无人机、手术机器人、陪伴机器人、机器假肢等亦进入了社会公众的视野。然而,人工智能的技术目标始终并未实现,目前尚未出现一种可取代人类的通用智能。所有已实现的人工智能应用都只是一种辅助性的智能工具。在现阶段谈论人工智能的“奇点”,认为人工智能有意志、意识、理性甚至灵魂都是荒谬的,更无法以此出发论证其主体地位。
1.人工智能的技术局限性
当前的人工智能并不那么“聪明”,有时甚至被戏谑为“人工智障”。如2018年宁波市花费数百万建设的闯红灯自动抓拍系统就闹出了将公交车上的广告识别为“董明珠闯红灯”的笑话。号称人工智能的扫地机更常常是绕屋子十圈后完美避开地上垃圾。在一些时候,人工智能又表现为“有多少人工就有多少智能”。2018年科大讯飞被爆出雇用真人同声传译修正智能同传,此后其竟声称是“人机耦合”的模式。在人工智能炙手可热的今日,人工智能的智能更需要一些“冷思考”。
从技术层面来看,人类轻而易举能做的事情对现阶段的人工智能都是极大的挑战。如人能轻易地从嘈杂的环境中分辨出特定人的声音,而谷歌最先进的人工智能最近才初步解决了这一难题。人能从千万人中识别出特定脸庞,但人脸识别系统却不时出错。AlphaGo的确战胜了李世石,但AlphaGo消耗了440千瓦能量,而人类大脑只会消耗大约20瓦能量。并且AlphaGo的功能是单任务的,在下围棋外实无法完成其他任务[注][美]皮埃罗·斯加鲁菲:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,北京:人民邮电出版社,2017年,第30页。。确实,波士顿动力的机器人能奔跑、跳跃、翻滚,但任何一种野兽的运动能力都可能超过这一制造精密的机器人。
2.自主性不等于自主意识
虽然人工智能并无想象中完美,但其自主性的能力还是常常使人惊叹。与传统计算机不同,人工智能可以通过机器学习而在不同的环境下产生不一样的表现。通过自主学习,人工智能有时还能实现创新。AlphaGo Zero在三天之内便通过“左右互搏”的方式自学成才,打败了前任AlphaGo。微软人工智能程序“小冰”还出版了一些诗集。时至今日,计算机科学家对人工智能如何从数据中产生新知识的过程仍不甚明了。人工智能的计算过程实际上存在黑箱。然而,人工智能黑箱问题并不能简单等同于人工智能具有自主意识。黑箱问题的根源并非人工智能用了人看不到的方式“思考”,而是当前人工智能采取了神经网络、深度学习等算法而导致数据极其复杂。当前,人工智能科学亦致力于提高数据的可解释度。
人们容易将程序的自主性解释为自主意识的原因在于,人工智能自主意识的想象深深植根于人们对人工智能的期许之中。不少学者已经发现,人工智能的话语体系充满着拟人化的修辞。索罗姆即敏锐地发现,“智能”“学习”“自主”等话语常被用于描述人工智能及其实施方法,“语言”“记忆”“指令”“读”“写”等词汇又被用于描述计算机程序[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。心理学实验表明,通过拟人化的想象,人类容易将“把人格化的属性赋予他们所认为的有生命的东西”[注][美]温德尔·瓦拉赫、[美]科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,北京:北京大学出版社,2017年,第40页。。当前人工智能自主意识的推论便是这么一种想象。
(二)意志和理性的缺位
对法律主体而言,在自主意识的基础上,更重要的是意志和理性。与人工智能不同,人是自然的造物,虽然人类的自由意志亦无法摆脱自然秩序的约束,但人仍能进行有选择、有目的的认识活动。正是在这个意义上人具有意志。人工智能与人类的最根本区别即在于人造性。基于人造的事实,机器仿真不仅受自然规律约束还受算法编程控制,其自主性仍与人类意志和理性存在诸多区别。
1.意志并非逻辑运算
人工智能的判断是逻辑运算的结果,而人类的意志则表现为非逻辑化的选择。人类明辨是非曲折、具有喜怒哀乐、经历生老病死,其选择并不是简单的计算。如边沁所言,人活在快乐和痛苦的主宰之下[注][英]边沁:《道德与立法原理导论》,时殷弘译,北京: 商务印书馆,2000年,第57页。。人的七情六欲不仅仅是形式逻辑,更是内分泌系统影响的化学信息和千万年来进化的结果。因此有学者根据拉康的欲望主体理论指出人工智能无法成为法律主体[注]龙文懋:《人工智能法律主体地位的法哲学思考》,《法律科学》2018年第5期。。
或许仅凭人工智能不是欲望主体而否定其法律主体地位显得突兀,但人工智能“无欲无求”至少能说明其不可能具有自由意志。法哲学上的经典命题都是基于人的欲求。霍布斯在“自然状态”下即假设了“人类贪婪”[注][英]霍布斯:《论公民》, 应星、冯克利译, 贵阳:贵州人民出版社,2003年,第4~5页。。庞德在“文明社会”中假设了“善意行为”[注][美]罗斯科·庞德:《通过法律的社会控制》,沈宗灵、董世忠译,北京:商务印书馆,1984年,第60~61页。。杜兹纳更是将人权视为“欲望的公开化或法律化”[注][英]科斯塔斯·杜兹纳:《“人权的终结”六论》,江兴景译,《法学家》2009年第2期。。人的欲求使其关注自身的利益以及人类整体的福利。正是基于人的欲求,人才充满想象力并对未来充满期许。而目前的人工智能虽然能模拟一些情感,但没有人生计划,不知生命的意义。因此,在人工智能实施营救时,其很可能无法理解泰坦尼克号沉没时妇女、儿童、老人先走的意义,而采用纯粹功利主义的逻辑,优先选择生存概率大的一方。事实上,人工智能的这些抉择仍依赖于算法的设计。人类编写的代码确保了人类对机器的最终控制。由此,当前自动驾驶系统设计中最为困难的问题之一亦是各类“电车难题”的变种。
2.理性不同于智能决策
作为法律主体关键的理性,是人独一无二的特质。康德通过其“三大批判”表明,理性的人是认识、道德与审美的主体。康德的著名论断“人是目的”即表明,人作为“有理性的生灵”本身就是目的,不能仅成为“供别人使用的手段”[注][德]康德:《法的形而上学原理——权利的科学》,沈叔平译,北京:商务印书馆,1991年,第48页。。黑格尔亦指出,人因理性而具有目的[注][德]黑格尔: 《历史哲学》,王时造译,上海:上海书店出版社,1999年,第73页。,通过理性人能对自身不断审视,“在有限性中知道自己是某种无限的、普遍的、自由的东西”[注][德]黑格尔:《法哲学原理》,范扬、张企泰译,北京:商务印书馆,1982年,第45~46页。。而人对目的的追求,便形成了人类的历史。相比而言,人工智能既无自我意识也无自省能力,难以构成杜兹纳所言的“自主自律”主体[注][英]科斯塔斯·杜兹纳:《人权的终结》,郭春发译,第3页。。其数据能被任意删除、添加、隐藏,无法形成对于自我过去、现在与未来的清晰认知,也没有“反求诸己”的能力,更无法具有本身目的。
有学者将人工智能定义为“行动理性”[注]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。,实际上是混淆了智能与理性的关系。人工智能或许具有智能,但不具理性。弗洛姆即指出,“与智力相反,理性是人类通过思考把握世界的能力,智力是人类通过思考改造世界的能力。理性是人类获得真理的工具,智力是人类有效改造世界的工具;前者是人性中至关重要的,后者属于人类的动物性”[注]Erich Fromm, The Sane Society, Journal of Political Economy, vol. 26, no. 6, 2001, pp.26-30.。人工智能不具理性绝非基于“不是人类”的循环论证,而是基于其与多因素综合作用形成的人类思维方式存在本质区别。正是基于这种特殊的思维方式,人类具有辩证思维能力。而人工智能则无法跳出规则系统进行批判性的反思。因此,人工智能无法明辨是非。如2016年微软开发的人工智能Tay一天之内就学会了发表粗俗和歧视性的言论。
3.意志和理性是人类的专属
人在生物分类上自称为智人,智慧是人类的基本属性。斯加鲁菲即指出,智能和愚蠢是人的属性而非机器的属性,“谈论机器的智能,就像在谈论人的叶子”[注][美]皮埃罗·斯加鲁菲:《智能的本质:人工智能与机器人领域的64个大问题》,任莉、张建宇译,第108页。。人的意志和理性绝不仅仅是算法,“其产生于理性、情感、抽象分析、经验、记忆、教育、无意识动机、生物化学等复杂的相互作用”[注]Mindaugas Naucius, Should Fully Autonomous Artificial Intelligence Systems Be Granted Legal Capacity, Teises Apzvalga Law Review, vol. 17, no.1, 2018, pp.113-132.。当然,“人工智能发展论”也可如重新定义法律人格一样重新定义意志和理性,但这种讨论是毫无意义的。意志和理性在本质上是用于定义人类的。
虽然有学者认为,法律区分权利能力与行为能力,并未否认缺乏理性和意志的人类具有人格,以意志和理性为理由区别对待人工智能可能是“物种歧视”[注]F. Patrick Hubbard, Do Androids Dream: Personhood and Intelligent Artifacts, Temple Law Review, vol. 83, no.2, 2011, pp.405-474.。事实上,缺乏理性的精神病人和未成年人都有实现理性的可能性。从所有人类都是目的而非手段的角度而言,对“弱而愚”的人进行保护也是人类文明的体现。申言之,意志和理性尚为人类的专属,人工智能并没有像一些学者所推测的“通过深度学习产生自主意识和意志”,更不因此具有权利能力和行为能力。
(三)强人工智能的迷思
“人工智能发展论”的一个关键论点即,未来人工智能可能得到极大提升。索罗姆认为,“未来的生命与现在的情形非常不一样”[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。“奇点论”者库兹韦尔预计,人工智能会沿着“摩尔定律”实现持续增长,2045年计算机将超越人类[注][美]库兹韦尔:《奇点临近》,李庆诚、董振华、田源译,北京:机械工业出版社,2011年,第1页。。由计算机科学上强人工智能这一目标展开,“强人工智能人”理论主张未来具有自主意识和意志的通用机应成为法律主体[注]刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。。然而,至少在法学意义上“未来已来”是一个伪命题。强人工智能的未来只是一种计算机科学上的假设。甚至众多科学家对“奇点论”提出了质疑。在人工智能尚未“为权利而斗争”的当下,法律需保持应有的谦抑。
1.人工智能权利诉求尚未提出
法学理论研究无法以浪漫的科幻小说为依据。目前,人工智能从未主张也无法主张权利。计算机科学家多明戈对符号学派、联结学派、进化学派、贝叶斯学等人工智能技术方案进行考察后指出,再强大的计算机也是人类意志的延伸,拥有“终极算法”的强人工智能出现的概念为零[注][美]佩德罗·多明戈:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,北京:中信出版集团股份有限公司,第361页。。虽然目前某些机器人以某种形式被“登记”,携带其出行时可能需要另行购票,但是本质上这种登记与动产登记并无区别,为其购票亦如同携带大件行李而购票。2017年沙特阿拉伯赋予机器人索菲亚“国籍”与2010年日本富山县登记机器人帕罗“户籍”,显然同属于宣传手段。无论是索菲亚还是帕罗,都无法获得独立财产,也无须纳税,既没有主张自己的权利,也没有主张他们具有权利。此外,某些与机器人申请结婚、举办婚礼的“奇闻”更纯属闹剧与炒作。
值得注意的,2016年欧盟法律事务委员会《机器人民事法律规则》、2017年俄罗斯“格里申法案”以及2018年韩国《机器人法案》等立法建议均曾呼吁人工智能主体地位。然而,到目前为止并无任何一个国家接受了类似建议。即便是这些建议本身,最终仍以人作为目前的责任承担主体。如《机器人民事法律规则》建议目前应由制造商、经营者、所有人或用户对机器人致害承担严格责任并建立机器人责任保险制度;“格里申法案”试图通过动物致害责任与高度危险责任以解决人工智能致害问题;《机器人法案》中机器人致害责任亦为特殊的产品责任。同时,这些立法建议的主要价值亦不在于人工智能主体的呼吁,而在于人工智能监督管理、伦理规范、安全保障、用户权益、行业自治等多方面内容。
2.“未来法治”需以现实为依据
未来法治并不等于为未来立法。法治应是对现实问题的回应,而非对科幻故事的附和。具体而言,人工智能主体的立法主张可以分别从新型权利生产与法律变革的角度予以研判。
从新型权利的生产机制来看,新型权利“是一个发现的过程,而非一个创造的过程”[注]参见陈彦晶《发现还是创造:新型权利的表达逻辑》,《苏州大学学报(哲学社会科学版)》2017年第5期。。人工智能的新型权利亦需在法律原则与法律精神下生成,切不可无中生有。一方面,无论“利益说”还是“意志说”,权利理论均无法否认主体意志的重要性。权利的本质是一种“合理的期望”[注][美]罗斯科·庞德:《通过法律的社会控制》,沈宗灵、董世忠译,第42页。。如前所述人工智能不具自由意志,并未提出权利要求,缺乏新型权利的主观要素。另一方面,新型权利更不能忽视其社会基础。马克思即指出,“法律应该以社会为基础”[注][德]马克思、[德]恩格斯《马克思恩格斯全集(第6 卷)》,北京:人民出版社,1961年,第291~292页。。哈贝马斯更是直接将权利视为“一种关系、一种社会惯例”[注][德]哈贝马斯:《在事实与规范之间:关于法律和民主法治国的商谈理论》,童世骏译,北京:生活·读书·新知三联书店,2014年,第111页。。新型权利生成即社会关系中形成的权利诉求逐渐产生社会正效应并获得公共理性认可的过程[注]参见姚建宗、方芳《新兴权利研究的几个问题》,《苏州大学学报(哲学社会科学版)》2015年第3期。。只有当人工智能有能力与人进行有意义的交流、参与人类共同生活、形成新型的社会关系且获得社会公共理性支持时,人工智能的主体主张才具有实现的可能性。
从法律变革的角度来看,法律变革必须坚持法治的目标,依据法律原则、规则,运用法律方法“持法达变”[注]陈金钊:《法律如何调整变化的社会》,《清华法学》2018年第6期。。面对人工智能的冲击,法律的滞后性确实有所显现。然而,其并不体现在主体层面上,而更多是一种“法律客体革命”,如大数据、个人信息等作为权利客体的问题。目前,人工智能时代并未“自生自发”地产生人工智能主体问题,法律更无须对主体问题进行回应。若无故将人工智能列为主体,既颠覆既有的法理逻辑亦难以为社会一般大众所接受,严重背离情理法相结合的修法原则。
此外,人工智能的未来不可预测,强人工智能的幻想亦有可能是泡沫。20世纪80年代的人工智能产业泡沫中,便有数不清的企业由于无法兑现夸大其词的承诺而倒闭。人工智能是否有意识、意志和理性,其是否能提出权利主张,这些都不是一个法律理论问题,而是一个客观的事实判断。如同我们无法讨论为外星人立法一般,基于幻想而提出的法律理论并没有任何意义,法律亦无须为科幻“预留空间”。
三、人工智能主体的矛盾与危害
凯尔森指出,法律主体即“权利与义务的持有者”[注][奥]凯尔森:《法与国家的一般理论》,沈宗灵译,第105页。,具有主体地位必有权利能力。又如梅迪库斯所言,权利能力乃“成为权利和义务载体的能力”[注][德]梅迪库斯:《德国民法总论》,邵建东译,第781页。。人工智能法律主体实际上即主张赋予人工智能权利能力以重构权利义务关系。然而,即便是被人工智能主体论者推崇的“有限人格论”与“电子人”理论亦无法解决具体制度设计中的矛盾。实际上,将人工智能作为责任承担主体,对受害人保护而言并无益处,实际上更可能成为开脱责任的借口。
(一)相关制度设想的内在矛盾
一切法律以人为本,法治的目标始终是人类中心主义的。人工智能主体与人类中心主义存在天然的矛盾。不加限制地赋予人工智能以主体地位显然将贬低人格尊严的价值。“有限人格论”即主张限制人工智能的权利能力与责任能力以回应人类中心主义的质疑[注]Lawrence B. Solum, Legal Personhood for Artificial Intelligences, North Carolina Law Review, vol.70, no.4, 1992, pp.1231-1287.。面向人工智能主体的具体制度设计,“电子人”理论又提出将人工智能作为法人予以登记注册[注]Steffen Wettig, Eberhard Zehendner, A Legal Analysis of Human and Electronic Agents, Artificial Intelligence and Law, vol. 12, no. 1, 2004, pp.111-135.。通过对这些制度进行考察可知,人工智能法律主体构建的设想粗糙且矛盾,其既无法平衡人工智能与人格平等、人格独立的关系,亦未能解决注册所产生的具体问题。
1.“有限人格论”推导出人格否定
基于人类中心主义的立场,在谈论人工智能主体地位时,学者们都极力避免谈论人类对人工智能的义务,而是采取“有限人格”的论证方式探讨限制人工智能的权利[注]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。。然而,享有权利正是“拥有赋予他人对应义务的充分理由”[注][美]威尔曼:《真正的权利》,浏作翔等译,北京:商务印书馆,2015年,第17页。,忽视或否定人对人工智能的义务,实际上就是否认人工智能的权利并否定人工智能主体地位。
首先,人工智能主体在民事关系中无处安放。民法调整的是平等主体之间的关系。若承认人工智能的主体地位,在民事活动中人工智能与人就只能是平等的主体。人工智能与人的交易就是平等主体之间的交易。人工智能将可以起诉人类违约,也可以要求人类对其进行损害赔偿,甚至可能享有一定人格权请求权。“有限人格论”的主张者却从未向读者表明人工智能与人在民事活动上的平等性,其反而认为“法律面前人人平等”并不适用于人工智能,并强调在人工智能与人类利益冲突时,应以人类利益优先。在民法这慈母之眼里,并不可能存在天然劣等低级的民事主体。预设的身份不对等便不可能达成意思自治下的合意。对此,有学者也提出了人工智能主体不享有民事权利的论断[注]刘宪权:《人工智能时代机器人行为道德伦理与刑法规制》,《比较法研究》2018年第4期。。实际上这一论断至少已经否认了人工智能的民事主体地位。
其次,人工智能难以取得独立的诉讼地位与完全的行为能力。我们无法想象制度设计将允许人工智能起诉人类。因此“有限人格论”又试图通过让自然人代理人工智能起诉。如“格里申法案”即建议由人工智能的所有权人作为人工智能的法定代理人。诡异的是,就连不具法律主体地位的非法人组织都享有诉权,而声称具有“高智商”的人工智能主体却更像缺乏民事行为能力的人,只能由他人代为起诉。归根结底,即便是人工智能主体论者亦无法放弃人类对机器的控制,其希望设置保证人类最终控制权的“红按钮规则”。然而这一限制与主体地位的构建存在矛盾。既然人类掌握了人工智能的最终控制权,那么机器的自主行为便可认为是人类放任的结果,可视为人类意思表示的延伸,此时人工智能主体便没有构建的必要。
再次,人工智能权利限制方案与主体主张相矛盾。实际上法人便不享有自然人的全部权利,如拉伦茨所言,“法人的权利能力是不充分的”[注][德]拉伦茨:《德国民法通论》,王晓晔等译,第57、181页。。“有限人格论”即认为人工智能无宪法政治权利、无身份权且无人格权[注]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。。然而,法人在某些情形下是可能享有宪法权利与人格权的。如美国法院认可宪法修正案中的平等保护和正当程序条款以及言论自由条款适用于法人。人工智能有限权利的范围是否与法人一致,又是基于何种理由不具这些权利,“有限人格论”并没能作出回答。更为重要的是,人工智能不是简单的机械而是与人类更加接近,这恰是人工智能主体论者的重要理由,此时又以人工智能不是自然人为由不愿承认其诸多权利,逻辑上显得并不连贯。此外,更有学者认为,人工智能主体的财产权亦受限制,应“类似于罗马法上的特有产制度”[注]张建文:《格里申法案的贡献与局限——俄罗斯首部机器人法草案述评》,《华东政法大学学报》2018年第2期。。特有产制度是家父制下无独立人格地位的家子掌握财产的特殊制度。这一主张实际上亦否定了人工智能的主体资格。
最后,人工智能无法独立承担责任。法人责任的有限性原意是将法人责任原则上限于法人自身承担,但“有限人格论”却破天荒地将责任有限性解释为人工智能承担责任能力的有限[注]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。。甚至有学者主张“刺破公司面纱”的例外规则可在人工智能主体中变为“刺破人工智能面纱原则”[注]袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。。在他们看来,独立人格与独立承担责任没有必然关系。其常借助雇主责任来论证人工智能控制者责任承担的合理性[注][美]温德尔·瓦拉赫、[美]科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,第182页。,同时提倡人工智能保险制度[注]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。。然而,这些主张恰恰说明了无须构建人工智能法律主体。原则上“刺破人工智能面纱”,实际上就是主张人工智能不具独立主体地位。根据“奥克姆剃刀原则”,“如无必要,勿增实体”。若人工智能保险制度得以建立,无法赔付的部分由人工智能背后的自然人或法人承担,那么人工智能主体更没有确立的必要。
2.“电子人”注册无法有效构建
“电子人”理论主张通过注册限制人工智能的主体资格,这种注册亦被称为“图灵注册”[注]Samir Chopra, Laurence F. White, A Legal Theory for Autonomous Artificial Agents, Michigan: The University of Michigan Press, 2011, p.182.。《机器人民事法律规则》《机器人法案》“格里申法案”等立法建议均采纳了该种理论,主张通过注册赋予人工智能法律主体地位。其中,“格里申法案”对人工智能主体的注册作了较为详细的描述。然而这种设想依然十分粗糙,存在许多无法操作的难题。
首先,人工智能注册对象无法确定。人工智能有软件和硬件的区别,一个硬件下可同时运行多个人工智能软件,同一个人工智能软件也可轻易实现自我复制,有时甚至可能被病毒控制。此外,人工智能也可能与人高度融合,目前常见的情形是“人机交互”,在人工智能生物增强的语境下更是“人机合一”。从人工智能这个大概念中分离出可以注册的独立人工智能系统是极其艰难的。若一个独立的系统在注册后失去独立性将对主体地位有何影响,注册制度亦未能回答。
其次,人工智能注册的内容不甚明晰。以法人注册为例,除名称外,其还必须有组织机构、住所和财产。人工智能注册有无背后的“股东”,有无财产要求,如何确定住所均不甚明了。更为重要的是,所有法人成立又要求有一定目的,但在缺乏意志和理性的情况下,人工智能实际上无法形成自身目的。
再次,人工智能自身无法申请注册。“格里申法案”认为,机器人注册应由人类所有权人自愿登记,且在所有权人声明机器人独立地位后对第三人生效。在实际效果上,所有权人独立声明的要求不仅使得注册的法律效力成疑,亦使得人工智能的注册更像是所有权人实施物的抛弃行为。所有权人不承担声明后的责任的原因不在于人工智能具有主体地位,而在于其已经抛弃了物权,同时失去了对物的控制。
最后,人工智能注册审查的不可能。若注册意味着放弃对人工智能的实质审查,所有人便可将任何设备注册为法律主体,从而形成荒诞的结果。若实施实质审查,所谓“图灵注册”难免需借助“图灵测试”进行。然而,即便图灵自身也从未主张“图灵测试”是关于意识、意志或理性的测试,其测试的只是“机器行为的智能化水平”[注][美]罗素、[美]诺维格:《人工智能:一种现代的方法》,第3版,殷建平等译,第852页。。希尔勒通过著名的“中文屋”思想实验亦表明“图灵测试”无法判断机器的意识。其将计算机比喻成在封闭房间中不懂中文的人,当他拿到中文指令后通过查阅翻译的方式对问题进行回答,屋外的人将误以为其懂得中文[注][美]库兹韦尔:《奇点临近》,李庆诚、董振华、田源译,第275页。。由此可见,由于人工智能意识无法通过技术手段证明,“图灵注册”审查实际上将无法开展。
(二)人工智能主体的现实危害
人工智能主体论者的主要目的实为通过赋予人工智能主体地位以解决人工智能致害的责任难题。由于人工智能具自主性,可能做出无法预计的行为,设计者、生产者、所有人、管理人担心可能承担过大的责任风险,构建人工智能主体即可把人从责任枷锁中解脱出来。然而,直接将人工智能作为责任承担主体只考虑到了规避责任,却完全忽视了权利保障的要求。从实际效果出发,人工智能主体既不当转移了责任风险,亦无法实现法律的作用,最终必有害于人的权利保障。
1.无法实现风险的合理分配
正确的风险分析方法,应考虑的是人的权利保护与人工智能对权利造成的风险,并根据这些风险与现行法的关系,衡量权利保护的成本而作出取舍。从风险控制的角度而言,绝不可将人工智能致害归为“技术创新附带的、需整个社会分担的必要风险”[注]郭少飞:《“电子人”法律主体论》,《东方法学》2018年第3期。。任何技术创新都伴有技术风险,但同时也带来极其可观的收益。甚至在人工智能致害中,生产者亦可获附带数据收益——通过收集事故数据,生产者得以进一步完善人工智能。一方面让企业享受其收益,另一方面又让社会分担其风险,这是毫无道理的。法律与政策可通过知识产权与税收的手段鼓励技术创新,但不可改变市场经济盈亏自负、风险自担的原则。此外,产品责任并未让企业对人工智能承担过重风险。有生产商表示,由于自动驾驶汽车能显著降低交通事故死亡人数,所以不应在零星的无法预料的人工智能系统问题中被诉[注][美]温德尔·瓦拉赫、[美]科林·艾伦:《道德机器:如何让机器人明辨是非》,王小红等译,第190页。。此即典型的推脱责任论调。降低死亡人数仅仅指减少人为操作失误造成的死亡人数,而机械故障的产品缺陷率才是影响其被诉风险的关键。如采用自动驾驶系统后产品缺陷率显著降低,实际上其赔付风险亦降低;如产品缺陷率增高,则说明其人工智能系统存在严重问题。人工智能企业实际上主张的是,采取了人工智能技术后即应免除其原应承担的责任。这一主张是毫无理由的。
从责任承担的角度而言,与生硬构建的人工智能主体相比,人工智能企业显然具有更强的赔付能力。在现已出现的多起自动驾驶系统导致的事故中,生产者都顺利地对受害人进行了赔付,并继续进行相关产品的研发。为吸引消费者购买相关产品,生产者虽然曾抱怨赔付风险,但依然作出了赔偿承诺。如谷歌、沃尔沃、戴勒姆均表明对其生产的自动驾驶汽车承担全部责任。在此背景下,若试图通过人工智能主体构建免除责任,最终将导致责任的推诿。目前人工智能程序故障致害与无法控制的自主侵害行为实难以区分,而且人工智能致害更多时候是人与人工智能共同作用的结果。在2018年末,“达芬奇”手术机器人发生了在心脏手术时故障导致患者死亡的事故。随后即被证明医生对机器人的操作失误实为事故发生的主要原因。此前该手术机器人亦发生了多起事故,医疗人员常将责任推卸给人工智能机器人,而机器人生产者又以各种理由主张产品责任不成立,从而导致受害者索赔困难。若再以实用主义的方式将主体构建作为责任分离的手段,必将导致生产者、使用者将一切责任归咎于人工智能本身。
2.无法实现法律的作用
人工智能主体的构建将直接导致法律的多项功能在人工智能面前搁浅。首先,人工智能无法理解法律规则,其行为更是受算法决定,法律无法指引人工智能的行为。其次,法律亦难以对人工智能施加强制。人工智能本身不具惩罚的敏感性。又由于人工智能主体意味着与人类控制者相分离,由此不具有实现法人“双罚制”的可能。人工智能不具人类心理,将人工智能的死刑定义为销毁、删除,徒刑定义为限制活动,都将是难以奏效的。再次,对人工智能施加惩罚或给予表彰对人工智能和人类均无教育意义。虽然有学者主张通过编程的方式使人工智能具有奖惩的敏感性[注]Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts, Dordrecht: Springer, 2013, p.161.,但由于人工智能本身不具人类意志,其对算法的响应也无法视为法律的作用。最后,惩罚人工智能主体并无法起到慰藉受害方的作用。以人工智能致人死亡为例,单纯删除、销毁人工智能是无法使受害方心理实现平衡的。
四、结 论
从法律人格理论层面、人工智能技术层面、人工智能法律主体制度设想层面三方面分别对“法律人格扩展论”“人工智能发展论”“有限人格论”进行批判后可知,人工智能只是物,绝不可升格为法律主体。其不存在自主意识、自由意志与人类理性,不可能是自然人也不可能是法人。生硬设计的人工智能法律主体制度更存在内在矛盾且有害于权利保障。目前,“人工智能成为了人”的担心尚为时过早,法学研究者更应关心人工智能对法律客体、法律关系、法律秩序的冲击,研究代码规制中尚未解决的问题,而非基于科幻的想象探讨未来人工智能的主体地位。