人工智能法律主体论:现在与未来*
2023-01-08范进学
范进学
(上海交通大学凯原法学院, 上海 200030)
六十多年来,人工智能发展经历了“从寒冬到野蛮的生长”。[1]P9伴随着人机交互、机器自主学习、自主操控、模式识别、跨界融合等技术的不断提升,人工智能已成了这一技术的新趋势。从人类经历的哥白尼革命、达尔文革命、神经科学革命,到现在的第四次新科技革命——图灵革命①使当今世界迈入了一个“与机器人共舞”的时代——“机器人时代”。王利明教授指出:人工智能时代已经来临,它不仅改变人类世界,也会深刻改变人类的法律制度。[2]P4近几年,我国学术界——从道德、伦理、哲学界到知识产权法学、刑法学、民法学、法学理论等法学界的研究学者,围绕人工智能的道德伦理哲学以及法律主体、权利主体(包括民事主体、刑事主体)、法律责任等法律问题,多维度、多视角、多方法展开了深入研究与探讨,取得了一批高质量的学术研究成果。这些研究成果都或多或少触及到人工智能法律主体这一核心问题。应当说,人工智能法律主体问题是所有道德、法律问题的实质与关键。本文拟在已有的学术研究成果基础上,以人工智能技术发展为依托,分析正反观点之是非,反思其中存在的问题,进一步厘清作为人工智能的法律主体、权利主体、义务主体、责任主体之间的异同,并针对现在与未来的人工智能提出差序化的法律主体与权利理论,以应对经济社会发展的需求与新技术革命对未来法治所带来的挑战。
一、引论:为何讨论人工智能法律主体问题?
研究人工智能和机器人伦理与权利的美国学者贡克尔说:“无论我们是否意识到,我们已经处于机器人侵入之中。如今,机器无处不在,几乎无所不能:我们与它们在线聊天,同它们玩数码游戏,同它们协同工作,依赖它们管理我们日益复杂的由数据驱动的生活。因此,‘机器人侵入’并非像科幻小说那样,将来会有一群邪恶的机器人从天而降,肆意掠夺我们,它们事实上已经出现,不同配置和功能的机器已经迈着缓慢而坚定的步伐侵入我们的世界,以期在其中占有一席之地。与其说像美国科幻电视连续剧《银河战星》所展示的情景,莫不如说更像罗马帝国在日尔曼人的入侵下轰然倒塌的历史事实。”[3]既然以人工智能为技术的智能服务在人类的生产与生活中日益普及与广泛,那么人们自然会提出这样的问题:它们在人类法律体系中处于何种地位?智能机器、自动算法程序或其他自动系统为它们所做的决定或采取的行动是否承担法律上的责任?人工智能所导致的错误是人的错误还是机器的错误抑或人与机器的共同错误?人工智能创造的作品著作权归属是由人工智能本身所有还是自然人或法人所有?与人工智能机器人是否可以结婚?等等,这些法律问题并非是虚构的,而是已经在现实生活频发。就已出现的法律问题而言,概括起来,大致涉及以下五类问题:
第一,公民身份问题。譬如2010年11月7日,日本一个海豹宠物机器人“帕罗”(Paro)获得了户籍,而“帕罗”的发明人在户口簿上注明的身份是父亲。[4]P872017年10月26日,沙特授予机器人“索菲亚”公民身份,这成为历史上第一个具有公民身份的机器人。拥有户籍或公民身份的前提是法律主体或权利主体资格的赋予,具有户籍才能享有法律权利,具有国籍才能享有公民权利。有学者指出:公民身份绝非简单的一纸空文,而是一个人在国家法定身份的延伸。机器人“成为公民” 只是第一步,如何“作为公民”享有权利、履行义务,才是接下来令人期待的重头戏。[5]值得一提的是,沙特阿拉伯政府赋予索菲亚诸多特殊权利,比如不戴头巾、不穿罩袍便可以四处奔走的自由权,而这些权利对于传统伊斯兰世界的女性而言是不可能的。在瑞士,雇主要像对待他的雇员一样为机器人纳税;在日本,一些公司要替机器人缴纳工会费。[6]P55这些事例都说明对人工智能法律主体的某种程度的承认。
第二,与人工智能机器人婚姻问题。随着AI机器人的功能的不断完善与发展,人机婚姻不仅是可能的,而且也是现实的。不过,一旦实现了人类与机器人的婚姻结合,就会出现机器人的法律地位问题,机器人是否具有结婚权或离婚权以及收养权?其婚内权利如何保障?机器人如何继承婚后遗产?现实世界中,国内外已经出现了与人工智能机器人结婚的问题,据报道,在日本,一名35岁的男子和“初音未来”结婚了。国内一个研究人工智能的研究生在母亲、同学的见证下,与一个叫莹莹的机器人结婚。②有国外学者预测:按照现如今AI智能的发展,到2045年,人类与机器人结婚或将可以初步实现;再到2050年的时候,人与机器人的婚姻将正常化。③
第三,民事责任分配问题。1972年,美国一家保险公司与原告签订了一份保险协议,由于计算机错误,向原告发送了一项保险更新的通知,而原告基于此通知做出了改变原来保险的行为,法院认为原告基于对该通知的信任作出的改变保险行为当然有效。该错误后果应由被告承担,计算机则作为被告的代理人。[7]P453在我国曾发生的许霆ATM机盗窃案,也涉及到智能机器的民事责任问题。“自动取款机”到底是单纯的机器,还是由银行授权的法律上的“代理人”?随着智能无人驾驶汽车出现,“司机”已非传统人工司机,而是智能驾驶系统,使用者由传统的司机变成了“乘客”。2016年2月4日美国国家公路交通安全管理局在致谷歌的一封信中就承认了谷歌公司自动驾驶系统可以被合理地视为车辆的合法驾驶员,而不是车辆所载的人员。[8]此时因无人驾驶汽车所引发的交通事故法律责任到底由哪个法律主体承担?如果在设计者、生产者和使用者均无过错情况下,由他们来承担全部法律责任,将会导致不公平。
第四,知识产权归属问题。2017年5月,北京联合出版有限公司出版了“人类史上首部人工智能灵思诗集”——《阳光失了玻璃窗》,作者署名是人工智能“小冰”。试问,“小冰”是否是该诗集的真正作者?能否享有著作权?对此,有学者指出:如果“小冰”对其文字作品拥有著作权,按照现行著作权法规定,小冰将拥有著作人身权(发表、署名、修改、保护作品完整等)和著作财产权(复制、演绎、传播等)。如果作品的著作权被侵犯了,如何行使权利?如果著作的人身权由机器人的所有人或控制人代为行使,财产权由机器人的所有人或控制人拥有、行使,则人与机器人之间是代理关系吗?人是机器人的代理人吗?机器人有委托人类的权利吗?[9]无独有偶,2018 年9月9日,原告菲林律师事务所发表了一篇《影视娱乐行业司法大数据分析报告》的文章。此作品是人工智能“威科先行库”对数据信息进行加工处理、汇编创作而成,“威科先行库”是文字作品的创作者。同年9月10日,被告百度网讯科技有限公司对《分析报告》的某些内容作了修改删除。据此,原告向法院主张被告侵害了其署名权、保护作品完整权等著作权。最终北京市互联网法院认定“威科先行库”创作的《分析报告》不属于著作权法保护的作品范围。④对此,有学者指出:此案争议焦点是,人工智能“威科先行库”所创作的生成物是否属于著作权法上的作品? 如果属于作品的范畴,那么,人工智能生成物著作权是其本身所有还是相关主体所有?[10]同样针对人工智能生成作品的著作权问题,在深圳腾讯公司诉上海盈讯公司著作权侵权案中,深圳市南山区人民法院却作出了截然相反的裁定,法院认为涉案软件技术“生成”的创作过程满足著作权法对文字作品的保护条件,属于我国著作权法所保护的文字作品。⑤学术界对人工智能生成作品是否属于著作权法上的作品亦存在肯定[11][12]和否定[13][14]]两种不同观点。2000年《爱尔兰版权及相关权利法》将计算机生成 作品定义为“作品由计算机生成的,作品作者不是个人”。[15]
第五,刑事责任承担问题。譬如一家澳大利亚聊天机器人公司创建了一个名叫“我的完美女友”服务项目,结果实际上成了一家数字妓院。[1]P220这就直接涉及刑事责任问题。有学者进而提出了:如果某人组织智能机器人提供“性服务”或“淫秽表演”,那么刑法如何调整?这属于刑法上的“组织卖淫罪”或“组织卖淫表演罪”、“传播淫秽物品罪”?[16]至于机器人“杀人”或致人死亡的事件在世界各地频发。⑥英国未来实验室专家预测,“到2040年机器人犯罪将超过人类,成为大多数犯罪的主体”。[17]如果机器人犯罪,将会产生一系列棘手的法律问题:机器人是否存在犯意?如何惩罚?重新编制程序还是肢解毁掉?设计者、制造者和使用者是否承担连带责任?等等,而事实上今天的法制尚无法应对这种发展趋势。
因人工智能技术发展而出现的上述现实性法律问题,业已构成了对既有道德、伦理与法律体系前所未有的挑战,而上述所有法律问题的实质皆聚焦于人工智能法律主体问题。换言之,无论是国籍、户籍等身份问题、婚姻问题、民事与刑事责任分配与承担问题以及人工智能生成作品的知识产权问题,都面临着人工智能在法律上的地位问题,即能否获得法律上的主体资格。从目前学者们关于人工智能法律地位的研究可以看出,许多学者都意识到了该问题的重大意义,譬如有学者指出,法律主体的确定对解决任何争议都至关重要,只有先确立法律主体,才能讨论法律责任的分配问题。[18]也有学者指出:是否赋予人工智能法律主体地位是所有人工智能法律关系的先决问题。[19]P242为此,国务院于2017年在《新一代人工智能发展规划》中针对人工智能发展的不确定性所带来新挑战以及可能构成对法律与社会伦理、侵犯个人隐私等冲击问题,极具前瞻性地提出了人工智能时代下的开展法学研究课题的时代要求,重点研究包括加强人工智能相关法律、伦理和社会问题研究,开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题,明确人工智能法律主体以及相关权利、义务和责任等。因此,法学研究必须针对上述国家和社会迫切需要解决的法律问题提出完善的方案与对策。
二、人工智能法律主体论之是与非
目前国内外学界关于人工智能法律主体问题的讨论在观点上呈现一种严重分歧与对峙的现象,一些学者就人工智能法律主体资格持一种肯定的立场,也有不少学者对此予以否认。不过,无论是肯定或否定,关于人工智能法律主体资格问题的讨论,多数针对人工智能法律主体问题泛泛而论,未明确限定“人工智能”历史阶段性,忽略了人工智能的强弱之分。严格而言,现在的人工智能尚属于弱人工智能,其法律地位与未来的强人工智能或超级人工智能的法律地位是无法比拟的。按照美国哲学家约翰.塞尔最初关于弱人工智能与强人工智能的哲学定义,弱人工智能是指在研究大脑中计算机的主要价值在于为我们提供一个非常强大的工具;而强人工智能则指在研究大脑中计算机不仅仅是一种工具,装入适当程序的计算机事实上就是大脑,在该意义上,赋予适当程序的计算机实际上能够理解并具有认知能力。[20]P417当前相关研究文献往往把弱人工智能误用为“窄”人工智能,用以指代那些不能复制人类感知和意识、仅能完成单一和范围狭小任务的智能应用(如专家系统、推荐算法、人脸识别、人机对话、机器翻译等);而强人工智能仍处于科幻领域,正如华盛顿大学法学教授瑞安.卡罗所说:“弱或窄人工智能正是当今的现实”。[21]主导香港汉森机器人公司创造机器人索菲亚的世界级人工智能专家本.戈泽尔指出:“今天使用的‘人工智能’程序还非常原始,它是否具有道德地位不足以构成一个严肃的话题。从某种意义上说,它们在有限的领域里是智能的,但缺乏自主权,它们由人类所操纵。如果这样的人工智能程序被用于做一些不道德的事情,就需要操纵它做这些事情的人来承担责任。在不远的将来,情况将会有所不同。人工智能制品将拥有真正的通用人工智能(AGI),它不仅模仿人类智能,而且可以与人类智能匹敌,甚至可能超越人类智能。在这种情况下,通用人工智能是否具有道德地位将成为一个非常重要的议题”。[22]因而,人工智能研究应当包括强弱研究之分,在弱人工智能阶段,人工智能是否具有法律主体资格以及具有何种程度的法律地位需要研究;而在强人工智能阶段,人工智能的法律主体资格也将会是一个极其重要的议题。因此研究人工智能法律主体地位的学者必须明确其所研究的对象是什么,是弱人工智能或是强人工智能,从而产生不同的法律意义。
(一)人工智能法律主体论之是
关于人工智能具有道德主体资格或拥有权利的法律主体资格等学术问题,在国外学者的研究中成为一种流行观点。持肯定观点的学者(包括哲学家与法学家)通常认为,尽管当前人工智能能力有限、地位不高,但它在不久的将来会具备一个道德主体所必需的充分条件,即它是一个拥有权利的某人而不是单纯的物品。[3]P100哈佛大学哲学家希拉里.普特南指出:“我曾把判断机器人是否拥有意识所面临的问题视为机器人的‘民权’问题,因为机器人拥有‘民权’的这一天可能会来临,而且来的速度可能比我们预期的还要快。基于技术革新和社会变革的速度日益加快,完全可能有那么一天,机器人会存在,并宣称:‘我们有生命!我们有意识!’这样的话。”[23]P668-691德国多特蒙德工业大学哲学教授诺伊豪泽尔也认为:“如果有一天机器人具备了感受能力,我们可能不得不赋予它们道德主张权”。[24]P1332008年1月15日由伦敦生物中心主办的题为“机器人与权利:人工智能会改变人权的含义吗?”研讨会上,牛津大学哲学教授尼克.波斯托姆区分了弱人工智能、强人工智能与超级人工智能,他指出:“工业机器人或特定领域的人工智能算法,是我们今天社会上存在的一种人工智能;有感受能力或有意识的人工智能,我们可能会认为它们具有道德地位”;他承认:“工具本身是没有道德地位的,今天的机器人同样没有道德地位。如果机器人的认知能力和其他多方面的能力达到了老鼠或其他动物的水平,那么人们将考试思考它们是否同时也获得了感受能力。如果答案是肯定的,那么人们就会认为它们具备道德地位。”[25]美国加利福尼亚大学哲学教授埃里克·施维茨格贝尔与玛拉.加尔萨在《为人工智能辩护》一文中指出:“我们有一天也许会创造出人类级别的人工智能实体。我们所谓的人类级别的人工智能是指在智力和情感上与人类相似的人工智能,它们具备像人类一样的思考理性和实践理性,以及像人类一样的感受快乐与痛苦的能力。我们应该给予这样的人工智能类似于人类那样的道德地位或‘权利’。”[26]P98-99
从上述观点看,西方哲学界主张人工智能具有道德地位与道德权利的学者虽然持肯定性观点,但普遍认为,只有未来的人工智能才具有类似人类的认知能力与感知能力,从而给予其道德关怀或权利;换言之,关于人工智能道德地位与权利的观点是建立在人工智能达到一定认知能力与感知能力的水平上,然而这些能力在目前仍是一种推测。胡坦.阿什拉菲安指出:当前的人工智能系统和机器人不需要权利,我们甚至不需要问这个问题,因为它们只是人类行动的工具。不过他承认,这种情况最终会被“具有自我意识、理性和感受能力的未来人工智能所超越”。[27]P323关于人工智能权利问题,上述观点均采取了一种保守与观望的态度,至少在具有认知能力的未来人工智能到来之前,没有考虑赋予它们以权利。
法学界持肯定观点的学者几乎同样将人工智能权利问题赋予给了未来的人工智能。美国南加州大学法学教授斯通指出:在每一场试图把权利赋予某些新的“实体”的运动中,相关的提议不可避免地都让人感觉是奇怪的或可怕的,抑或可笑的。部分原因在于,在无权利的事物获得权利之前,我们仅仅把它们视为供“我们”使用的东西,而那时只有“我们”才拥有权利。[28]P450-501主张机器人拥有权利的美国哈佛司法部未来学家菲尔-麦克纳尔认为:“我们认为机器人有朝一日总会有权利”,而“现在拥有权利的机器人这种想法是难以想象的”。[6]P47-48加拿大法学学者戴维.卡尔弗里认为:权利来源于意识,如果一个机器人获得了意识,我们就应该考虑给予它们道德地位。如果机器拥有意识,我们就有理由相信,它可以合法地主张某种程度的权利。[29]P82学者苏迪亚认为,人工智者被定义为具有人类品格的人工智能实体,其知识水平和推理能力远超人类。这种人工智者可以成为非常有用的社会成员,它们可能享有公民权利和法律权利。[30]P106也有学者指出:任何人工制品,只要精心设计的图灵测试能证明具备自我意识、人际互惠与交互能力,就应当获得人的权利。[31]P423-424以上法学界的观点表明,人工智能法律地位问题亦指向未来具有自我意识的强人工智能,而不是当今的弱或窄意义上的人工智能。正如彼得.辛格和阿加特.萨冈所说:“如果我们所设计的机器人具备与人类一样的能力,使之刚巧具有了意识,我们就有充分的理由认为它们确实具有意识的,在那一刻,机器人权利运动将会开启。”[32]因此,只要人工智能尚未具有自我意识那刻,就没有权利,更非法律上的权利主体。美国法理学教授劳伦斯·索伦在1992年针对人工智能法律人格的可能时指出:在人工智能发展处于低谷且没有高级人工智能实物的背景下,应当按照现行法进行相对保守的处理,人工智能真正普及之后就需要考虑是否赋予法律人格的问题。[33]P1287可见,这种论证方式存在的主要问题就在于它并没有解决人工智能的法律主体问题,而是将其推迟到未来某一个不确定的时刻。
我国国内研究人工智能法律地位的学者,在坚持赋予人工智能法律主体地位的同时,也同样将人工智能视为未来“类人”的人工智能。譬如,付子堂、赵译超主张将智能机器人纳入法律主体,使其具有权利能力和行为能力,然而他们所说的人工智能是类人的行为、类人的思考、理性的思考、理性的行动的人工智能,具有自主思维能力,而这种人化的终极形式即人类创造出的“类人”是长远的事。[34]刘宪权在讨论机器人行为道德伦理与刑法规制时,直接将机器人限定为“人工智能时代机器人”,认为目前的机器人尚未有道德,未来的智能机器人才可能需要道德。[35]此外,吴锌源、王勇在讨论人工智能法律主体或机器人身份地位时都将人工智能限定于“人工智能时代”。[36][37]周详在论证“智能机器人也是人”的“权利主体论”观点时,讨论的智能机器人是“图灵革命”时代或“人工智能革命”时代的人工智能权利主体问题。[16]P9许中缘在主张赋予智能机器人有限人格的观点论证中,始终以具有“意志”的人工智能作为研究对象,认为具备相当智力和自我学习能力的机器人具有独立的意志与判断能力。[38]郭剑平在对人工智能法律主体地位予以法理诠释时,是以强人工智能作为赋予法理主体地位的载体,他认为,只有具备理性能力的人工智能才具有法律主体地位的实体要件,其中理性能力包括自由意志和情感。[10]P130也有学者径直以“强人工智能”法律主体地位赋予的路径进行研究。[18][39]因此,正如有学者指出:“真正要能够促使人工智能成为法律主体,就必须期待强人工智能的到来”。[40]这些观点均表明,肯定人工智能具有法律主体资格的学者普遍以强人工智能为研究对象,并赋权其上,从而忽视了弱人工智能法律主体资格问题。强人工智能法律主体问题要研究,但弱人工智能是否具有法律主体地位更是急迫思考的重大课题。
(二)人工智能法律主体论之非
按照国外一些学者的观点,人工智能无法拥有权利,从而否认人工智能的法律主体性。他们反对的一个基本依据是人的主体性,即人工智能不过是人类设计、制造和使用的工具性人工制品,人工智能无论其设计或操作程序多么复杂,和烤面包机、电视机、冰箱、汽车等一样都是人类的工具,它们不具备任何独立的道德地位或法律地位方面的要求权,只有人才是具有道德和法律地位、拥有权利并承担责任的主体。纽约市立大学教授米勒指出:人工智能与人类之间存在本体性差异:人类作为生物实体,是进化的产物;而人工智能是人工制造出来的物品,不具备人的本体性这一特征。他的结论是:在一个承认所有公民都享有充分人权的政治制度中,公民没有任何道德义务给予类人自动机完全人权。[41]P369-391约翰内斯.马克斯和克里斯蒂娜.蒂芬希明确指出:“机器人不过是被设计出来用于实现具体功能的机器或工具,这些机器没有兴趣爱好和欲望;它们不会选择和实现人生规划;它们不会解释这个世界,与世界互动或学习了解世界;它们不会基于自我设定的目标和对周围环境的理解来自主作出决策。它们所做的仅仅是执行一套预设的程序。总之,机器人是一台无生命的自动机器,而非自主的代理人,它们甚至连具有道德地位的物体都不是——关于权利、义务和公民资格的问题根本不会出现在人工制造的机器身上。”[42]P83-84
否定人工智能法律主体地位的学者采取的是技术工具论策略。哲学家海德格尔曾就“技术”工具论作过解释,他指出:“当我们问技术是什么时,每一个对此回答的人都知道有两种表述:一是技术是达到目的的手段;二是技术是人类活动。两种技术的定义属于一个整体,因为设定目的以及获取并使用手段达成目的就是人类活动。设备、工具、机器的制造和使用,被制造和使用的物品本身,以及它们为之服务的人类需求与目标,都属于‘技术是什么’的范畴”。[43]P4-5因而,技术只是实现目的的工具,它自身不是目的。作为技术的计算机,无论其技术如何发展与进步,都不会拥有人的主体性,“它就是一种有用的工具,仅此而已”。[44]P190弗吉尼亚大学教授戴博拉.约翰逊指出:“计算机系统是由从事社会实践和由意义的消遣活动的人士制造、分配或使用的,今天的计算机系统如此,将来的计算机系统亦如此。将来,自动的以及交互式的计算机系统如何独立运作,它始终是人类行为、人类社会制度、人类决策的产物。”[45]P195-204按照这种观点,无论人工智能技术发展到什么程度,即使是未来的强人工智能,只要不符合人的主体性特征,都不过是工具而已,不能成为道德主体与法律主体,从而彻底否定了人工智能的法律主体地位,英国人工智能专家大卫·莱维就主张:“机器人拥有权利的观点是不可思议的”。[46]P393即使莱维自己在文章中承认未来人类有可能与情感机器人结婚。托尼.J普雷斯科特针对工具论的实质指出:“机器人仅仅是工具的看法所有引发的一种后果就是间接地否认了未来强人工智能——即与人类智慧相当、甚至超越人类智慧的机器人——存在的可能。”[47]P142-149
我国国内学者的观点明显受到了工具论的影响。所有反对人工智能法律主体观的学者几乎都采取了人类的主体性与本体性的立场,坚持人工智能不具有人类的主体性,从而否认其法律主体资格。哲学学者甘绍平认为机器人作为人类工具的这一原初地位永远无法改变,否则就是本末倒置,将工具作为目的是极其荒谬的,机器人是机器,不是人,没有自由意志,它不可能作出自主的道德选择,因而无法享有人所拥有的权利,人与机器的关系就是主人与工具的固有关系。[48]P126-130吴汉东认为,机器人不是具有生命的自然人,机器人生成的目的行为,与人类有目的、有意识的行为性质完全不同,不具备人之心性和灵性,因而尚不足以取得独立的主体地位。[49]P131赵万一认为,机器人不具有人类的感知能力,没有作出认识、判断、选择等意思能力,没有人类的道德、良心、良知、伦理、宗教、规矩和习惯,不可能产生生命权与财产权,因而主张不应当赋予机器人以法律主体地位。[50]P147此外,刘练军、冯洁、梁成意、孙宏涛、付其运、郁乐、吴习彧等等诸多学者亦以人的本体性为评断标准,否认人工智能的法律主体资格。[51][52][53][54][55][56][57]刘练军指出:法律主体是人格人,必须具有意志、目的性与自律性,而人工智能却不具备这些特征,因而人工智能法律主体化势必给人类带来不堪承受之重。冯洁认为,机器人只能被作为工具,人类才为机器人的行为负责。梁成意同样秉持这种观点,认为人工智能只能作为受人役使的工具,其一切行为后果应归于制造者或控制者。孙宏涛等认为,无论弱、强人工智能在本质上都是一种工具,其智能性不能改变去其物的本质。付其运认为,人工智能不具有人的主体性,不具有独立意思表示能力。甚至有学者认为,机器人无论以何种方式承担责任,最终的责任承担者都是人,这使得它的“法律人格”显得多余和毫无必要。[58]P82上述种种观点说明,我国国内研究人工智能法律主体或权利资格的学者采取的立场与态度与国外否认人工智能道德主体与法律主体的学者观点同出一辙,都是站在人类中心主义的立场上,以人特有的主体性而否认一切不具备该特性的事物的道德与法律地位。
(三)人工智能法律主体是非之争的实质分析
国内外学者们关于人工智能法律主体论之是与非的争论,看似是两种截然不同观点与立场之争,实则是关于人的本体论之争,质言之,未来的人工智能能否成为一种与人具有相似的感知能力与自主的意志、是非判断与情感的“类人”。
主张人工智能具有道德与法律主体地位的学者将研究对象指向的是未来强人工智能体,而非现在的弱人工智能。问题是,强人工智能能否被真正赋予像人一样的意识、感知能力、自由意志、自主性、情感仍属于科技领域进一步研究的范畴,具有相当不确定性。而这些肯定论学者所采取的论证方法却是首先确定某实体表现出什么样的能力,然后推导出它应具备怎样的道德地位或法律地位,即我们该如何对待它。这种寄予未来的人工智能以道德地位或法律地位的观点,基本上是运用权利的意志论与利益论来预测性推导他们可能欲达到的结论,这种论证方式实际上具有“假设”的成分。譬如斯帕罗指出:“一旦人工智能具有意识、欲望并有自己的规划,它们就应该得到某种道德地位”。[59]P203这是一种权利意志理论。美国哲学学者彼得.阿萨罗所说:“将来某个时刻,机器人可能直接主张它们的权利”[60]P12的观点则代表了另外一种权利理论即利益论。肯定论学者尽管围绕未来人工智能法律主体地位作出了预判,但他们对于解决当下弱人工智能的法律主体问题几乎没有提出具体的可操作性方案与理论设想。
对人工智能法律主体资格持否定的学者则秉持人类中心主义理念,从人所具有的主体性这一本质特性出发,否认人工智能这种非“人”的事物的道德与法律地位。人类中心主义的基本观点认为:只有人类才是目的, 而一切非人类存在物都不过是为人类利益服务的手段,因而道德的起源、目的和标准也就只应该是为了人类的利益, 一切道德上的善恶都只应该以人类利益为标准。[61]P3人类中心主义的实质是人类理性主义,而理性主义则是18世纪以来启蒙思想家们所倡导的核心精神。如果以人为尺度与非“人”的人工智能进行比较,则必然缺乏可比性,因为人类是自然进化的产物,而人工智能则是人类自我创制的结果,其运行是按照人类所预设的智能算法程序指令进行。问题是,人与法律主体两个不同的法律概念,人是法律主体,反之则不成立,即法律主体不等于人。法律主体是法学家或法律家拟制的产物,以虚构的方式将那些不是“人”的法人、动物等实体视为“法律主体”。人工智能自然不是“人”,因此,将人的本体论与其进行比较,自然得出不具备人的主体性的结论。事实上,否定论学者同样是以权利的意志论否定人工智能的法律主体地位的,只不过,他们与肯定论学者预测结论不同罢了,肯定论学者预测未来的人工智能具有像人一样 “意志”,从而可能具有道德与法律地位;而否定论学者正好相反,他们的预测是无论怎样的人工智能都不可能具有人的“意志”,自然不会要求什么“权利”。因而,肯定论者对人类技术创新持一种比较乐观的态度,认为未来人类能够创造出类人机器人;而否定论者则坚持人类中心思想,从而否认具有意志存在的人工智能出现的可能。我们认为,讨论人工智能法律主体资格问题,必须跳出人类中心主义的圈子,即“不能以人的尺度和眼界来看待这些事物,而是要尽可能以他者的视角来看待他们”,[62]P68作为人类应该放弃人类自身的傲慢与偏见,对未来人工智能技术进步与发展秉持一直开放的姿态,而不是固步自封,才能面对未来一切可能的现实挑战。
三、法律主体及其拟制
无论是弱人工智能抑或强人工智能,若成为法律主体,具有某种权利能力、行为能力或责任能力,其关键是要在法理上阐明何谓法律主体以及何以构成,构成的方式与方法是什么,据此方可评判人工智能的法律主体问题。我们认为,无论是弱人工智能或强人工智能,都具有某种程度或方面的法律主体资格,只有明确其法律主体资格,才能寻求其相关权利、义务和责任等问题的解决方案,从而为现在乃至未来人工智能体的发展提供解决之道。
(一) 何谓法律主体?
关于法律主体的概念诸多法学家均给出过定义。富勒以私法为视角,解释了私法上的法律主体概念,他指出:“他承担义务、享有权利,并被赋予了通过协议来解决自己同他人之间的纠纷的法定权利”。[63]P31质言之,富勒所理解的法律主体是承担义务、享有权利的人。这一观点为我国主流法理学所认可,如马克思主义理论研究和建设过程重点教材《法理学》就认为:“法律关系主体,即法律关系的参加者,是法律关系中权利的享有者和义务的承担者。”[64]P126纯粹法学创始人凯尔森将法律主体称之为“法律上的人”,并将“法律上的人”定义为“法律义务与法律权利的主体”,具体而言,法律主体是义务与权利规范即法律规范的人格化。[65]P105-107庞德则将被给以合法的权利、权力和特权,被加以义务和责任,其所享有的自由得到认可的实体称作“法律单位”,这种法律单位也称作“人”或“权利和法律的主体”、“权利主体”。[66]P151法国社会法学创始人狄骥则认为,法律主体就是“在事实上作为客观法律规则实施对象的实体”;并且“只有自觉和能支配自己行为的个人才是法律的主体”,[67]P324-325从而排除其他人或组织成为法律主体。与狄骥的观点对立的是格雷的观点,他认为,法律主体是法律权利与义务的承担者,而享有权利却无义务者以及承担义务却无权利者,仍为主体;除了权利主体必须具有意志外,其他不具有意志的主体也构成法律主体如白痴、船舶、社团等。[68]P24-25
综上各学说,关于法律主体概念认知存在相同的地方:均将权利、义务的承载作为法律主体的本质所在, 都以“人”为核心构筑法律主体的内涵,简言之, 法律主体就是法律上的人。[69]虽然对法律主体概念的理解具有基本共识,但其中也存有理论差异:
第一,法律主体是否等同于法律关系主体?我国法理学教材通常均把法律关系主体与法律主体等同起来,事实上,法律主体往往是一种资格问题,只要在法律上被赋予具有享有权利或履行义务或承担责任的资格者,皆称之为“法律主体”,换言之,法律主体是一种法律上承认的一种资格或人格,即凯尔森所说的“法律规范的人格化”,没有法律,就没有主体和权利,因此,英国学者杜兹纳认为:所有人都是由法律认识和法律关系的总和建构起来的法律主体。人的第一次生命是母亲给的,而第二次生命是由法律给的。从一生下来,人在概念上或多或少是个法律主体。这个新生儿就是块空地,随着时间的流逝, 这块空地会被赋予权利、义务、特权和职责,直到过完一生为止。[70]P249法律关系主体则是具有法律主体资格者参与由法律所调整的社会关系而形成的主体,是具体行使权利和承担义务的主体。法律关系主体具有参与性、社会性、实践性,而法律主体则具有抽象性,是人在法律上地位的一种表达。
第二,法律主体是否必须具有意志?法律主体既然是法律上权利与义务规范的人格化,那么只要法律赋予某一事物具有某种“人格”,就可以成为法律主体,就意味着“意志”不是成为法律主体的必备条件。现实中,那些不具有“意志”的白痴、团体或动物也是法律主体,因此,像狄骥将只有具有支配自己行为的人才承认是法律主体的观点,以现代法学之观点无疑是不充分的,现代法学中的监护人、代理、法人等制度都是基于保障那些无法支配自己行为的人的合法权益而构建起来的。同时狄骥更强调是法律关系主体,因为只有参与法律关系之中,尤其是像格雷教授所说,就权利的行使而论,主体才必须具有意志。然而,法律主体更强调抽象的人格或资格,至于是否参与具体法律关系而成为法律关系主体并非是必备之前提。
第三,法律主体与权利主体、义务主体、责任主体之间的关系。法律主体是享有权利与承担义务的主体,因而像格雷教授所主张的那样,无论是只享有权利而无义务者或只承担义务而无权利者,均为法律主体。在此基础上,胡玉鸿将权利主体、义务主体和责任主体均视为法律主体的基本形态。[69]
(二)法律主体的拟制
实际上,所谓“法律主体”的概念与术语,都是法律拟制的产物。拟制是一种法律上的推定、假定或虚构、建构的技术,功利主义代表人物边沁指出:“我们在谈论拟制时,必须先假定它们的存在”;而“虚拟实体的存在是由想象虚构出来的,并被认为是真实的”。[71]“法律主体”这一术语就是拟制的概念,科斯塔斯.杜兹纳说:“法律创造了主体,一个逻辑上维护了法律关系的虚拟实体。”[70]P248对此,胡玉鸿教授认为:法律主体的成立源自法律的抽象建构——法律对现实存在的人赋予其法律人格,使其能够参与实际的法律活动,并享有权利、履行义务和承担责任。[72]以凯尔森的观点,法律主体作为“法律上的人”和法律义务、法律权利的主体,不过是法律规范或权利义务的人格化,他认为:“法律上的人不是一个真正的人,而是法律规范人格化的总和,对每一个人强加了义务,赋予了权利。法律上的人不是一个自然实体,而是一个由法律科学创造的法律建构,一个由法律原理解释创造的辅助概念”。[73]P93在这个意义上,法律上的自然人、法人等都是法律的创造物,是人为拟制的。因此,杜兹纳得出结论说:“法律主体是建构起来的主体,是由法律创造或虚构出来的”。[70]P249
法律主体的拟制技术与方法源自古罗马的人格拟制。在古罗马,并非所有自然人都是法律上的人,⑦要成为法律上的“人”必须具有一定的身份与地位,而代表一定身份与地位的资格是“人格”;法律上具有“人格”的人即“人格人”,才成为法律上的人,即法律主体。因而,在罗马法上,自然人不是“人”。[74]P2霍布斯在《利维坦》中就认为:“人格人在拉丁文中常常被当作人为的面容或假面”;它是一种拟人或虚拟人[75]P123。日本法学家川岛武宜也指出:“作为法律关系归属点的‘人’乃至‘法律人格’与生活中的个人是两个层面上的不同概念。”[76]P20凯尔森明确指出:作为man的人是一个生物学的和生理学的概念,作为person的人却是一个法学的、分析法律规范的概念。[73]P94作为生物意义上的人与法律上的人格人是分离的。由于罗马法中的法律人格是拟制的,从而可以将不具备“人格”的人排除在法律主体之外,也可以把“人格减等”的人视为或不视为法律主体。尹田教授指出:罗马法上这种人与人格分离的理论,为团体人格观念的形成提供了至关重要的技术支持,当法律人格的赋予纯粹成为法律技术运用的产物,其与法律主体是否为生命现象并无必然联系时,赋予无生命的团体以法律人格的可能性便得以出现。[77]马俊驹教授也对此亦认为:“人格”与“生物人”既然能够分离, 那么“人格”这种面具就不见得一定戴在“生物人”头上, 它还可以根据社会需要戴在某些团体或财产之上,使其具有民事主体的资格, 并可以像“人格人”一样参加各种各样的民事活动。正因为如此, 判断“生物人”是否拥有“人格”,并不是以其“生命”的有无为唯一标准的。一个有生命的奴隶并不能成为拥有“人格”的法律人, 而一个没有生命的社会体或财产则可能被赋予“人格”成为民事主体。[78]日本法学家星野英一进而指出:所谓“法律人格”是这样一种意义,即使是人以外的存在,对于适合于作为司法上权利义务的主体的概念,也会得到承认,可以说法律人格意味着并不一定与人性有联系的法律上的特别的资格。[76]P21可见,法律拟制技术与方法使得法律主体这一概念具有极大包容性与整全性。历史上,奴隶的解放、女性政治的崛起、有限责任公司的成立、股份融资证券的发明、劳资关系的转变,都建立在对既有的“法律人格”理论的突破。[79]P80其实质是法律主体处在隐喻的位置,法律赋予了他各种能力和权力,法律规范表现的是人为法创造的法律人,而不是现实的人。德国民法学家罗尔夫.克尼佩尔指出:“只有人格人是法律主体,人并非必然是法律主体”。[80]P59正如莫菲所说:“法律主体把‘自己’当作法律的一张脸或表皮,这就是说各种各样的投射将会在这张脸上反映出来。”[81]P196
(三)人工智能法律主体的构造
从法律拟制技术与方法看,法律主体就是法律权利与义务的人格化,具有“人格”并成为法律上的人即法律主体,与真实的、自然进化的人是分离的。马俊驹教授认为:罗马法上的“人格”概念,是建立在“生物人”与“法律人”彼此分离的基础之上的;罗马法上的‘人格’一词, 即是对这种分离的描述与总结。罗马法直接通过法律的语言,使“人”与“人格”分离提炼、表述了出来, 使之上升为了一种有意识的法律技术。[82]由于“人格人”是想象拟制的结果,因而并非一定与生命、人性有联系,它只不过是一个“假设虚构的本质领域”,[83]P455像星野英一所说,即使是人以外的存在,只要适合于作为法律主体,也会得到承认。中世纪动物会接受审判,记录在案的包括鸡、老鼠、田鼠、蜂蜜、猪的起诉。[84]对此,有学者指出:无论是罗马法实践,还是中世纪的老鼠审判,实际都深刻挑战了近代以降以自然人为鹄的法律人格理论,也为探讨人工智能的法律身份留下了充分的想象空间。[79]法国哲学家布鲁诺.拉图尔提出了“行动元”概念,在他看来,不必将“行动元”想象为活生生的个人或团体,也不需它具备诸如灵魂、心灵、同情、意志、情感、反思等主体能力,只要通过类似“图灵测试”的某种测试,就可以推动形成一个开放的行动元法律秩序。[79]上述观点表明,是否具有自然人的主体性并非决定性要素,关键在于获得罗马法意义上的“人格”身份。无论是智人、团体或人工智能,都可以通过人格化的法律面具,获得法律系统的功能归因,获得“权利”,从而参与社会系统的运作过程。[79]如此一来,法律主体作为法律权利的车轮,一直在抽象的人性和具体的人之间来回奔走,从而创造出法律独特的叙述性话语并对世界产生了各种影响。[70]P104
在人工智能时代,我们应该回到近代之前在罗马法传统之上所形成的人与人格相分离的法律人格理论,而不是近代启蒙运动以来由《法国民法典》确立的“人的理性”或《德国民法典》确立的人的权利能力为标准、进而演绎成了以“人”为中心主义的法律人格理论,因为随着现当代生态文明与环境伦理道德的发展,人类已进入一个非唯人类为中心的时代。因此,人类必须认真对待未来世界人工智能的法律主体拟制问题,摆脱纯粹功利主义与工具主义对待人工智能体的方式与思维,以“非唯人类中心”的哲学价值观认真对待那些非“人”的实体,通过法律拟制而赋予一定范围的法律主体资格,最终做到人类与人工智能和谐共舞。
四、作为弱与强人工智能的法律主体
(一)作为弱人工智能的法律主体
迄今为止,讨论人工智能法律主体的学者,对于弱人工智能的法律地位没有予以足够的重视。实际上,即使弱人工智能体,也具有了一定的“智”,在某种情形下,可能或已经成为人类的代理人,此时是否需要赋予其法律主体地位?譬如银行系统普遍使用的“自动取款机”,一旦出现纠纷,谁应当承担责任?曾发生过案例:某人从自动取款机上欲取一万元现金,结果机器吐出了两万元,他取走自己的一万,而把另一万放在了摄像头下就离开了。事后,银行人员找到取款人,要求其赔偿。自动取款机多吐出来的钱到底是谁的责任?是银行的还是机器本身的?取款人有无义务保管多余的钱?有学者就主张说:“自动机器是人类行动者的代理,因为在机器缺席的情况下需要人去完成机器的任务。既然如此,机器也应该代理人类行动者在相同情形下所具有的权利和责任。”[85]按照霍布斯的观点,一个虚拟的人即人格人被认为代表他人的言语与行为。[75]P123此观点表明,人类不仅仅把智能机器人当作一种工具,而应具有某种程度的法律主体,毕竟自动取款机代替的不是工具,而是使用工具的银行工作人员,所以机器就应当被视为是银行权利和责任的代理人。斯坦福大学杰出人工智能专家杰瑞.卡普兰就指出:当人工智能代表你行动时,出现的责任该谁承担?你可能会认为答案很明显,应该是你,在今天可能确实如此,但这并不公平,而且在未来很有可能会因某些合理的原因而改变。[86]P82因而,“当代理人根据授权订立了一项协议时,他就可以使授权者像亲自订约一样受到约束,同时也使他同样要对该约的全部后果负责”。[75]P124自动驾驶汽车也同样面临这类法律问题,自动驾驶汽车的目的不是旨在取代汽车,而是取代驾驶员。2016年2月4日美国国家公路交通安全管理局首席法律顾问海默斯堡在写给谷歌自动驾驶汽车项目负责人克里斯·厄姆森的信中,就表达了“一个计算机系统可以成为合法的汽车司机”观点,他说,美国国家公路交通安全管理局“将在谷歌描述的汽车设计背景下解释‘司机’,即指SDS(自动驾驶系统),而不是指任何汽车乘客。”⑧当自动驾驶汽车导致了交通事故时,由谁来承担责任?是自动驾驶汽车独立承担还是与程序设计者、生产者、销售者等共同承担连带法律责任?[6]P55如果纯粹由无人驾驶汽车造成的责任,而让制造商去承担,不仅将会让制造商感觉无人驾驶时机尚不成熟而放弃研发,而且必然会导致非常不公平的问题。这也是为什么2017年欧盟议会提出了立法建议《欧盟机器人民事法律规则》而应当将最先进的自动化机器人视为享有特定权利并承担义务的“电子人”地位的原因。类似智能机器人譬如社交机器人、情感机器人等的出现皆会面临类似法律问题。人们对待这类人工智能,并不仅仅把它们当作宠物,还可能当作朋友、知己和恋人,至于人工智能是否知道或理解人类的这份情感,人们并不在意。⑨的确现实生活中已出现了与机器人结婚这类棘手的法律问题。此外,亦已经出现了关于人工智能创作作品的著作权归属的法律问题。上述诸多问题都是弱人工智能下出现的,从而有学者认为机器人主体地位的趋势已经形成,因此需要考虑其适当的法律资格与地位,制定并完善相关的法律制度。[35]P44只有在法律上赋予其主体地位,才能在法律责任分配上更加公平地实施,对没有过错者的权利给予更恰当的保护。
前文已述,法律主体与权利主体、义务主体或责任主体之间是种属关系,权利主体、义务主体与责任主体均包含在法律主体之范畴中,换言之,无论是作为权利主体、义务主体还是责任主体,都可作为法律主体而存在。格雷指出:“在我看来,享有权利却无义务者,或是承担义务却无权利者,仍是法律视野中的主体。”[68]P24这种人格人或法律主体的资格后来被历史法学代表人物萨维尼以“权利能力”[80]P63所取代。我国法理教科书通常把法律主体所享有的权利和承担义务的能力称之为权利能力。[64]P126-127只要具有权利能力,仅仅享有权利而不行使权利,即使不具有意志,也是法律主体,譬如法律上把无行为能力者如白痴、精神病患者、八周岁以下未成年人等视为法律主体。格雷教授指出:各类法律体系对法律主体的规定中包括了变态自然人如白痴、超自然存在、动物、无生命体如船舶等,而这些并无真正的意志,但它们“因享有法律权利而作为法律主体”;还有一种法律主体是作为义务承担者,如在法律发展的早期阶段,动物因某些原因被当作承担了某些法律义务,一旦违反这些义务便承担处罚的责任。无生命体亦可因法律义务而作为法律主体,这是假定物体本身具备理智而拟制为法律主体。[68]P25,33-42可见,法律主体资格的具备与否,是以是否赋予“人格”之身份或“权利能力”为资格前提的,它不需要法律主体或义务主体是否具有“意志”或“意识”,只有权利主体才要求法律主体具备“意志”要件,格雷教授明确指出:“对于义务的承担者来说,法律义务并不暗含任何意志的实施,因此法律义务的存在并不要求受约束的主体具有某种意志,而法律权利的行使则以意志为必要条件,权利主体必须具有意志”。[68]P24-25通过法律拟制技术与方法仍可将弱人工智能作为法律主体看待,不过,这种法律主体必然不是完整意义上的法律主体,仅仅作为具有权利能力、享有某种权利的法律主体,所以,人们可把人工智能视为具有权利能力而缺乏行为能力的道德主体与法律主体,这也就意味着弱人工智不能成为责任主体,承担其应有的法律责任。
法律赋予弱人工智能以主体资格的好处就在于解决权利主体的权益保障问题以及法律责任中的责任分配公平问题。如公民身份的确立有利于保障人工智能体的某些权利如行动自由权、知识产权中的著作权、性机器人婚姻中的结婚权以及性权利[87]P20-32等;同时在法律责任的分配问题上,当责任主要或完全是由人工智能体的原因所致,那么在设计者、生产者和使用者均无过错而由他们来承担全部法律责任将带来不公平的问题时,就可以考虑由人工智能体本身所带来的责任问题。基于弱人工智能尚不构成责任主体,因此有学者提出,在自动驾驶领域,最合理的方式是建立智能机器人的强制保险制度,购买智能机器人的拥有者、使用者必须购买强制保险[88]P150,其赔偿责任可由保险公司承担,从而解决责任分配中的公平问题。在目前这不失为一种好的解决问题的方式。
(二)作为强人工智能的法律主体
弗朗西斯.福山说过:“也许谈论尚未在技术上可行的基本权利是一件令人奇观的事情,但这就恰恰是当前权利话语的迷人张力。”[89]P107目前关于强人工智能法律主体资格与权利的讨论虽尚还处于“假说”阶段,但世界各国诸多跨界学者都参与了讨论与争鸣,说明了这一问题的“迷人张力”与重要性。倘若数学家弗诺.文奇提出的人工智能的“奇点”⑩到来之后,人类制造出了具有超人智慧的人工智能,那么其意义不言而喻,诚如霍金所指出,它“将是人类历史上的最大的事件”。[90]P255问题在于,这一“奇点”何时出现?曾有学者对200名研究人员做过一次非正式调查:42%的人认为2030年前,25%的人选择在2050年前,20%的人认为2100年前,2%的人认为永远不会发生。[90]P257作为在计算机设计和软件开发有25年实践经验的马丁.福特承认:“建立一个真正的智能系统,一台可以构思新想法,可以意识到自己的存在,可以进行连贯对话的机器仍然是人工智能所追求的‘圣杯’”;在他看来,超级智能的发明,最终不可能实现,或者只能在遥远的未来才有可能。福特的观点获得了许多顶尖脑科学研究人员的支持,麻省理工学院研究认知科学60多年的乔姆斯基说,我们离建立人类水平的机器智能还“遥不可及”,称奇点是“科幻小说”。[90]P256,263华裔人工智能专家李开复也指出:“未来机器人是否会变得和人一样,具备自主意识而且能够独立思考?这恐怕是一个目前仍难以回答的问题,没有人知道确切答案。”[86]序二
的确,当下人工智能技术尚处于无生命的“弱”意义阶段,但随着人工智能发展,机器将会被看作是活的。美国未来学家雷.库兹韦尔预言,2045年是极具深刻性和分裂性的转变时间,“非生物智能在这一年将会10亿倍于今天所有人类的智慧”。[91]P80人工智能专家威尔齐格更明确指出:“一代机器人正在迅速成长,一种能看能读、能说会道、能学会用甚至有感觉情绪的机器人即将问世”。[6]社会哲学家萨卡尔则预言有一天技术将会有“精神”,他认为精神存在于万物之中,进化是这种精神对总意识、神性和自我实现的反映和发展。一般说来,人类的精神最发达,动物次之,植物再次之,岩石最差。一旦技术能发展成更明敏的东西,它就会像大脑一样成为精神的更好载体。因而,动物、植物和机器人应该有权利,不是因为它们像人类,而是因为它们是什么。[6]致力于价值理论与数理情感研究的仇德辉乐观指出:“情感是智能的一部分,而不是与智能相分离的,它是一种特殊的智能,意志是一种特殊情感,因而也是一种特殊智能,我们既然能够实现狭义智能的人工化,只要找到科学的研究方法和正确的研究思路,就必然能够实现广义智能(即情感和意志)的人工化。”[92]P41他还提出了研制出具有真正情感机器人或人工情感的步骤。因此,菲尔·麦克纳利等学者坚信“机器人有朝一日总会有权利”;如果机器人自己没有权利,它们就不会在诉讼中成为裁定的一方,它们就不会有法律地位,它们在法律上就不会是真实的。[92]P47,54
无论如何,在强人工智能时代,法律主体资格问题是迟早需要面对的核心问题。无论基于权利的意志理论还是利益理论,人工智能作为法律上的主体都是能够成立的。反对人工智能法律主体的学者是以人的意志为标准来评判人工智能的“意志”问题,这本身就是一种误区。任何人之外的非“人”实体都不可能具有人一样的意志。倘若人工智能“技术”具有一种像萨卡尔所说的“精神”,那么,这种“精神”就是具有“意识”与“意志”的反映,只不过,人的意志是自然进化的结果,而人工智能的“意志”来自于计算程序,按照程序设定,它能够自主“意识”,事实上这本身就是一种有别于人的意志的“意志”。具有不同于人的意志的“意志”的人工智能,则会提出其相关的权利主张或要求。这种观点现在看起来似乎是荒谬的,但在未来的某个时刻可能成为现实。正如萨布尔比所说:“在机器人自己开始提出要求之前,不必紧张”。[93]P341同时,人工智能体一旦出现并与人类共同生活时,它们就有其自身的利益存在,譬如受到尊重而不被侮辱或虐待等。研究表明,人类有时会对计算机和机器人进行虐待,尤其是当他们被看作是类人的时候,这就引发了重要的伦理问题。[94]P326因此,无论基于意志论或利益论,人工智能都可以具有权利与利益,从而可能成为法律上的主体。因而,为应对未来人工智能的法律挑战,人类需要站在“他者”的立场上,设身处地地考虑人工智能体自身的法律地位问题。譬如,让人工智能遵循人类的法律似乎不太可能,然而它们有它们的“法律”,那就是“算法程序”。一旦人工智能违背了人类预设的算法规则,就可以视为“违法”,从而承担相应的法律义务与责任。法国两位律师阿兰.本苏桑和杰里米.本苏桑就拟定了《机器人法》,将制造、应用和使用机器人的法律责任以及机器人的法律地位与权利作出了明确界定,其中第2条规定:“机器人是被赋予法律人格——机器人人格——的人造实体。机器人拥有姓名、身份证号码、身份和法定代理人,其可能是自然人或法人”;第3条规定:“机器人储存的个人数据受《数据保护和自由条例》的调整。机器人在其个人数据保护的范围内享有尊严,并享有被尊重的权利”。[95]P219通过上述规定,他们不仅赋予了机器人一种新的法律主体资格,而且还赋予了机器人隐私权、尊严权与被尊重的权利。他们认为,为了应对机器人给当前法律体系的挑战,这是必要的。因为在不考虑赋予法律调整的实体以法律主体地位和权利,我们将难以制定适用于机器人的法律。
(三)作为法律主体的人工智能体之权利及其利他性
人工智能体作为法律主体,可以拥有哪些权利?我们认为,让人工智能体拥有像人类一样的各种权利既不可能,也不现实,毕竟人工智能不是人类本身。人是自私自利的社会交往性动物,而作为人类智慧生成的人工智能则始终作为一个“性本善”的实体出现,它们天生就被人类赋予了“善”性而非“恶”性。现代法律中的权利赋予是基于人的自私性而给与合法的、正当的私利的一种保障。而人工智能体的法律主体资格和权利的赋予则是基于人类的自身利益,因为人工智能的“性善”论注定其只能采取有利于人类的利益的活动或行为,这种利他主义的利益主体与自私自利的利益主体在法律规制的设定上具有根本的差异。因此,人工智能作为法律主体资格的赋予主要是为了法律责任的承担而设立。换言之,人工智能法律主体地位应当是作为法律责任主体而出现。1950年阿西莫夫提出机器人遵守的义务与责任就是让机器人以责任主体身份出现的——机器人必须遵守三大定律:(1)机器人不得伤害人类个体,或者坐视人类受到伤害而袖手不管;(2)在不违反第一定律的前提下,机器人必须服从人类给予的任何命令;(3)在不违反第一定律和第二定律的前提下,机器人必须尽力保护自己。[96]P24此外,日本艺术家手冢也曾设定过一套机器人定律,如机器人必须为人类服务、机器人不可伤人或杀害人类、机器人不得破坏人类的住所和工具等,[96]P47-48这些规定同样将机器人作为责任主体而设。在此情形下,人工智能可能具有隐私权、财产权、数据拥有权以及享有被尊重的尊严权。人工智能在人群中感知和移动时,将会采集大量的个人数据,这些存储在计算机芯片中的数据由人工智能所拥有,从而构成其数据拥有权,而数据一旦泄露,个人信息就会被曝光。因此,赋予人工智能的隐私权,其目的并不是为了保护机器人,而是为了保护与人工智能交互的人类的隐私,即在人机交互过程中,可以获取个人的某些隐私,而这种隐私必须通过保护人工智能的数据记忆来加以保护。杰瑞.卡普兰建议让人工智能拥有财产,在由人工智能承担法律责任时,如果人工智能拥有银行账户,那么账户就很有可能会成为处罚的目标,人工智能拥有者也会赞同把合同权利和财产权利赋予人工智能,从而可以免除他们个人资产的责任。[86]P88-89我国也有学者建议机器人应该享有财产权。[38]P157这种财产权也同样不是基于人工智能而考虑,纯粹是为了能够让人工智能承担法律责任以避免由人工智能拥有者承担法律责任出现的严重不公平现象。有学者明确指出:当出现事故后损害赔偿责任的分配也会直接关乎研发人员的利益。若要研发人员直接承担责任甚至承担完全责任的话,显然不利于人工智能的研发。[97]P53人工智能应当享有获得被尊重的权利,这种消极的道德权利包括不可被奴役、不可被虐待、不可被滥用等。按照米尔恩的观点,获得被尊重权利是普遍的最低限度的道德标准的要求。[98]P7罗马法上的法律谚语说“误伤他人”就包含着首先要尊重他者的权利之要求,从人类角度而言,尊重人工智能,就是尊重人类自己。因而,即使人工智能拥有法律主体资格并相应获得某些最低限度的权利,也不必担心人的尊严或价值遭到侮辱或颠覆,其权利也依然会受到人类中心主义的限制,毕竟人工智能最终是为人类服务的,其所具有的权利具有利他性。因此,人工智能作为法律主体,是可以赋予其相应的权利的,只不过这些权利设置的意义与价值仍是出于对人类自身利益的保障,这不仅是人工智能技术发展的初衷,也是其最终的归宿。
结语
人工智能法律主体问题是所有道德、法律问题的实质与关键。目前国内外学界关于人工智能法律主体论之是与非的争论,看似是两种截然不同观点与立场之争,实则是关于人的本体论之争。讨论人工智能法律主体资格问题,必须跳出人类中心主义的圈子。人类必须认真对待未来世界人工智能的法律主体拟制问题,摆脱纯粹功利主义与工具主义对待人工智能体的方式与思维,以“非唯人类中心”的哲学价值观认真对待那些非“人”的实体,通过法律拟制而赋予一定范围的法律主体资格,最终做到人类与人工智能和谐共舞。因此,无论是弱人工智能或强人工智能,都具有某种程度或方面的法律主体资格,只有明确其法律主体资格,才能寻求其相关权利、义务和责任等问题的解决方案,从而为现在乃至未来人工智能体的发展提供解决之道。最后借用麦克纳利的话作为结语:“我们能想象有一天,一位勇敢的法学家会重写历史,他会坚信应当在法律上把机器人看作是人,到这一天,将出现一个全新的未来!”[6]P32
注释:
① 英国科学家阿兰·图灵1950年在《心智》杂志上发表了题为《计算机器和智能》的文章,提出了“图灵测试”:判断一台人造机器是否具有人类智能的充分条件,就是看其言语行为是否能够成功模拟人类的言语行为,若一台机器在人机对话中能够长时间地误导人类认定其为真人,那么这台机器就通过了图灵测试(参见吴军:《智能时代:大数据与智能革命重新定义未来》,中信出版社2018年版,第43-44页)。
② 《大毕业生娶了个机器人做老婆,婚礼都办了!》,参见https://jd.zol.com.cn/634/6342803.html,2021年10月1日访问。
③ 美科学家:2045年人类可以和机器人结婚,参见https://baijiahao.baidu.com/s?id=1604861160749991964&wfr=spider&for=pc,2021年10月1日访问。
④ 参见北京互联网法院( 2018)京0491 民初239号民事判决书。
⑤ “上海盈讯公司被判,赔腾讯公司1500元”,载《深圳特区报》2020年3月14日第5版。另可参见(2019)粤0305民初14010号深圳市腾讯计算机系统有限公司与上海盈讯科技有限公司著作权权属、侵权纠纷、商业贿 赂不正当竞争纠纷一审民事判决书。
⑥ 参见《全球多起机器人杀人事件,如何定性》,https://www.sohu.com/a/281962225_218783.
⑦ 罗马法上有三个关于人的概念,即homo、caput、persona,homo是指生物学意义上的人,不一定是权利义务主体;caput指权利义务主体,表示法律上的人格;persona表示某种身份,是从演员扮演角色所戴的假面具引申而来,借指权利义务主体的各种身份(参见周枏:《罗马法原论》上册,商务印书馆1994年版,第97页)。
⑧ Ross, P. E. 2016. A Google car can qualify as a legal driver. IEEESpectrum. http://spectrum.ieee.org/cars-thatthink/transportation/self-driving/an-ai-can-legally-be-defined-as-acars-driver.
⑨ 譬如麻省理工学院的心理学家谢里.特克尔说,在与机器人Cog相处时,她的行为发生了改变,她表现得好像有另外一“人”在场一样。在伊拉克和阿富汗,当把受伤的战场机器人送回维修厂时,它的操作员像抱一个受伤的孩子一样搂在怀里(参见【美】约翰.乔丹:《机器人与人》,刘宇驰译,中国人民大学出版社2018年版,第150-151页)。
⑩ 弗诺.文奇提出了计算“奇点”的概念:在这个点上,机器智能将取得飞速进步,它将成功地跨越超过人类智力极限的时间点,然后实现飞跃,成为“超级人类”(参见约翰.马尔可夫:《于机器人共舞:人工智能时代的大未来》,郭雪译,浙江人民出版社2015年版,第10页)。