人工智能法律人格问题研究
2018-04-02詹可
詹 可
(西安交通大学法学院 西安 710049) (zhanyf0302@163.com)
随着人工智能技术迅猛发展,产业火热的同时也引发了人们对于安全问题的广泛关注.2015年10月,DeepMind公司开发的1款名为“AlphaGo”的软件第1次战胜人类围棋高手,随后屡战屡胜.人工智能通过深度学习,技能越来越高.2017年10月27日在沙特利雅得举行的“未来投资计划”(Future Investment Initiative)大会上,沙特授予了类人机器人索菲亚(Sophia)该国公民身份,索菲亚拥有沙特护照后会引发什么样的事情我们难以估量.人工智能机器人的突然到来,对现行法律和伦理造成极大挑战,定位人工智能与人类的关系成为十分棘手的问题.人工智能与自然人、法人的区别是什么?人工智能可否授予法律人格?如何应对人工智能带来的社会风险?一系列新兴问题构成了对传统法学的深刻冲击和挑战,需要对此作进一步的探索.
1 人工智能的概念特征
自1955年约翰·麦卡锡*约翰·麦卡锡(John McCarthy),美国计算机科学家和认知科学家,斯坦福大学、麻省理工大学、达特茅斯学院和普林斯顿大学教授,2011年10月24日去世.等人首次提出“人工智能(artificial intelligence, AI)”以来,人类社会的技术层出不穷,发展日新月异.“人类在进入到21世纪的3个关键时点相继进入了3个互相联系又略有区别的新时代:网络社会时代、大数据时代、人工智能时代,三者共同标志着人类新时代的3个侧面,共同构成了新的社会时代[1].按照现在的科技发展速度,有理由相信在不远的将来,工业智能制造、交通运输、医疗、教育和其他服务行业等众多领域将被人工智能接管,人工智能对于社会的影响是颠覆性的.
1.1 人工智能的概念
千百年来,不同年代的人们都在尝试通过各种方法找出人与动物区别的本质,试图回答人是什么的问题,并证明是哪些特质使我们成为“人”.宗教界认为“神”让我们成为地球上占统治地位的独特物种,而科学界仍在探索是什么把我们与生命之外的东西相区分.如今我们甚至连自己是什么,从哪里来得都没有认识清楚,人工智能就已经到来.
当我们初次听到人工智能这个名词的时候,头脑中往往是好莱坞电影中描绘的情景——人类被智能机器人霸主所奴役,面临即将被灭绝的危险*在“终结者”系列电影中,一个被称为天网的人工智能防御网络变得具有自我意识,引发核灾难,结束了地球上的生命.,但是对于具体什么是人工智能并不是十分清楚.人工智能是新兴事物,涵盖领域广泛,还没有统一的定义.1955年约翰·麦卡锡引入“人工智能”这一概念,并将其定义为制造智能机器的科学和工程,特别是智能计算机程序.尽管目前日常生活中,人工智能的运用已经越来越广泛,既涵盖了诸如下棋、翻译、客服等具体任务,也涉及法律推理等基本任务,但要给出一个精准全面的概念是十分困难的.
以色列刑法学家Gabriel[2]将人工智能定义为:能够借助计算机或其他设备(集成在家用设备、机器人、自动驾驶汽车等中的住宅管理系统)来模拟人的思维方式的软件系统.伯克利分校计算机科学家Stuart和Peter[3]区分了人工智能概念的2个主要的方向:1)与思考过程和动机有关的认知体系; 2)与行为有关的行为系统.另一个美国麻省理工大学的温斯顿教授认为:“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作.”[4]《国际人工智能词典》将人工智能定义为一个涉及迅速发展的技术并允许计算机以智能的方式行动的系统,比如人类[5].钟义信教授[6]指出,人工智能就是指人类所制造的智能,也就是机器的智能.这些定义尽管说法不一,但是反映出了人工智能的基本内容和特征,即人工智能像人一样都具有一定的思维,能自主决定自己的行为.
以上所有关于人工智能的定义都表明,人工智能与智力技能水平直接关联,具有能够独立于开发人员或用户的理解、学习和自主决策的能力.本文认为,所谓人工智能,是与人类或其他动物表现的自然智能(natural intelligence)相对的机器智能(machine intelligence),即任何能够感知其所处环境,并根据环境变化自主作出反应的任何程序或设备系统.形象地说,当一台机器能够模拟出人类与人类之间相互联系的“认知关系”时,就认为该机器应用了人工智能,比如“深度学习”、“思考并解决问题”.DeepMind公司的软件“AlphaGo”战胜围棋大师李世乭,就是人工智能根据对手变化,自主决策并行动的很好例子.
1.2 人工智能的特征
到目前为止,人们普遍认为智力是生物存在的唯一特征,即智人[7].由于计算机系统的不断改进,这种信念开始改变.智力,即认识、理解和思考的能力,不仅可能是先天的、自然的,也可以是人为创造的.人工智能涉及广泛的领域,包括很多子领域,如:1)自然语言系统;2)机器学习;3)感官模拟;4)神经网络;5)电脑游戏;6)专家系统;7)机器人技术[8].
哲学家们广泛接受的观点认为,人工智能的智力是归属于人类智能的所有技能和特性,也就是所谓的强智能;计算机程序也被认为是智能化的,也被称为弱智能.想要证明计算机的智能水平,图灵测试是很好的证明智力高低的方法*图灵测试是通过问一个人和一个计算机同样的问题来进行的.如果提问者不能分辨人和计算机给出的答案,机器就被认为已经通过了测试,被认为是人工智能,不管提问者是如何理解这些问题的..人工智能的开发人员做的工作是教计算机掌握人的智力,进而可以帮助其思考和理性做事.基于此,人工智能主要具有但不限于以下特征:
1)通过搜索解决问题.当人工智能解决问题时,人工智能的开发人员并没有给出具体的算法来解决这个问题,而只是给出让人工智能能够识别解决方案的描述.
2)能够独自进行机器学习.人工智能能够从数据中学习新的事实,而不需要明确的程序,并将已学习的知识适应新的情况.这可以通过一个有趣的例子帮助理解,新一代的AlphaGo Zero,完全从零开始,不需要任何历史棋谱的指引,更不需要参考人类任何的先验知识,完全靠自己一个人强化学习和参悟,以100∶0的成绩战胜了AlphaGo[9].
3)能够“理解”自然语言.通过对人类语言的理解、加工和启发来进行人机交互,教计算机理解人类学习和使用语言的方式.借助自然语言处理技术的帮助,可以实现人工智能与人类的实时对话.
4)拥有强大的人工神经网络.人工神经网络是一个复杂的自适应的系统,它可以根据外界环境变化、信息的流动等作出相应的反应和调整.
人工智能和人类智慧的主要区别在于其始于人工制造、合成的本质.人工智能导致新的社会创造物融入社会之中,借助互联网、大数据的支持,人工智能还将快速“进化”和升级.因此,人工智能的智力水平会逐步提高,特征也可能发生新的变化.
1.3 人工智能的分类
人工智能可以对人的意识、思维的信息过程进行模拟.人工智能不是人的智能,但能像人那样思考,也可能超过人的智能.为了更好地理解人工智能在现实中的意义,我们认为将人工智能的“智能水平”分为三大类:弱人工智能(artificial narrow intelligence, ANI)、强人工智能(artificial general intelligence, AGI)和超人工智能(artificial super intelligence, ASI).
1.3.1弱人工智能
弱人工智能是指专门用于某一特定领域的人工智能.比如1997年5月打败世界象棋冠军加里·卡斯帕罗夫(Gary Kasparov)的超级计算机“深蓝”.尽管批评者认为,和大多数人工智能一样,深蓝的能力有限,其成功完全是由于其纯粹的计算能力,而不是对象棋本身的深刻理解;但是其超强、超快的计算能力却不容小觑.中国的“神威·太湖之光”计算机运行速度每秒超过10亿亿次,这样的超级计算机可以在眨眼之间解决复杂的问题,但它们除了管理者给它们输入的信息之外,不会产生任何先入为主的问题.从某种意义上说,弱人工智能的现实局限在于其预先确定的观察数据的能力.
弱人工智能充斥在我们生活的周围,它们以类似的方式工作.室内智能温度计、流量监控软件、自动电话应答服务、“微软的小娜”、搜索引擎、网络Cookie、在线广告服务、数据挖掘、自动驾驶仪等,都不能开启“思维”过程,不能提供超出其预定操作范围的查询.这是人类迄今为止所达到的人工智能水平.从某种意义上说,这代表了人工智能目前“纯净且无思维”的现状.
弱人工智能的技术正在不断提升,语音识别和处理让计算机更精确地将声音转换成文字,例如,谷歌使用人工智能给YouTube上成千上万的视频添加字幕.计算机视觉技术也在不断改进,Vitamin D Video视频程序可以识别、分类物体,并了解它们是如何移动的.如今,像IBM、谷歌、微软和亚马逊等全球领先的高科技公司或互联网巨头,正在创造一个个人工智能设备,并投入大量资源用于电子神经技术网络、认知计算算法和人工新皮质软件等的研发和改进.通过这些技术和研究,科技公司希望创造出一种与人类编码信息能力相当的人工智能.
1.3.2强人工智能
强人工智能代表“人类认知”的水平,可以执行人类所能完成的一切智力任务.人工智能将能够解决各种不同领域的复杂问题,能够自主支配自己的思想、情感、烦恼,优势、弱点和倾向等[10].执行涉及复杂计算的任务,需要大量的精力、时间和献身精神,对于强人工智能来说是非常简单的.然而,对人类来说,看起来非常简单的任务,如语音和图像识别、运动、预期和感知对于强人工智能或其开发人员来说是非常困难的,主要是当外部条件随机变化时,这些人工智能难以调整到预先确定的状态.
强人工智能可以轻松地做几乎所有需要“思考”的事情,但是还不能完成那些人们“不假思索”就能完成的事,这些行为对于其来说,还十分困难.世界领先的人工智能专家在探讨人类什么时候能够制造出强人工智能时,少数人认为本世纪或未来不可能,但是大多数专家认为将在2030年左右实现.从弱人工智能到强人工智能需要很长的距离要走,需要突破自然语言处理、深度学习和人工神经网络的构建等一系列技术的突破.
1.3.3超人工智能
超人工智能指在包括科学创造力、一般智慧和社交能力等几乎所有领域的人类最佳智力都要聪明的人工智能.超人工智能可以代替人类作为地球上的主导生命形式,足够智能的机器可以比人类科学家更快地提高自己的能力,结果可能给人类的存在带来一场灾难.超人工智能对人类的生存可能存在着严重的威胁,令很多人担心和恐惧,它们能够为了实现自己的某些目的而将人类从地球上消灭[11].
瑞典哲学家尼克·博斯特罗姆将超人工智能分为3种主要形式:速度超级智能*速度超级智能,是一个由大量较小智能装置组成的系统,使系统在许多非常普遍的领域的整体表现远远超过人们对任何现有的智能系统的认知.、集合超级智能和质量超级智能[12]*质量超级智能,这个智能系统至少和人类的思想一样快,而且在质量上更加智能..根据英特尔联合创始人戈登·摩尔(Gordon Moore)于1975年提出的“摩尔定律”(Moore’s Law),世界的最大计算能力每2年将翻1番,计算能力的提升,将带动人工智能学习、思考、感知等多重能力的大幅提升.由于超人工智能比人类还“聪明”,因此第1个超人工智能一旦问世,则其数量将呈指数式爆炸增长,将给人类世界的生存环境和发展速度等带来巨大的冲击和挑战.
阿里巴巴集团在创业之初,企业很难为自己的业务找到足够的投资,也许只有几位创始人能清楚地意识到自己的潜力.同样,当投资者抱怨科学家在历时15年项目的前7年只发掘出人类基因组的1%编码时,我们的认知偏见几乎阻止了人类基因组的绘制——认为这个过程的进展是线性的,将需要700年才能完成.然而,科学家们在7年后按时完成了这个项目,证明进展是指数式的.美国科罗拉多大学物理系荣誉教授艾伯特·巴特利特(Albert A. Barlett)博士曾说过,人类最大的缺点是我们无法理解指数函数.指数函数用于描述任何正在稳步增长的事物的大小,例如每年5%.根据其在题为“算术、人口和能源”的演讲中的例子*实验过程描述如下:细菌在空瓶子里稳定生长,它们的数量每分钟会翻倍.现在想象一下,如果上午11:00把一个细菌放入空瓶中,则瓶子在上午12:00将变满.那么瓶子是什么时候满的?答案是上午11:59,因为细菌的数量每分钟都在翻倍.如果你是这个瓶子里的一个普通细菌,你什么时候才会意识到你的空间已经不足了?让我们看一下在最后5min里的瓶子是多么饱满的数字.上午11:55,瓶中细菌仅占有3%.现在有多少人会认为在12:00之前的5min有问题?你根本不需要比这更多的算术水平.,细菌的增长呈现了爆炸式的局面[13].
与之类似,在第1个超人工智能诞生以后,其数量也将会呈指数式增长.然而,在历史的发展中,人类几乎从不认为在实际生活改变之前,生活会有实质性的改变.面对人工智能发展在不久的将来可能引发的剧变,人类应该引起足够的重视和反思.在如今世界互联网、大数据快速革新的时代,信息、数据爆炸式增长的态势也说明了这种剧变的不可控性.
2 承认人工智能法律主体的必要性
新物种诞生、旧物种灭绝是达尔文观察到的进化现象,也是自然界亘古不变的循环,确保了自然界生命的连续.地球上存在的所有物种中,有超过90%都灭绝了,人类的命运也不例外,除非我们想出超越进化的方法.伊隆·马斯克和斯蒂芬·霍金的恐惧、比尔·盖茨的谨慎态度、库兹威尔的乐观态度以及博斯特罗姆关于未来的现实分析,可能会为人工智能描绘出一个存在的基本困境:人类是否会因为人工智能而灭绝或者会在人工智能的帮助下维持我们的存在.基于这样的考虑,探求人工智能与人类的关系变得十分必要和迫切.
2.1 人工智能对安全问题之挑战
由于人工智能自身的技术特点,带动了许多基础领域的技术发展.从飞机自动驾驶、围棋游戏、数学定理证明到语音识别、作诗绘画、疾病诊断、无人驾驶汽车,从理解和逻辑推理分析到客服咨询解答等,一系列行业、领域正被人工智能悄悄介入.尽管目前能够自我修整并具备创造人工智能能力的超人工智能还没有形成,但现有的初步具有强人工智能系统特征的机器人可能会对人造成伤害.人工智能的智力在快速提高、数量在逐步增加,这必然会引起侵权等民事责任问题.
美国的奥姆邦德罗·史蒂芬(Stephen M. Omohundro)教授对人工智能安全问题进行了广泛的分析,他指出即使目前的人工智能仅能够下棋,但其也是十分危险的[14].如果设计得不合理,人工智能在没有任何特殊预防措施的情况下可能会反对自己的电源被断开,并试图打入其他网络系统,以创建自己的备份.同样值得注意的是,设计不当的人工智能可能会为了实现设计目标而试图获取资源而不考虑其他人的安全.
早在2002年,瑞典查尔姆斯理工大学的2位科学家Krister Wolff和Peter Nordin就设计了1款能够学习飞行技术的有翼机器人;试验中得出的结论——“如果你不知道如何规划一个机器人飞行,那么就编程,这样它就可以自己去做”[15].英格兰麦格纳科学中心的捕食者机器人Gaak,在无人照看的情况下,沿着墙壁上的缝隙爬出逃脱,并最终到达高速公路上.这个例子说明人工智能学习和适应环境的能力很强,而不需要人工智能开发人员的帮助[16].2016年3月,微软人工智能聊天机器人Tay在上线不到24 h就被教坏,到处散布种族主义、性别歧视和攻击同性恋的言论;同年6月,一个配备了人工智能的视频游戏“Elite:Dangerous”出现了一些游戏制造者计划之外的状况:人工智能竟然造出了游戏设定之外的超级武器[17].
由于弱人工智能的影响还不是特别明显,以下本文将主要就强人工智能和超人工智能展开探讨.人工智能本身具有深度学习的特性并可以自主决策,而不同于过去简单的根据指令行动的机器人(或弱人工智能),因而造成人类侵害等问题也在所难免,人工智能的民事责任成为不可忽视的问题.人工智能可以独立于开发人员的意愿作出决定,前面Gaak机器人从麦格纳科学中心逃脱,是机器人如何通过独立决策造成交通事故,进而造成他人损害的一个很好的例子.设计不当的人工智能可能试图在不考虑他人安全的情况下获取资源,以实现其自己的目标,这将很可能给人类安全带来风险,使得对于人工智能安全问题的研究具有深刻的现实意义,毕竟现在技术快速发展而配套的制度尚未形成,人类必须主动出击,才能避免将来可能发生的人工智能对人类的统治.
2.2 人工智能对法律责任制度之挑战
在法律上,对于一个人自由意志的限制与对其权利的限制息息相关,而且只有在法律规定的情况下才被允许(这通常与禁止干涉他人的权利有关).随着人工智能逐步进入人类生活的各个领域,并能够作出自主决定,人工智能独立作出的决策影响人类(或其他生物)的自由意志或生活方式的情况,无疑将很快涌现.当面临这种情况时,如何控制人工智能系统,使它们在积极的社会活动中不会干扰他人的权利,即使是出于善意的驱使;在人工智能造成损害时,如何确保这些损害得到弥补或赔偿等问题,值得人类深入思考.
如果认为人工智能是一个法律主体,则其本身无法弥补对他人造成的损害,那么就必须依赖其他法律主体对该损害负责.根据侵权损害赔偿的原则,由侵权者本人或侵权行为负责人承担赔偿的后果.目前,有些人可能认为,重新编程或关闭系统就好了;也有人可能认为让人工智能的开发人员、生产者、运营者承担责任可以解决现有的问题.
然而,情况并非如此简单.关闭或重新对一个人工智能系统编程,只是一个临时的解决方案,只对原始的人工智能才有效.每一个人工智能在面世以后就是独一无二的,因为它们能够学习、积累经验并作出自主(或非自主的)决定.所以将人工智能重新编程后,该人工智能可能作出与重编程之前完全相同的决定.
人工智能可以自己学习、思考积累经验,依据自己独立的意志作决策并行动,而这一系列行为都是脱离开发者、生产者、运营者的.贸易法委员会秘书处关于《联合国国际合同中使用电子通信的公约》第12条的解释性说明指出了一项一般性原则,即用计算机编程的人(不论是自然人还是法人)最终应负责机器产生的任何信息[18].但是,第12条本身涵盖了电子代理系统自动生成的消息,而不是自主电子系统.此外,如果自动系统的错误很容易识别,并且这种错误发生的负责人也很容易识别,人工智能的自主系统就不是这样了.这样的系统作出独立的决策,使得很难确定系统的不当决策与开发人员、操作者或生产者的行为之间有因果联系.因此,使人工智能系统的开发人员、运营者或用户对这些系统独立决策的结果承担责任,可能存在着不公平,实际的责任承担要比看上去的复杂得多.
就目前我国的法律来看,尚无关于人工智能等智能设备致人损害的规定,更没有对其法律人格的认定,因此,人工智能目前只能称为法律上的物品.从产品责任的角度来看,根据现行侵权责任法第42条、产品质量法第31条等的相关规定,因产品缺陷致人损害的,责任由生产者或销售者承担.然而,如果人工智能是基于自主决策而采取行动,因此造成他人损害的责任也由生产者或销售者承担,这样的规定无疑加重了生产者、销售者的责任.
与此同时需要注意的是,根据上述讨论,人工智能的任何自主决策与行动而引发的责任问题,都可能被转移给其生产者,最终转移给责任链的最后一环——程序员, 这种情况下,将导致程序员承担的责任与其享有的权利失衡.过度的法律责任可能导致程序员的恐惧,进而阻碍市场上的技术进步与发展.即使我们这种假设是不存在的,但显然在人工智能存在的情况下,应用产品责任模型将比普通产品责任更难.
2.3 人工智能对法律人格制度之挑战
如果社会上承认人工智能是一个自治的主体,则需要在法律制度中加以体现.例如,在一个信托投资关系中,信托财产权利人明确地想获得投资基金利润的最大化,他可以使用人工智能作重要的投资决策.人工智能可以更好地分析,并提供比人类更可靠的结论,同时可以防止代理人滥用代理权.代理制度被现代社会所普遍接受,代理人具有独立的法律地位,那么人工智能是否可以被赋予代理人类似的地位呢?人工智能具有与现行被授予法律人格的主体相同的特征,人工智能可以自主学习、记忆、积累经验,并作复杂的运筹、决策和行动,它们完全可以从事一般的代理行为.然而,目前的国内外法律中仅有沙特宣布授予人工智能机器人索菲亚公民身份,人工智能可能造成的损害赔偿问题该如何解决,尚不明确.
认可人工智能的法律人格,使其成为社会中的主体,也可以对其他主体的权益进行有效保护.合同关系中的当事人必须是公认的法律主体,并能够表达各自的自由意志.2个独立的人工智能之间如果进行交易,即使交易符合法律的规定,被认为是有效的,也是不完整的,因为这种交易的权利义务关系不能与监督这些人工智能的主体(自然人或法人)相分离.如果几个独立的人工智能系统进入交易,且不可能确定其行为的负责人,这将导致出现有效交易,但没有行使权利和履行义务的法律主体的情况.如果由几个相互作用的人工智能系统签订的协议激活了与此类交易有关的另一个人工智能系统*比如,甲与乙已经就某项事务达成协议,且不允许丙的参与,如果乙再与丙签订协议,将可能对甲构成违约.,其操作结果可能给第三方主体的权利和义务带来变动.认可人工智能的法律人格,将可以明确其独立的权利义务关系,避免因人工智能的决断而给其他主体带来损失.
赋予人工智能法律人格将允许将人工智能与生产者、经营者、开发人员等主体相分离.法律人格意味着人工智能可以被视为与创造人工智能的人类是不同的东西,可以赋予其类似于法人的人格地位.人工智能与人类的人格分离不会干扰技术进步,也不会使技术与人之间的法律关系(解释和应用)变得复杂.
3 承认人工智能法律主体的可能性
3.1 人工智能的法律主体特征
在分析法律主体的特征时,可以从以下3个角度考虑:1)以实体的形而上学性质为角度,就法律主体而言,需要注重理性和自主性.在这样的标准下,“非人类”和一般客体都被排除在外,昏迷者、儿童和智力障碍者也将被剥夺法律主体地位.2)从结果的角度考察,需要考虑某一实体有权利、义务的后果是什么.在此标准下,胎儿、幼儿、植物人等将不被视为法律主体.3)基于条件的方法论视角,分析法律规定的某实体具有法律人格的条件.这种法律主体性(人格)是法律体系建立的共同标准:赋予某些人或实体一定的权利和义务.例如,即使从哲学的角度来看,人与公司的人格本质上是不同的,但从法律的角度来看,它们都被视为法律主体.
根据传统观念,法律主体是指享有一定权利并承担一定义务的人或实体.如果法律给一个实体赋予法定权利,将该实体作为法律主体看起来是符合逻辑的,从而要求其履行法定义务.实体通常被视为具有自由意志和法律义务的法律主体.但是,这样的法律主体定义有其局限性.例如,没有哲学上人格的公司(法人)的意愿是通过其授权代表表达的,因为法人(公司)本身不能表达意志.
对于未成年人、智力障碍者等,不能以法律方式表达自由意志,尽管其被视为具有权利和义务的法律主体,根据上述例子,特别是法人的例子,可以说,人工智能虽然没有哲学上的个性,也没有以自然人通常的方式表达自己意志的能力,但可以被授予法律主体地位,作为人为的法律主体.
3.2 现有法律制度中拟制主体之审视
现代大陆法系民法和普通法,传统承认2种法律主体:自然人和法人.根据汉斯·凯尔森(Hans Kelsen)的观点,将一个自然人等同于人类的生物地位是错误的,因为一个自然人仅仅是一个赋予了法律权利和行为义务的法律规范的个人化.简·奥斯汀(J.Austin)认为,自然人是一个有权利和义务的人,是一个生物存在物的等价物.现存的冲突清楚地表明,尽管存在着悠久的法律传统,但作为法律主体和自然人的同一性仍然引起了法律哲学家们的讨论.
除了自然人作为法律主体之外,还有另一类法律拟制的有限责任能力的实体——法人.这意味着,非自然人不享有给予自然人的所有权利,无法履行先前提到的权利所承担的所有义务.由于法人越权原则的限制,使得他们的行为不能与公司章程的规定冲突.讨论人工智能是否因其非生物性质而不能被视为自然人,而可以被视为法律的主体,分析人工智能的法律人格很重要.关于非自然人的法律主体概念,有特许经营说、拟制说、象征说和实在说4种理论学说提供了明确的定义.其中实在说很好地解释了人为创造的法律实体的性质.根据这一理论,法律实体既不是象征性的,也不是拟制的,而是客观真实的实体.法律实体被人为创造的事实,并不能否定它们存在和真实的事实.例如,契约是人造物,但它们不是虚构的,而是真实的.
实在说认为,尽管法律实体是被人为创造的,但其是存在而且是真实的.根据这个理论,人工智能也是如此:尽管它们是人为创造的,但这并不否定它们存在而且是真实的事实.总而言之,一个实体要有资格成为法律主体,就必须满足法律人格的条件.在这种情况下,影响授予法人资格可能性的权利能力和行为能力是很重要的.权利能力,即法人和自然人享有权利和承担义务的资格,在法律中有明确规定.行为能力是法律主体行使权力、承担义务的能力,一旦确定了法律主体性的要素,分析人工智能的属性就相当于分析法律人格的要素.
3.3 基于现行人格制度下的人工智能法律人格之构想
一个实体获得权利的能力是确定其法律主体的特征之一,但是,仅以实体的权利能力为标准,就会过度扩大或缩小法律主体的范围,因为这种条件下,所有能够感觉到的生物体将被视为法律主体,而其他无生命的实体将被排除.参与法律关系的“人”就是法律主体.一个自然人或法人有资格要成为法律关系的主体,必须具备由2个要素构成的某些特征:1)权利能力;2)行动能力.在这种情况下,会产生一个自然的问题:是否有可能将上述法律人格要素,即法律能力和行动能力应用于人工智能系统.
权利能力是法律主体范畴的一部分,是一种基于法律而非独立获得的法律地位.在罗马法中,权利能力被用来界定个人作为法律主体(公民)的法律地位.法哲学教授Alfonsas Vaišvila将权利能力定义为获得主观权利和承担法律赋予的义务的能力,权利能力是每个个体永久而完整的民事状态;禁止法律歧视,是获得和保留权利能力的前提.联合国人权事务高级专员将权利能力界定为,在没有第三方的协助下,通过自己的行为行使权利和承担义务的能力.这一概念在逻辑上预设了作为权利和义务的潜在持有者的能力(静态要素),并要求有能力行使这些权利,并承担创造、变更或消灭法律关系的义务(动态元素).在大陆法系国家民法典中,消极民事能力的概念被理解为获得民事权利承担民事义务的能力,适用于所有自然人.而法人的权利能力是指私法人取得和享有任何公民(自然人的性别、年龄和血缘等条件除外)权利和义务的能力[19].
行为能力是法律主体行使特定权利或承担法律地位赋予的义务的能力,即采取行动做某件事的能力.例如,3岁的小孩具有未成年人的法律地位和相关权利,但孩子不能行使权利,也不需要履行义务.联合国人权事务高级专员会议确定的行为能力的特征时强调:采取行动的能力需要受制于最低年龄、理解自己行为的意义及其后果的能力等要求.行为能力的作出,要求主体必须达到法定年龄,具有充分的独立性并理解其行为的后果.
然而,法人的行为能力往往取决于其他标准,而不同于自然人的标准,例如,法人的行为能力不能用年龄标准加以限制.法人的权利能力是因其行为能力而产生的,因此,法人通常避免用“行为能力”一词,有时被替换为主观性,其中包括权利能力和行动能力的概念.法人的法定身份自登记之日起产生;在该公司成立之日起,就不需要这种能力.法人具有主观性的一个重要因素是,它们本身不能享有权利能力和行动能力所赋予的权利,只能通过其授权代表行使其权利并履行其义务.
由于人工智能拥有学习、记忆、自主决策等技能,具有典型的行为能力的特征,能够行使特定的权利,履行法律所规定的义务并明确其行为的后果.人工智能可能会先于其授权代表的意愿,评估潜在后果,而不亲自行使权利,履行义务.
法人的法律主体性比具有行为能力的自然人(生物)的法律主体要窄,因为它们没有自然人的人格,不能行使与自然人性别、年龄和血缘等特征相关的公民权利,也不能履行相关公民义务.由于人工智能(基于计算机算法的操作)的特殊性质,它们各自的权利和义务的范围不一定与其他法律主体的权利和义务的范围相同.同样,对法人来说,这种制度仅仅是其他人(例如法定代表人、员工等)活动的结果.因此,人工智能只能通过立法来严格地界定其权利和义务.这些权利和义务的界定将促进基于人工智能和其他法律领域的技术之间现有的和未来的关系规制.赋予人工智能法定人格,可以明确其权利和义务的范围,并对其进行登记或引入认证证书等技术,限制其自身对可识别特征的改变,以便其每一次行动都可以识别和监控.
4 结 语
人工智能是一种新兴的技术,涉及的范围也十分广泛,不同的人与不同的行业也会有不同的认识和定义.如今,像Siri语音识别、Google自动驾驶、机器人看护等人工智能产品已经或正在走入人类的生活.随着使用频率的增多,对人类造成侵害的可能性在增大,因为这些人工智能不仅仅是客体对象,受人类控制或影响,它们也能通过自己的意志决策和行动,具有法律主体的特征.然而迄今为止,没有法律制度承认其法律主体的地位.
人工智能系统能够独立作出决定,并随时介入到人类的生活中.毫无疑问,在人工智能作出决定和采取适当行动时,将影响人类的自由意志和生活方式.因此需要赋予人工智能以法律人格.当它们在社会中积极行动时,如果造成了损害,即使它们的行为是出于善意,也必须被限制或阻止,以防止对其他主体的权利造成干涉.
由于人工智能与其他法律主体间可能发生一定的法律关系,对双方权利义务的有效保护需要明确人工智能的法律地位.根据现行法律,人工智能只被视为法律关系客体对象,人工智能造成损害的赔偿责任问题尚不明朗.人工智能具有学习、记忆、积累经验、自主运筹、决策、行动等等众多特点,满足代理制度的一般要求,在现行法律制度对其主体地位尚未认可的现状下,可以尝试通过代理制度逐步将人工智能引入,再逐步构建人工智能法律主体的完整框架,不失为一种有用的方法.由于人工智能产生的特殊性,如果被认定为法律主体,其权利义务范围与其他法律主体的权利义务范围不一定相同.因此,人工智能只能由立法者严格界定其权利和义务范围,而这些权利和义务的设定,将有利于促进人工智能和其他法律主体之间现有的和未来的关系的解决.
[1]何哲. 通向人工智能时代——兼论美国人工智能战略方向及对中国人工智能战略的借鉴[J]. 电子政务, 2016, 168(12): 2-10
[2]Gabriel H. The criminal liability of artificial intelligence entities-from science fiction to legal social control[J]. Akron Intellectual Property Journal, 2010, 4(2): 171-175
[3]Stuart J R, Peter N. Artificial Intelligence: A Modern Approach[M]. 3rd ed. Upper Saddle River, NJ: Pearson Education, Inc, 2009: 4-5
[4]林夕. 人工智能时代下的教育遐想[J]. 教育实践与研究, 2017, 21: 1-1
[5]William J R. The International Dictionary of Artificial Intelligence[M]. London: Fitzroy Dearborn Publishers, 1999
[6]钟义信. 人工智能: 概念·方法·机遇[J]. 科学通报, 2017, 62(22): 2473-2479
[7]Stuart J R, Peter N. Artificial Intelligence: A Modern Approach[M]. 3rd ed. Upper Saddle River, NJ: Pearson Education, Inc, 2009: 3
[8]John M C. What Is Artificial Intelligence?[EBOL]. Stanford University, Computer Science Department.(2007-11-12)[2017-12-02]. http:www-formal.stanford.edujmcwhatisaiwhatisai.html
[9]虎嗅APP. 柯洁这次输给了人类,却赢了围棋AI [EBOL]. (2017-11-18) [2017-12-03]. http:www.sohu.coma205162030_115207?_f=index_chan30news_8
[10]Goertzel B, Pennachin C. Contemporary approaches to artificial general intelligence[M]Artificial General Intelligence. Berlin: Springer, 2007: 1-28
[11]Yudkowsky E, Salamon A, Shulman C. Reducing long-term catastrophic risks from artificial intelligence[JOL]. Machine Intelligence Research Institute, [2017-11-28]. https:intelligence.orgfilesReducingRisks.pdf
[12]Bostrom N. Superintelligence:Paths, Dangers, Strategies[M]. Oxford: Oxford University Press, 2014
[13]Albert A B. Arithmetic, Population and energy—A talk by Al bartlett[EBOL]. [2017-11-29]. http:www.albartlett.orgpresentationsarithmetic_population_energy.html
[14]Stephen M O. The basic AI drives-self-aware systems[C]Proc of the 2008 Conf on Artificial General Intelligence. Amsterdam: IOS Press, 2008: 483-492
[15]Lakshmi Sandhanaz Science. A theory of evolution, for robots[EBOL]. (2002-09-05)[2017-11-29]. https:www.wired.com200209a-theory-of-evolution-for-robots?currentPage=all
[16]Martin W. Robot fails to find a place in the sun[EBOL]. (2002-06-20) [2017-11-29]. https:www.theguardian.comuk2002jun20engineering.highereducation
[17]刘子榆. 2016年人工智能的10大失败案例[EBOL]. (2016-12-29)[2017-11-29]. http:www.elecfans.comrengongzhineng465139.html
[18]Pagallo U. The Laws of Robots Crimes, Contracts, and Torts[M]. Heidelberg: Springer, 2013
詹可
硕士研究生,主要研究方向为信息安全法.
zhanyf0302@163.com