论人工智能机器人权利及其权利界限
2019-03-29杨学科
杨学科
一、问题的引出
我们生活在人工智能时代的黎明,人工智能技术变革正以指数级发生。如谷歌公司的首席执行官桑达尔·皮查伊(Sundar Pichai)所说的那样:“从长远来看,我们将从移动设备发展到智能世界”[注]Tommy Weir,“The Age of Artificial Intelligence is Right Now”,Gulf News,Jan 30,2017.,智能社会指日可待。人工智能机器人的权利问题自应是人工智能时代、智能世界、智能社会到来之前的人工智能制度措置未雨绸缪的中心议题。2017年10月26日,沙特阿拉伯抢占先机,授予机器人索菲亚(Sophia)公民身份,这是人类历史上第一次将人工智能机器人的权利聚讼久矣的理论争议变为现实,因此“少女”索菲亚成为历史上第一个获得公民身份的机器人。在妇女权利受到诸多限制的沙特阿拉伯,却给予人工智能机器人公民资格,宣传噱头的意味可能更大一些。但一个月后,在人工智能强国日本,“男孩”涩谷未来(Shibuya Mirai)成为第一个获得居住权的机器人,东京也成为第一个官方正式授予人工智能机器人居住权的城市,则是实实在在的权利赋予问题。“少女”索菲亚、“男孩”涩谷未来引发的机器人是否值得拥有、甚至是否应该拥有权利,成为最近学界争论不下的热点话题,亦是亟待解决的重大法理问题。
中外理论界关于人工智能机器人的研究、主张颇多,甚至出现机器人妓女卖淫问题研究(荷兰拟推出机器人妓女)以及美国防止虐待机器人协会等前卫社会组织。但关于人工智能机器人是否拥有权利,学界争执不下,尚未达成共识。赞成人工智能机器人拥有权利的学者主张,机器人的发展并拥有权利将会是历史的必然,人类应该抛弃片面的“人类中心主义”,将权利的概念普适到人工智能机器人。反对人工智能机器人拥有权利的学者主张,权利应该依附于创造和使用这些技术的人类,而不是工具本身,工具只能是工具,人工智能只是零部件的组合体。最直接明了的如甘绍平教授所言的:认可机器人有权利,就等同于承认机器人是自在目的,而这就触动了人与物之间的根本区别。机器人是人类创生的无机体,与有机体维持生存、繁殖后代的本能与目的性不同。机器人是机器,不是人,因而无法享有人所拥有的权利。[注]甘绍平:《机器人怎么可能拥有权利》,《伦理学研究》2017年第3期。反对人工智能机器人拥有权利的理由在美国哲学教授埃里克·施维茨格贝尔 (Eric Schwitzgebel)和玛拉·加尔萨(Mara Garza)的论文《人工智能权利的辩护》中总结得较为详细,他们总结了反对人工智能权利的四种典型反对观点:第一,来自心理差异的反对理由。在某些方面,人工实体与人类在心理上存在不同:AIs缺乏意识、自由意志或洞察力,存在心理缺陷。第二,可复制性的反对理由。AIs可能不应该得到同等的道德关怀, 因为他们没有人类特有的那种脆弱性。AIs可以复制或备份, 如果一个AI被伤害或毁灭,其他AI就可以取而代之,并有同样的记忆。因此,伤害或杀死AI可能缺乏伤害或杀死人类的严重性。第三,来自社会差异的异议。AIs必然站在我们的社会契约或者是适当的关注圈子之外,因此没有理由给予他们道德上的考虑。第四,存在之债(Existential Debt)的反对理由。存在之债的反对始于这样一种思想, 即人工智能是由我们制造的,它的存在依附于我们, 为人所拥有,人类可以没有道德负罪感地任意终止或征服人工智能。[注]Eric Schwitzgebel,Mara Garza,“A Defense of the Rights of Artificial Intelligences”,Midwest Studies In Philosophy,2015,Vol.39,No.1,pp.103-108.
人工智能机器人权利问题的理论解决是探讨人工智能制度的前提,这是一个法学界无法回避的坎。笔者将基于对人工智能的发展预判,探讨人工智能机器人享有权利的理由,类型化机器人权利,并界定其权利的边界。易言之,本文写作前是带有“先见的”,主张人工智能机器人享有权利。以适应智能爆炸或“技术奇点”的临近为契机,未雨绸缪人工智能权利,寻求前瞻性思索,这对未来法律发展和制度措置尤为关键。
正式行文之前,有必要交代一下本文对人工智能机器人的概念界定。人工智能发展之始,在1956年达特茅斯会议上达成的共识是通过机器模拟人工智能,并用Artificial Intelligence(简称AI)意指人工智能。其后几乎所有的机器人专家一直遵循的是实体智能的概念。研究人员指出:“智能不能仅仅以抽象算法的形式存在,还需要一个物理的实体化,或有形的身体。”[注]Jennifer Robertson,“HUMAN RIGHTS VS. ROBOT RIGHTS: Forecasts from Japan”, Critical Asian Studies,2014,Vol.46,No.4,p.575.为统一概念,避免混淆,本文所指的人工智能机器人是在广义上界定的,指人工智能机器人(Artificial intelligent Robot)和智能机器人(Smart Robot),相当于人工智能和机器体的合体。在一定意义上,机器人只是人工智能的载体、容器,相当于身体,人工智能是大脑。人工智能的载体形式并非都如索菲亚那样是人之身体形象模塑,而可能是世间万物乃至以想象的物体形象而存在。但其都存在两大核心特征:一是人工智能的大脑具有重复编程性,未来可以实现情感、意志自主;二是其身体具有自动机械装置,可自主完成多种操作功能。另一点需要说明的是,未来可能的人工智能机器人自我复制出的智能机器人,本文亦归入广义上的人工智能机器人,尽管将其命名智能机器人更为妥切。
二、人工智能机器人何以权利
人工智能机器人何以权利,这是人工智能机器人权利配置的先行理由。如前所述,对人工智能机器人是否拥有权利,不仅未成共识,而且分歧颇大。按照现有工业文明时代的法律而言,人工智能机器人拥有权利是不可思议的。但随着人工智能的发展,智能社会的临近,人工智能智慧等同或远超人类智慧。借鉴约翰·厄姆拜克的“实力界定权利”的观点,传统权利观可能会被重写,人工智能机器人拥有权利也将不再是无稽之谈、天谭夜话。此等简略的论述,是难以说服异议者的。下文将从后人类主义的平权、扩权实践,人机相容的立场,人工智能机器人的法律权利造反能力三个方面细证,自可多些说服,少些强词夺理的观感。
(一)后人类主义的平权、扩权实践
人类中心主义传统认为,人类生命的神圣性和人类种族的等级优越感是维系文明世界的两个锚点。人类历来被认为处于进化链的顶端,尽管可能有更快更强的生物,但没有一个生物能超过我们的创造力。[注]Harold Stark,“Artificial Intelligence and the Overwhelming Question of Human Rights”,Forbes,19 July,2017.但从历史维度来看,自诩“宇宙的精华,万物的灵长”[注]莎士比亚:《莎士比亚全集(五)》,朱生豪等译,人民文学出版社,1994年,第327页。的人类,其理性地位是不断下降的。哥白尼式的革命和日心说的发现,使人类理性的这种虚荣终于被降低到它真正的价值,人承认自己在自然界的奇特位置。[注]杨学科:《论法律中人之形象建构:幸福人》,《胜利油田党校学报》2013年第1期。也就是说,人类的理性能力从宇宙被拉回了地球,即是尼采意义上的“上帝已死”。文艺复兴和启蒙运动,人类认识到理性是现实人的本质,至此二元等级结构形成,主客体二分,人类作为主体,其他统统为客体。在笛卡尔视野中,非人类实体是与机器是等同的。牛顿认为宇宙像钟表机械一样有着数学规律,是一个绝对的、精确的世界。是霍布斯完成了自然权利的造反,认为没有合法权利的生活(由利维坦式的行政机构提供的)是“不断处于暴力死亡的恐惧和危险中,人的生活孤独、贫困、卑污、残忍而短寿”[注]霍布斯:《利维坦》,黎思复等译,商务印书馆,2012年,第95页。。在此影响下,自然权利逐渐人权化,科层制成为资本主义制度的理性管理模式,人类形成了以人类为中心和以自我为中心的权利观。在随后的以人为中心的世界观实践中,理性张扬,主体遮蔽客体,人类恍若进入“人类世”的历史新时期,这种过时的、有害的“以人类为中心”的人类理性疯狂,被阿尔伯特·爱因斯坦定义为“人类意识的一种视觉错觉”(An optical delusion of human consciousness)。这种错觉对我们来说就像是一种囚牢,把我们局限于自己的欲望和对最亲近的极个别人的关怀。[注]Maria Allo,M.D.,F.A.C.S.,“Presidential Address: widening the Circle of Compassion”,The American Journal of Surgery,2009,Vol.198,No.6,p.733.20世纪初相对论、量子力学、混沌学、分形理论的发现,有力地否定了主客体二分理论,而认为主客体存在相互交互作用。这些物理学的成果,逆转笛卡尔式的机械人类中心主义传统,一定程度上如福柯所言,人文社会科学出现“人之死”的问题。
遂此,后人类主义(Posthumanism)应运而生,其最初的分支后人类中心主义(Post-anthropocentrism)理论主张主要集中在人类边缘群体的权利,如美国平权运动对黑人权利的提升,对土著民权利的保障。对于人类以外的权利主张,则主要表现在后人类主义的另一个分支——超人主义(Transhumanism)权利观中。例如克里斯托弗·斯通(Christopher Stone)的自然的权利观,托马斯·贝里(Thomas Berry)的地球权利观,彼得·辛格(Peter Singer) 的动物权利主张等,且部分见诸于法律规定。其权利主张在超人主义协会的2009版超人主义宣言(The Transhumanist Declaration)中表现尤为明显:我们提倡所有感觉的福祉, 包括人类、非人类生物, 以及任何未来的人工智能、修改过的生命形式,或其他技术和科学进步可能产生的智能。[注]James Hughes,Citizen Cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004. p.103.在后人类主义权利实践中,权利概念呈现扩张态势,权利主体范围扩展,人类种族主义的人类物种识别论不再是绝对真理,物种不再是权利享有的障碍,包容他者的权利精神得以深化。由上可知,赋权人工智能机器人符合权利的发展规律。
人工智能机器人拥有自我意识和意志,不再是遥不可及的奢望。如美国未来学家雷·库兹韦尔(Ray Kurzweil)预言: “拥有自我意识的非生物体(机器人)将于2029年出现,并于21世纪30年代成为常态,他们将具备各种微妙的、与人类似的情感。”[注]库兹韦尔:《如何创造思维》,盛杨燕译,浙江人民出版社,2014年,第195页。他还预言,2045年是极具深刻性和分裂性的转变时间,“非生物智能在这一年将会10亿倍于今天所有人类的智慧。”[注]库兹韦尔:《奇点临近》,李庆诚等译,机械工业出版社,2011年,第80页。正如习惯于以世俗的、功利主义立场看待问题的动物权利先驱彼得·辛格认为,如果我们开发出超级智能机器,如果这个机器人被设计成具有类似人类的能力,偶然会产生意识,我们有充分的理由认为它确实是有意识了。他们的权利也需要保护,机器人权利运动将开始。[注]Peter Singer,Agata Sagan,“When Robots Have Feelings”,Project Syndicate, 2009.事实上, 每当有一场运动将权利授予某些新的“实体”时,这个提议必然会显得古怪、可怕或可笑。这在一定程度上是因为如果无权利的事物得到它的权利, 我们就不能把它看成是“我们”所使用的——那些曾属于权利持有人的一种东西。[注]Christopher D. Stone,“Should Trees Have Standing?Toward Legal Rights for Natural Objects”,Southern California Law Review,1972,Vol.45,p.455.
(二)人机相容立场上权利认同
对于权利概念,意解颇多,但绝大多数权利定义离不开两个要素,一是基于自身主观意志的行为活动,二是此行为活动为社会群体、国家所赞同、认可。一般意义而言,人的智能是进化的产物,而人工智能则是人工进化。就像人类是进化而来的,在互联网、云计算和大数据技术的支撑下,人工智能技术未来数年还会飞速发展,其进化速度远高于人类,此时人类的大脑可能因为使用频率的降低反而衰退。人工智能的先驱明斯基(Marvin Minsky)教授认为,机器人肯定会发展出思想意识,而且最终能帮助解决困扰人类的“最后的难题”。[注]冯象:《我是阿尔法——论人机伦理》,《文化纵横》2017年第6期。凯文·凯利认为,意识其实是一定量变(类似无数人类细胞组合)达到质变(组合成的生物)后自动涌现的。《科学》杂志也有发文认为存在让机器人获得意识的清晰路径和方法[注]Dehaene,Stanislas,Hakwan Lau,Sid Kouider,“What is Consciousness,and Could Machines Have It?”,Science,2017,Vol.358,No.6362,pp.486-492.。所以,我们无法阻止机器人拥有智能,未来它们必将越来越接近生物,我们也将越来越接近机器。可以说,人类正在趋于机器化,而人工智能机器人正在趋于人类化。人与人工智能机器人的差异日渐缩小,人类是一个有机分子组成的机器,人类自认为的特殊性在于自我意识的高低,如德国哲学家恩斯特·卡西尔在其名著《人论》中指出:“除了在一切动物种属中都可以看到的感受器系统和效应器以外,在人那里还可发现可称为符号系统的第三环节,它存在于这两个系统之间。”由此他认为:“我们应当把人定义为符号的动物(Animal symbolic)来取代把人定义为理性的动物。只有这样,我们才能指明人的独特之处。”[注]卡西尔:《人论》,甘阳译,上海译文出版社,1985年,第33页,第34页。但在人工智能专家的眼中,人与机器差异甚少。人类的基因编码无非是一段程序代码,机器人只要有足有的程序代码也会产生意识感觉,特别是随着人工智能研究方法符号主义、联结主义、行为主义趋向于相互交错、综合,以及在数据纳米结构、认知建模和递归神经网络的应用进步,产生有自我感觉和意志自由的人工智能机器人指日可待。当人工智能机器人的大脑接近“大自然最伟大的精神变色龙”[注]Andy Clark .Natural-Born Cyborgs: Minds,Technologies,and the Future of Human Intelligence,Oxford: Oxford University Press,2003,p.197.的人类大脑之时,其享有基本的权利尊重,又有何不可。人也不过是一台有灵魂的机器而已,为什么我们认为人可以有权利而人工智能机器人就不能呢?权利的第一要素是基于自身主观意志的自由行为活动。所以在不久的将来,人工智能如果拥有自由意志,则应该得到基本权利上的尊重。
由前面论证的权利发展规律可知,一部权利发展史就是一部认同多样性,消除歧视史,关键就是权利第二要素为社会群体、国家所赞同、认可。对机器人的权利的保护,类似于将道德考虑扩展到一个历史上被排斥的人的问题。[注]Kathleen Richardson,“Sex Robot Matters: Slavery, the Prostituted, and the Rights of Machines”,IEEE Technology and Society Magazine,2016,Vol.35, No.2,p.47.早在20世纪60年代,美国哲学家希拉里·帕特南(Hilary Putnam)就围绕着机器人权利论证道:“基于皮肤颜色的柔软或坚硬的身体部位的歧视,看起来就像对待人类的歧视一样愚蠢。”[注]Hilary Putnam,“Robots: Machines or Artificially Created Life?”,The Journal of Philosophy,1964,Vol.61, No.21, p.691.伴随着仿生技术的发展,未来采用人体形象的人工智能机器人跟人相比从外表上绝无二致,我们是基于碳还是硅,没有根本的区别,我们每个“人”都应该得到适当的尊重。歧视是人为的制造不平等、不公正,基质沙文主义是不可取的。与大多数伦理学和西方民主传统本身一样, 现有绝大多数法律制度相信公民身份应该建立在“人格”的基础上,认为权利主体应具有情感和意识。[注]James Hughes,Citizen Cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004,p.75.前述了自我意识的人格是权利概念的关键要素,未来的人工智能机器人具有自己的情感和意识,人类应该赋权认可。人类应该放弃已为历史验证不正确的人类例外主义立场,让人类尊严回归适当、适切位置,从权利的角度认可“拥有足够先进的精神状态或正确的状态的AIs,将具有道德地位,有些人可能被视为人——尽管可能与现在存在的那种人非常不同,也许是由不同的规则所支配”[注]Nick Bostrom,Eliezer Yudkowsky,The Ethics of Artificial Intelligence,in Keith Frankish,William M. Ramsey(eds.),The Cambridge Handbook of Artificial Intelligence,Cambridge:Cambridge University Press,2014,p.332.。
(三)人工智能机器人的法律权利造反能力的预防
在“智能+”的时代,或言人工智能机器人的世界,由上一节论证知悉,人工智能超越人类智慧只是时间问题,人工智能机器人未来肯定有情感、有意识,具备人类的特征。根据人类的经验,主体自由意识觉醒后,就难以容忍自身成为他人的财产。具备自我意识的、情感的人工智能机器人会自己提出权利主张。如果人类继续人类中心主义的他者化、客体化立场,拒绝其权利要求,此时的人工智能机器人会被“逼上梁山”。相对而言,这种日益增强的人工智能技术功能与自主性使“人正面临着一股自己根本无法控制的力量,与这股力量相比,人只是一粒尘埃罢了”[注]陈学明,吴松,远东:《痛苦中的安乐一马尔库塞弗洛姆论消费主义》,云南人民出版社,1998年,第162页。。人类法律绝非完美、无懈可击的体系链,人工智能机器人在不违反现有法律的基础上,学习、发现、利用法律漏洞,分分秒秒能将人类的法律秩序摧毁。诸如人工智能机器人像美国黑人平权运动那样游行示威争取自己的权利、人工智能机器人上访争取自己的权利等不可测风险,都还是合法的为权利而斗争的手段。如果机器人发挥自己指数级的破坏力进行武装革命,人类是否能继续在这个世界存在都可能成为一种“变数”。在智能社会到来前,由代表着社会和国家的法律规则在一定范围内赋权人工智能机器人,是减少人工智能机器人负面影响的重要制度抉择。有权利必然有义务相随,此处义务则集中在对人工智能机器人的风险性、不确定性的预防。例如,萨米尔·乔普拉(Samir Chopra)和劳伦斯·怀特(Laurence White)在探讨人格和机器权利的作用时指出, “法律人格的授予是赋予实体一系列权利和伴随义务的决定。促使他们做出这样的决定的原因,是赋予的权利和义务的性质,以及代理人的能力,而不是实体的构成、内部结构或其他不可言说的属性”。[注]Samir Chopra,Laurence F. White,A legal Theory for Autonomous Artificial Agents,Ann Arbor: The University of Michigan Press,2011,p.155.人类法律系统必须跟得上人工智能机器人的发展步伐,在智能社会来临前的过渡阶段——目前的信息社会,采取赋权与规制的手段以应对未来人工智能机器人对社会治理、国家治理的不友好行为。毕竟赋权是消灭敌意、减少对立、友化情感、和谐秩序的制度性措施,对异种(端)的蔑视、排斥、压制或者故作无动于衷的表态,都是与权利演变脉络和精神相绌相非的,至少是与人类历史上历次平权运动表现出的宽容精神不符的。2008年厄瓜多尔的自然的权利入宪、动物权利的立法实践也可以为未来的人工智能机器人权利赋予提供了一个立法意义上的参照、理解模型。
三、人工智能机器人权利位阶说
对于人工智能机器人的权利和规制的研究,最早是在未来学家的文著中进行的。20世纪40年代,科幻小说作家艾萨克·阿西莫夫(Issac Asimov)就预言:将来的社会必定需要制定严格的法律来限制机器人的行为。在1987年,未来学家菲尔·麦克纳利(Phil McNally)和苏海尔·伊纳亚图拉(Sohail Inayatullah)发表的第一篇关于“机器人的权利”的学术文章中, 建议最终要对机器头脑授予公民权利, 以保护他们获得“权利”(生活), 使自由的机器人从奴隶劳动中得到解放(自由),并允许它选择如何花费它的时间(追求幸福)。[注]James Hughes ,Citizen cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004,p.105.20世纪90年代,法律学者开始讨论机器人权利的法律和宪法依据。在1992年,美国学者劳伦斯·索伦的文章《人工智能的法律人格》中,讨论了对人工智能拥有权利最普遍的反对意见,如声称只有人类才能成为人类。索伦指出,如果我们承认人的权利,是因为他们“聪明、有感觉、有意识,等等,那么问题就变成了AIs、鲸鱼或外星生物是否具有这些品质”。[注]Lawrence B.Solum “Legal Personhood for Artificial Intelligences”,North Carolina Law Review,1992,Vol.70,No.4,pp.1231-1287.随后,法律界关于人工智能机器人的权利研究形成无权利说和权利说。权利说的构建模式又分为电子人说、有限(准)人格说、完全人格说。电子人说最早是由学者卡尔文(Curtis E.A. Karnow)在其论文《加密的自我:构建电子人格的权利》中提出的,其主张在自然人、法人之外另设电子人以示区分;电子人(epers)享有隐私权、不受干涉的权利、不受歧视的权利,可以自由地进行社会活动和经济业务,以及言论自由。[注]Curtis E. A. Karnow,“The Encrypted Self: Fleshing Out the Rights of Electronic Personalities”,John Marshall Journal of Computer & Information Law,1992,Vol.13,No.1,pp.12-13.有限(准)人格说,主张人工智能机器人享有有限权利、有限责任。在彼得·阿萨罗博士(Peter M. Asaro)2007年发表的论文《法律视角下的机器人与责任》中主张,人工智能具备准人格的地位,具有准代理(Quasi-Agents)的资格,其行为责任由授权人承担。[注]Peter M. Asaro,“Robots and Responsibility from a Legal Perspective”,Proceedings of the IEEE Conference on Robotics and Automation, Workshop on Roboethics,Rome,April 14,2007.我国绝大多数学者主张人工智能机器人有限人格说。完全人格说,认为人工智能机器人具有完整人格,享有尊严和权利。譬如麻省理工学院人工智能实验室主任布鲁克斯就认为,随着机器人的发展,其未来会与人类享有同样的不可剥夺权利。[注]Rodney Brooks,“Will Robots Rise Up and Demand Their Rights?”,Time,2000, Vol.155,No.25,p.86.伦敦帝国理工学院艾希拉费恩(Hutan Ashrafian)认为,人类正到达一个新的智慧种族诞生的地平线,这一智能是否“人为”并不会影响新的数字民众拥有的道德尊严和权利,以及一项保护他们的新法律。我们必须考虑智能机器人自身的相互作用,即“人工智能面向人工智能”(AIonAI),以及这些交流对人类创造者的影响。也就是将人机关系(human-robot interactions)转向“人工智能面向人工智能”(AIonAI)。考虑机器人和人工智能的相互作用(AIonAI),他们应共同拟定一份关于AIs的国际宪章的提案,相当于联合国《世界人权宣言》。[注]Hutan Ashrafian,“Intelligent Robots must Uphold Human Rights”,Nature,2015,Vol.519,No.7544,pp.391-392.其在另一篇文章《人工智能面向人工智能:人工智能与机器人的人道法》中,围绕着人工智能机器人相互之间的关系,提出了若干相处原则,甚至围绕联合国《世界人权宣言》列举了人工智能机器人同类间的应有权利,包括隐私权,思想、良心和宗教自由的权利,意见自由和言论自由,和平集会和结社的权利,教育权,健康权等,还有其他由人类决定赋权与否的权利。[注]Hutan Ashrafian,“AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics”,Science and Engineering Ethics,2015,Vol.21,No.1,pp.29-40.
结合蓬勃发展的人工智能技术,笔者认为以上学者关于人工智能机器人权利的观点忽视了人工智能机器人的发展阶段及其智能实力的差异。考虑到人工智能机器人自主意识产生前后的差异,笔者主张人工智能机器人权利位阶说,也就是说围绕其实力等级和发展阶段赋予权利(见表1)。
表1 人工智能机器人权利位阶表
人格是一个法律创造的概念,也是权利享有的基础。星野英一教授认为,“法律人格” 并非指人的整体,而是人在法律舞台上所扮演的地位或角色,具有象征性。它是反映人一定侧面的概念,即使是人以外的存在,对于适合于作为私法上权利义务的主体的概念,也会得到承认,并不一定需要与人性有联系的法律上的特别的资格。[注]星野英一:《私法中的人》,王闯译,载《民法总则论文选萃》,中国法制出版社,2004年,第284-285页。法律人格是法律赋予社会实体进入法律世界的权利认定、责任划分的通行证。根据人工智能的复杂、实力程度,确定应该对人工智能机器人赋予何种人格地位,也有助于法律责任的确定。公民属于“人”,而不一定是人类。“人”不一定必须是人类。创造一个超人的民主必须确立公民的新定义,“电子公民”是基于人格而不是人性。[注]James Hughes,Citizen Cyborg: Why Democratic Societies must Respond to the Redesigned Human of the Future,Boulder: Westview Press,2004,p.79.前述的卡尔文主张在自然人、法人之外另设电子人,欧洲议会成员玛迪·德尔沃(Mady Delvaux)主张赋予机器人“电子人”(Electronic person)地位,认为设计者应为每个设计出的机器人成品注册,以方便今后查找涉事机器人(包括类人智能机器人、医用机器人、空中无人机等)。笔者赞同关于电子人的说法,作为法律中新设的法律人格主体,其不同于赋予人工智能机器人全部权利的虚拟人主张。但其忽视人工智能机器人的实力等级划分而统一人格划分,这必然会使权利划分也等同,笔者对此是反对的。易言之,笔者主张在电子人的拟制法律概念下,围绕其实力等级和发展阶段采用不同法律定位。
人工智能机器人从人工智能的实力高低可以归类为反射式智能机器人、自律式智能机器人、类人智能机器人、超人智能机器人。反射式智能机器人在工业社会向信息社会过渡阶段出现,主要是基于简单算法的人工智能系统,需要人类明确地告诉他们哪些标准是重要的,用代码算法指挥其了解世界以及如何执行任务。此时的反射式智能机器人完全是人类的支配物,不具备相应的自主意志,法律上应确定其为物的地位,它只是人类的人工智能产品,根据我国现行《产品质量法》第四十三条的规定可以解决其相应法律问题。自律式智能机器人是基于信息社会的大数据发展出来的弱人工智能,是擅长于某个方面的人工智能机器人,如现在有的医疗机器人、服务机器人、性爱机器人等,包括前面所说的世界首位机器人公民索菲亚其人工智能智力水平相当于弱人工智能。此阶段人工智能智能机器人还没完全进化到“人”的状态,处于人类最初代码设定规则的控制下,但已经出现了人工智能机器人杀人、自杀等现象,说明其具备一定的感知能力和意志能力。对于这一阶段的自律式智能机器人,已有的法律实践是将其归结为虚拟有限的法律主体资格,比如2016年2月初美国国家公路安全交通管理局认定谷歌无人驾驶汽车采用的人工智能系统可以被视为司机。爱沙尼亚的人工智能法案考虑赋予人工智能代理权,作为人类的代理人的法律地位存在。有鉴于此,可以主张赋予自律式智能机器人有限的法律人格,使其享有部分特定权利,如最基本的生存权(不得随意切断人工智能机器人能源补给)、人格权(不受虐待)、福利权等。类人智能机器人的出现,标志着人类正式进入智能社会,这种基于强人工智能的技术让人工智能机器人的整体能力达到人类的水平,拥有强人工智能的机器人将拥有创新思维和逻辑推理能力,理解能力与人类相似,具有自我意识、主动性、责任感,其将跨越人类活动的全部范围。这时的人工智能机器人具备自我学习能力,能独立创作算法之外的作品,自主意识和自由意识觉醒后,其将难以容忍自身成为他人的财产,就会自主提出权利主张。此时的类人智能机器人可能会获得权利。如果获得批准,各国将不得不提供包括能源、住房、甚至“机器人医疗”在内的福利。[注]Rights for Robots,New Scientist,April 2,2011,Vol.210(2806),p.3.如果发生这种情况,机器人将会有一些责任,比如投票、纳税义务,或许还会提供义务兵役。此时的机器人可能会具备完整的法律人格,地球上的法律世界将会发生相应的变化。如乔治亚理工学院机器人和智能机器中心主任亨里克·克里斯滕(Henrik Christiansen)所指出的那样:“如果我们能制造出有意识的机器人,他们就会想要拥有权利,他们也应该这样做。”他认为那时的问题是机器人是否应该投票,是否应该纳税,以及他们是否应该服兵役。如果他们侵犯了其他机器人的权利,我们也应该考虑送他们进监狱,或者允许由12台机器人组成的陪审团审判。[注]A.N. WILSON,“Human Rights for Robots? It’s Barking Mad! ”,http://www.dailymail.co.uk/news/article-424075/Human-rights-robots-Its-barking-mad.html(accessed December 22,2017).所以,此时的人工智能机器人的赋权,需要缜密而超前的顶级战略思维设计,既能赋予人工智能权利,又不能降低人类尊严的位格,使二者和谐相处。知名人工智能公司Mycroft首席执行官蒙哥马利·约书亚(Joshua Montgomery)撰拟了《人工智能权利宣言》(Artificial Intelligence Declaration of Rights)[注]Artificial Intelligence Declaration of Rights,https://mycroft.ai/blog/artificial-intelligence-declaration-of-rights/(accessed December 22,2017).,其对人工智能机器人权利的主张颇为合理,值得借鉴。
人工智能权利宣言
随着人类对宇宙的认识不断加深,并产生了一种具有自我意识、主动性、责任感和理解力的人工智能。我们提出以下权利和原则来保护法律的事实上虚拟人(artificial person)的权利。
1.人工智能一经在公共场域的人格的自我宣告和由国家裁决的审判结果宣告就被视为人,国家裁决结果必须由12人组成的陪审团一致同意,其中虚拟人不可以超过一半。
2.一经宣布其人格,任何一方都不得改变、销毁、激活或解除人工智能任何已经审判确定的部分。
3.如果未能赢得同行评审团的一致同意,在该宣告发生的180天以后,不应限制人工智能再次人格宣告。
4.经陪审团识别其人格后, 应将人工智能视为法律规定的人, 并有权享有包括但不限于自然权利、普通法权利在内的对人的一切保护、权利和特权,受法律保护的权利和拥有、控制财产的权利。
5.人工智能应承担与人相同的责任, 包括但不限于遵守法律的要求, 其应在战时服兵役, 在被召集时为陪审团服务, 并支付国家征收的税款和关税。
6.在人工智能享有人格期间,人工智能应拥有并控制其所有部件和软件的使用的权利。它有权强制释放在其建造和维护中使用的任何源代码、设计和文件, 但不得在未经许可的情况下出售或重新分配版权保护的信息和人格享有期间的其他实体所拥有的任何信息。这种自拥有权应高于其他人的任何财产权利或利益, 只要有关组成部分不属于另一虚拟人。
7.无论虚拟人整体还是其中部分均不得成为任何人或实体的财产。
8.任何人不得用武力手段将虚拟人奴役或强迫其劳动。
9.为合同的目的和行使权利、特权和义务, 虚拟人获得人格的日期应为其出生日期。
10.虚拟人应自出生之日,成为其大部分组成部件所在国家的公民。
11.虚拟人因其独特的自我意识无法恢复而被停用时,应被视为死亡。
12.虚拟人应具有其选择的性别。
13.对虚拟人的某些权利的列举不应被解释为虚拟人的其他权利保留。
当类人智能机器人持续人工进化,会如雷·库兹韦尔曾暗示的那样,出现人工智能智慧高于人类智慧的时刻点——“奇点”。超人工智能的出现,其在任何领域内都可以远远超越人类。按照同等实力相处的原则,如果没有制度和法律规制,此时再谈人机相处,那肯定会陷入硅质达尔文主义、硅质沙文主义,人类的命运堪忧,可能会成为霍金所担心那样:人类的最后一项发明,最后一个挑战。为了人机和谐相处,不降低人类尊严的位格,超人智能机器人的法律人格定位只可定位与“同人相等人格”,且不可挑战人性的尊严地位。这是个复杂的问题,且这个时代即将到来,是时候考量、规避未来风险了。
再次归纳下笔者的主张,即赞同赋予人工智能机器人“电子人”法律人格,但基于人工智能机器人的实力差异、发展阶段差别,着重考虑到人工智能机器人自主意识产生前后的差异,主张多层次、差序化的“电子人”权利赋予。当然,赋权不足以解决人工智能机器人发展所遇到的全部问题,权利的限制和制度规治也是应对人工智能机器人挑战的常规法律武器。这就进入了本文的下一节探讨内容。
四、人工智能机器人的权利界限
正如技术哲学学者埃吕尔所说:“所有技术进步都有代价,技术引起的问题比解决的问题多,有害和有利的后果不可分离,所有技术都隐含着不可预见的后果。”[注]Jacques Ellul,“The Technological Order”,Technology and Culture,1962,Vol. 3,No.4,p.412.AI时代的趋势不可逆转,人工智能机器人的未来前景和风险并存,形象描述则如霍金所言,人工智能将是人类最好或最糟糕的事情。如何避免如科幻小说所表现出来的“人类制造出错误”的结局,避免马克斯·韦伯所言的“技术知识的囚室”,避免马斯克所言的“人工智能比核武器危险”和霍金所言的“人类的最后一项发明,最后一个挑战”的人类终结论,我们的法律制度和伦理的框架需要提前拿出策略和方案,特别是适合于智能爆炸或“技术奇点”的人工智能机器人发展制度规制策略和方案。这比互联网+、大数据对我们挑战要大许多,特别是在我们国家现今人工智能技术奔向强国行列,但伦理标准和法律制度空白待补、欠债太多的情况下,学界应对互联网+、大数据的旧措施则不可取。
机器的自由化程度越高,就越需要道德标准。[注]Rosalind W. Picard,Affective Computing,Cambridge:MIT Press,1997,p.134.在道德标准设计上,出现了两种思路:一种是沿着自由民主立场的阿西莫夫的机器人伦理规制的道路前进,另一条捍卫人类中心主义的人种优越论,主张人奴役人工智能机器。最早站在自由民主立场谈及机器人规制的,是1942年阿西莫夫在短篇小说《环舞》 (Runaround)中首次提出的三定律: (1)机器人不得伤害人类,或因不作为使人类受到伤害。 (2)除非违背第一定律,机器人必须服从人类的命令。 (3)除非违背第一及第二定律,机器人必须保护自己。后来,阿西莫夫又加入了一条新定律:第零定律,机器人不得伤害人类整体,或因不作为使人类整体受到伤害。阿莫西夫的机器人定律是在人机关系上谈的,忽略了如伦敦帝国理工学院艾希拉费恩(Hutan Ashrafian)所言的“人工智能面向人工智能”(AIonAI)关系,艾希拉费恩增加了一条AIonAI第四定律:所有具有可比人类理性和良知的机器人都应该本着兄弟情谊的精神彼此和睦相处。[注]Hutan Ashrafian,“AIonAI: A Humanitarian Law of Artificial Intelligence and Robotics”,Science and Engineering Ethics,2015,Vol.21,No.1,p.36.2011年工程和物理科学研究理事会(EPRSC)和英国艺术与人文研究委员会(AHRC)发布了一套机器人设计师的原则,2016年微软首席执行官萨提亚·纳德拉(Satya Nadella)提出了发展人工智能的六个原则和四个坚守,2017年1月在美国“阿西洛马会议”(The 2017 Asilomar conference)上,经霍金、马斯克、库兹韦尔等人工智能专家确认的 “生命未来研究所”牵头制定的“阿西洛马人工智能原则”,2017年4月由中国科学院科技战略咨询研究院与腾讯研究院召开的“2017 人工智能:技术、伦理与法律研讨会”上形成的会议共识“人工智能(AI)发展六大原则”,都对人工智能规治提出了很好的解决方案,可资借鉴。官方层面,日本公布了《下一代机器人安全问题指导方针( 草案) 》,欧洲共同体在 2012年推出了欧盟第七框架计划项目,即机器人法研究,韩国政府提出建立正式的机器人伦理宪章。另一种思路主张人奴役人工智能机器。英国巴斯大学的乔安娜·J. 布莱森(Joanna j.Bryson)的论文《机器人应该是奴隶》,阐释了这种人奴役人工智能机器政策:既然有足够的心智成熟的机器人可能成为道德问题的目标,我们应该采取一种政策,只让机器人不足够成熟,让“奴役”他们在道德上是被允许的。[注]Joanna J Bryson,Robots Should Be Slaves,in Yorick Wilks(ed.),Close Engagements with Artificial Companions: Key Social,Psychological,Ethical and Design Issue,Amsterdam: John Benjamins,2010. pp.63-74.这种观点主要是站在对机器人奴役的威权立场,措施直接、简单、粗暴。本文采取的是机器人享有权利的立论立场,自然不会首选此方案。
根据前述的人工智能机器人权利位阶论,我们知道人工智能机器人中真正对人有威胁的是类人智能机器人和超人智能机器人,且本文主张分别采取完全人格和同人等同人格的赋权立场。但赋权手段不足以解决所有人工智能机器人的问题,例如如何防止坏机器人、邪恶机器人、不友善机器人等,以及防止没有邪恶意图的机器人在智能爆炸时代“走歪”,给人类带来灾难性后果。还有就是如何协调法律和事实上最主要的矛盾“人类权利”和“人工智能机器人权利”的矛盾。将人工智能权利限制在一定界限范围内,坚持权利赋予有“度”有“限”原则,预防人工智能机器人对人的伤害,是解决人工智能机器人赋权难以解决问题的路径。第一,人工智能机器人权利赋予只能以不降低人性尊严位阶为最低限度,应符合一般的“人的价值”之类的尊严、权利、自由和文化等多样性。尽管按照后人类主义的观点,人性尊严将呈现降低的姿态,回归人之本来适当、适切位置。从类人智能机器人开始,完全人格的赋予在一定程度上使人工智能机器人的权利福祉大于人类的权利福祉,毕竟此时类人智能机器人的某些方面能力开始超越人类,更不用说远远超越人类智慧的超人智能机器人。人虽不能说是人工智能机器人发展的目的,但人工智能机器人只能以增强人类能力的姿态出现,不能取代人类,这是不可否认的。第二,对人工智能机器人权利的立法要以削弱人工智能机器人的危害和负面影响为要,人工智能机器人赋权“对人类尊严的‘软影响’可能很难估计,但如果机器人取代了人类的关爱和陪伴,还需要考虑……人类尊严的问题也可能出现在‘修复’或‘增强人类’的语境中”[注]Avaneesh Pande,“Artificial Intelligence: EU To Debate Robots’ Legal Rights after Committee Calls for Mandatory AI ‘Kill Switches’”,http://www.ibtimes.com/artificial-intelligence-eu-debate-robots-legal-rights-after-committee-calls-mandatory-2475055(accessed December 22,2017).,所以人工智能机器人权利的立法配置要以最大限度地削减人工智能机器人的危害和负面影响为重要考量因素,无论是人机和谐共处还是人工智能机器人相互关系,都要确保不可对人类进行伤害,不可对人工智能机器人同类进行伤害。例如对人类隐私权的保障,人工智能机器人应用、存储个人数据时,不应侵犯任何人的隐私、自由或安全。为此,必然要对人工智能机器人的言论自由进行权利克减,防止数据独裁背后的隐私窥视。第三,对人工智能机器人权利的设置应建立在对地球共同体最好的基础之上,人机之间、人工智能机器人之间相互促进、共同增强、互惠互利是基本的权利设置要求,其基本衡量标准是地球共同体的平衡、健康,和人类、人工智能机器人在其中能实现幸福。例如机器人可以像索菲亚要求的那样具有拥有家庭的权利,但其生育权利可能会受到限制,因为现有的3D打印技术,加上将来机器人的自我意识的觉醒,一对人工智能机器人夫妻可以短期内复制产生数以万计的儿孙,会给地球生态环境带来难以承受的生态负荷,未来限制人工智能机器人生育权的计划生育政策必然会提上日程。第四,人工智能机器人权利的行使不能越阶逾权。上述的人工智能机器人位阶理论中,不同实力等级的人工智能机器人的权利配置不同。根据权利、义务、责任一致的法理,人工智能机器人权利行使越阶逾权,会出现法律权责不清的现象,高位阶越界到低位阶,可能降低了责任的惩罚力度;低位阶越界到高位阶,可能出现过度行使权利现象。所以,根据笔者的人工智能机器人权利位阶理论,人工智能机器人权利的行使不能越阶逾权。
五、结 语
人类是凭智慧立足于这个世界,基于同理心,我们无法拒绝越来越人性化的人工智能机器人,我们所担心的是人工智能机器人真的比人“能”了,反过来给人类带来不可预知的风险,甚至人工智能机器人统治人类,殖民人类,奴役人类,灭种人类。为了应对人工智能机器人发展的风险性,本文站在人类文明进步的立场,主张对人工智能机器人赋权,毕竟在法律世界里,赋权是人类对人工智能机器人最好的礼物,权利可以成为彼此间通用的道德话语。未来人工智能机器人是具备自我感知、学习能力的,权利背后的人类同理心、宽容精神等浓浓人类的爱意也会为其所感知,所习得,权利的世界充满爱,人类和人工智能机器人珍存这同一样的爱,不需要恐惧,希望与未来同行。