人工智能对国际法的挑战及其应对
2020-12-20李婉贞
赵 骏 李婉贞
(浙江大学 光华法学院, 浙江 杭州 310008)
从电子计算开始,赋予计算机人工智能一直是计算机专家的梦想。早在1950年,艾伦·图灵(Alan Turing)在其《计算机器与智能》一文中就提出过“机器能否进行思考”的问题[1]5。人工智能是一套旨在使机器更接近人类或动物在某些方面的认知的技术[2]404。机器学习是人工智能的一个方面,它探索如何让计算机根据经验改善其性能(1)Russell S., ″Q & A: The Future of Artificial Intelligence,″ http://people.eecs.berkeley.edu/~russell/temp//q-and-a.html, 2020-01-31.。多年来,人工智能将自动化或复制智能行为作为研究目标[1]7。根据智能水平的不同,人工智能表现为强人工智能与弱人工智能两种类型[3]59。强人工智能可以匹敌甚至超过人类智能,目前仍属于纯粹科幻式事物;弱人工智能能够通过计算机再现人类智能的某些方面,已经被应用到社会的诸多领域,例如谷歌搜索引擎、全球定位系统、电子游戏等[4]4。当前,在弱人工智能的基础上产生了一批“进阶版弱人工智能”,能够通过与人类交互再现某些方面的弱人工智能[4]8,例如苹果智能语音助手、自动驾驶汽车、机器人保姆、人工智能产业工人、无人船舶、人工智能侦察机与军用无人机等。
经过长时间的发展,人类已在信息社会的基础上开始了智能社会的建设[5]95-96。人工智能的应用带来了生产力的巨大变革,法律作为上层建筑,不可避免地受到人工智能技术发展的影响。在智能社会,法律既面临人工智能带来的各种挑战,也遇到了难得的发展机遇。由于现有法律系统都是围绕“只有人才能做出决定”这一基本假定展开的,人工智能作为一项新兴科技,同样具有类似于自然人的自主决策能力,这将从根本上颠覆现有法律体系的基础[4]5。人工智能的自主决策能力、交互能力使其有别于一般的物,并接近于作为法律主体的自然人。整体上,与人工智能相关的法律问题可以分为两类:一类是人工智能应用于各个领域而产生的法律问题,例如人机交互、机器与机器交互下产生的责任、知识产权等问题;另一类是对人工智能自身发展的价值衡量与相应规制。同时,在应对此类新问题及变革法律的过程中,还存在几个宏观且关键的问题:一是如何把握好创新与既有的关系;二是如何促进国际与国内的良性互动;三是正确对待他山之石与前车之鉴,要充分考察其他领域和其他国家的立法过程与内容。
国际法同样深受人工智能的影响。就像其他法律一样,国际法也假定所有的决定都是由人做出的,即使是代表国家利益的决定[4]208,人工智能的自主决策能力将会彻底改变以往只有自然人或法人才能代表一国的传统。当前,所有关于国际法下人工智能的观点,都是基于各国预期的习惯用途以及对现有国际法规定的变通解释得出来的,但人工智能很快将会在影响国际法的各个领域中应用起来[4]234-235。由于国际法同样没有直接对由人工智能或者非人类做出决定的法律后果进行规定,诸如人工智能国籍、人工智能侵害他国的行为能否归于一国、无人轰炸机等自主武器系统是否违反国际人道法、无人船舶是否能无害通过一国领海等问题,在现有国际法体系内尚无法解决,需要作为国际社会共通规则的国际法积极做出回应。本文主要围绕人工智能给国际法带来的两个层面的挑战展开分析,一是针对国际法的基本原则,二是针对国际法的具体领域,并给出国际法应对这些挑战的可行路径。
一、 人工智能对国际法基本原则的挑战
国际法基本原则代表着一套基本的行为标准,在整个国际法体系中处于统领性位置,构成了最高的法律标准,可以视为国际共同体的最高原则[6]64-65。国际法基本原则具有一些重要特征:第一,国际公认;第二,具有全局性和普遍意义,超越国际法各个领域;第三,适用于国际法的一切效力范围;第四,是国际法的基础[7]34。国际法基本原则的内容一直处于动态发展中,其重要发展是在第二次世界大战以后,集中体现在《联合国宪章》第2条以及1970年《国际法原则宣言》中[7]37-41。例如国家主权原则(2)在近代国际法产生之后,就提出了一些国际法基本原则,例如国家主权平等原则、不干涉内政原则等。参见王铁崖主编《国际法》,(北京)法律出版社1995年版,第37-41页。、民族自决原则、国家责任原则(3)国家责任属于国际法基本原则的范畴,在施瓦曾伯格尔提出的7项国际法基本原则中,国家责任是其中一项,参见王铁崖主编《国际法》,(北京)法律出版社1995年版,第41页。伊恩·布朗利认为国家责任是国际法的一般原则,参见Crawford J., Brownlie’s Principles of Public International Law (8th Edition), Oxford: Oxford University Press, 2012, p.540;Shaw也认为国家责任是国际法的基本原则,参见Shaw M.N., International Law (7th Edition), Cambridge: Cambridge University Press, 2014, p.1120。等。在人工智能时代,人工智能的自主决策能力将对其提出新的挑战,例如人工智能霸权对国家主权原则的挑战、人工智能行为的国家责任问题等。
(一) 人工智能对国家主权原则的挑战
人工智能时代的到来,可能会造成严重的算法垄断与数据垄断问题,甚至形成人工智能霸权(4)霸权体系可以分为两种,一种是权势霸权,一种是制度霸权。两者的区分标准是霸权的维持机制,前者主要依靠霸权国的实力,尤其是军事实力,核心是强制性治理;后者主要依靠体系中的制度。参见秦亚青《权势霸权、制度霸权与美国的地位》,载《现代国际关系》2004年第3期,第6页。,严重威胁一国的国家主权。因而,有必要提出“人工智能主权”概念。根据《联合国宪章》第2条第1项、第78条以及《国际法原则宣言》的规定,各国一律享有主权(5)United Nations General Assembly, ″Declaration on Principles of International Law Concerning Friendly Relations and Co-operation among States in Accordance with the Charter of the United Nations,″ http://www.un-documents.net/a25r2625.htm, 2020-01-31.。主权是指包括国家领土之上立法权限在内的管辖权,表示出依赖习惯法和独立于他国特别同意的权利和特权的特征[8]448,并存在于国家与其他国家或国际组织之间的关系之中,可以从两个视角进行界定:一是对内与对外视角,即对内最高权与对外独立权;二是横向与纵向视角,即横向地理范围与纵向事项范围。随着社会的发展,主权概念一直处于动态发展之中。在纵向的发展上,主权概念在反对霸权的进程中向纵深方向不断掘进,例如,伴随政治霸权、经济霸权、文化霸权与信息霸权出现的政治主权、经济主权、文化主权与信息主权概念[9]519。
当前,人工智能已经广泛应用于生产、服务、武器、司法、经济与政治决策等诸多社会领域,但是,各国掌握的人工智能技术存在较大差距。人工智能技术水平较低的国家在部分领域的主权控制力将在不同程度上被削弱,面临其他国家的控制和威胁。对内层面,一国可以利用人工智能跨境搜集并传播对另一国政府不利的信息,或者深入另一国的生产和服务领域,影响该国产业发展与就业。由于市场总是趋利避害的,如果人工智能技术的运用能够使市场参与者获得更大的利益,理性经济人显然会选择以人工智能技术替代原有的生产或服务模式。这有可能会促使已经存在的算法与数据垄断问题进一步演化为人工智能技术霸权问题,给国家主权带来严峻挑战。对外层面,人工智能技术在战略决策、军事领域与社会生产方面的应用会进一步拉大国际法主体间的力量差距,改变全球社会经济生产模式与权力结构,影响原本稳定的国际关系,最终会对国际体系产生重大影响[10]128-129。
对此,有必要提出人工智能主权概念,以防人工智能技术霸权对国家主权的侵害。其必要性主要体现在三个方面:第一,维护本国信息安全。人工智能需要数据作为营养。人工智能发挥作用的前提是搜集和分析大量的信息数据,这些数据涵盖一国的各个领域以及不同的个人。是否促进数据的跨境流通以及具体的流通方式应当属于一国的主权管辖范围。第二,规制人工智能的必要性。人工智能具有深度学习功能和超强的复制性,这些特征使其可以对社会各领域发挥极大的推动作用。但是,如果人工智能被怀有恶意的人利用,也会对一国的政治、经济、文化以及国防安全构成严重威胁。第三,保护本国人工智能产业。人工智能已经应用于社会的各个领域,国家有权在防止其他国家人工智能产业威胁本国产业的基础上,保障本国人工智能产业的自由发展。人工智能领域存在主权,但这个主权只能属于国家,而非人工智能本身。人工智能技术的目的是服务人类,而非控制人类。同时,由于人工智能的可规制性,国家拥有人工智能主权也具有可行性。人工智能技术与实体都真实存在于一定的地理区域内,国家需要解决人工智能研发、使用与跨境过程中涉及的研发者标准、可以使用的数据标准、应用标准、具体应用领域的范围以及跨境监管等诸多问题。
人工智能主权的实现与政治、经济、文化、信息主权的实现相互影响并相互促进,但是在内涵上具有不同的侧重点。伊恩·布朗利认为国家主权与平等所带来的必然结果主要有:对领土及永久居住其上的人口的初步排他管辖权,其他国家在此排他管辖权区域内的不干涉义务,以及最终取决于是否同意由习惯法或条约产生的义务[8]447。路易斯·亨金也认为国际法试图促进的是国家的独立、平等、自治、不可干涉性以及致力于实现自己所认同的国家利益[11]146-148。因此,人工智能主权的内涵也应该包括对内与对外两个层面:一是对内层面,国家具有对人工智能技术与实体的立法、司法与行政管辖权。国家应当制定规范人工智能的具体法律和制度,指引人工智能向服务于人类命运共同体构建的方向不断发展。二是对外层面,国家享有保护本国人工智能产业发展的权利,以及自主制定关于人工智能发展的规划与自主决定人工智能研发进程的权利,其他国家不能干扰、阻碍或控制该国人工智能的发展。在当前缺少国际法明文规定的情况下,各国应当遵守现有国际法基本原则、习惯国际法以及国际强行法的一般规定,例如不得侵犯他国的主权、保护人权等。
(二) 人工智能对国家责任原则的挑战
国家必须履行包括已加入的条约法义务和强行法义务在内的国际义务,承担因其国家行为违背国际义务所产生的国家责任[12]97。根据《国家对国际不法行为的责任条款草案》(以下简称《草案》)第2条的规定,国家承担国际责任的前提条件是发生国际不法行为,包含主观可归因性与客观违法性两方面的要素[13]72。前者强调存在可归因于一国的行为,后者强调该行为的违法性认定不要求国家存在主观过错。《草案》在第4—6条以及第8—11条中有限列举了七类可归因于一国的行为(6)这七类行为分别为:国家机关的行为、经国家授权的行为、支配机关的行为、国家指挥或控制下的行为、正式当局不存在或缺席时实施的行为、叛乱运动或其他运动的行为以及经国家确认的行为。。同时,第7条强调越权与违背指示的行为仍可归因于一国。
从目前来看,除第11条规定的“经国家确认的行为”外,《草案》第4—6条以及第8—10条规定国家不法行为的实施者应是个人或由个人组成的实体。但是,人工智能已经具备信息收集、分析、决策,甚至执行能力,从人工智能的自主程度来看,人工智能既可以充当代表国家行为的个人或实体的工具,也可以直接经国家授权或者自主决策而实施某项行为,例如实施违背指示的行为。在后一种情况下,当人工智能的行为违反一国承担的国际义务时,该行为无法直接归因于一国,而是必须先行证明这些行为能够归于个人或实体。但是,当这一行为是由全自动机器实施时,这是一项艰难甚至不可能完成的任务[14]9。由此导致的结果是,国家可以利用人工智能的完全自主行为免除国家责任。因而,《草案》下一步的修改可以考虑在第4—6条以及第8—10条中增加行为主体可以为具有自主决策能力的人工智能的相关规定,从而将人工智能的行为直接归因于国家。
关于国家责任形式,传统责任类型依然适用于人工智能,例如赔偿、保证不再重犯等。保证不再重犯主要针对严重的国际不法行为,受害国通常要求行为国保证不法行为不再发生,并附带要求行为国采取某项特定措施或某种特定行为加以预防,例如担保、新的立法[7]108-114。具体到人工智能领域,考虑到其潜在威胁与特殊性,保证不再重犯还需要行为国做出更多的努力,例如改编人工智能,甚至销毁人工智能等特定行为类型。改编人工智能适用于通过改编算法就可以避免不法行为再次发生的情形。销毁人工智能不仅仅是销毁人工智能应用的实体,而且应当对该项算法进行永久封存,避免其再次被使用,但这一行为的适用应当限于无法通过改编算法避免不法行为再次发生的情形。
二、 人工智能对国际法具体领域的挑战
人工智能对国际法的影响是多方面、有差异的,除了影响具有全局性的国际法基本原则外,也给国际法的具体领域带来新的挑战,突出体现在国际法居民制度、国际人道法、国际刑法、国际知识产权法、国际人权法以及国际海洋法和国际海事法等领域。
(一) 人工智能对国际法居民制度的挑战
国际法居民制度包括国籍、外国人法律地位、引渡、庇护等制度[7]121-139。这些制度存在一定共性,规制的对象都是法律上的“人”,包括自然人和法人,而非国家或国际组织。国际法居民制度是否适用于人工智能取决于其是否属于法律上的“人”。但是,具备深度学习功能的人工智能属于新兴事物,其法律地位仍处于模糊状态。对此,学界的观点也不统一。有的学者承认人工智能的法律人格地位[15]95;有的学者则从自然人与法人的特征出发,否定人工智能的法律人格地位[16]131。
法律上的“人”享有权利能力,具有法律人格。从术语的起源来看,“人格”与“权利能力”都是确认法律主体身份的工具(7)人格在字义上源于拉丁语的persona。persona原指戏台上演员所戴的面具,在法律上系指一定的阶级身份。在古罗马法早期,只有同时具备自由人、家父和市民三个身份,才能获得人格,成为民事主体。后来,在德国民法中,为了赋予团体以人格,创造了“权利能力”的概念。参见王泽鉴《人格权法:法释义学、比较法、案例研究》,(北京)北京大学出版社2013年版,第41页;周枏《罗马法原论》(上册),(北京)商务印书馆1994年版,第106-107页;付翠英《人格·权利能力·民事主体辨思》,载《法学》2006年第8期,第74-76页。。人是权利的主体,分为自然人与法人[17]37。人工智能不是生物学意义上的人,不具备人类的理性思维和伦理观[18]5-8,难以成为自然人。因而,有学者认为在符合法人设立的标准时,人工智能可以成为国家法律管辖的法人[15]95。也有学者认为将人工智能确认为法人实体是非常现实和有希望的,可以为其提供“电子身份”(“电子实体”)的法律地位[19]139。从更长远的角度看,人工智能的智能化程度将不断提高。在超级人工智能阶段,人工智能将远远超出人类智能(8)参见Russell S., ″Q & A: The Future of Artificial Intelligence,″ http://people.eecs.berkeley.edu/~russell/temp//q-and-a.html, 2020-01-31。。为了统治的需要,古罗马设定“人格”制度以划分人与人之间的等级,德国设定“权利能力”以区分不同的团体。由于人工智能可以像人类一样做出决定,在特定情形中将人工智能作为法律主体对待并赋予其权利义务是合理的[4]288。这里的特定情形应当限于具有自主决策能力的人工智能,而且目标应当在于促进人类更好地发展。
在获得法律人格的同时,人工智能将享有法律赋予的权利能力和行为能力,并在其能力范围内承担法律责任,进而也会成为国际法上的居民。国际法居民制度必须考虑如何适用于人工智能。例如国籍制度,本质是人的身份问题[20]66,特指个人具有某国的国民或公民法律资格[7]121。通常将人(包括公司)和财产归于一个国家,需要采用国籍概念,特别是为了外交保护目的[8]527。自然人一般通过出生或加入两种方式取得国籍;法人在符合法律规定设立时可以依据注册登记地、住所地等取得一国国籍[21]93-94。人工智能取得国籍的标准和依据不能完全遵照自然人和法人取得国籍的方法。在取得国籍的标准方面,人工智能必须达到一定的智能程度。在依据方面,考虑到人工智能的非自然人特征,可以参照船舶、航空器等物体国籍的确定标准。例如,《联合国海洋法公约》第91条、《国际民用航空公约》第17—21条以及《外空公约》第8条都分别确定了登记国对船舶、航空器和空间物体具有管辖权的一般标准。为了更好地确认管辖权,人工智能也应当采取登记地作为国籍。各国有权自主规定人工智能获得登记的条件,并允许符合条件的人工智能在其领土内登记、给予标示该国旗帜的权利并颁发相关证明文件。
(二) 人工智能对国际人道法的挑战
近年来,人工智能被大量应用于武器系统,促使武器系统的自主程度不断提高,并逐渐脱离人类控制。尽管许多国家都宣称,人类仍然在使用致命武器方面具有决定权,但联合国的一份报告显示,自动化杀伤性机器人武器系统正在到来,目标的自动化处理在战场上也只是时间问题,例如以色列正在实施一项闭环边界防御系统,由人工智能炮塔监视边界,无须任何人类干预,就能瞄准目标并攻击它们[22]14-15。此类自主武器系统(autonomous weapons systems,简称AWS)没有士兵或飞行员按下发射器,而是由人工智能系统自己决定攻击的时间与对象。因而,AWS已经不再仅仅是传统合法武器的升级,而是严重冲击着国际人道法(9)国际人道法是从人道主义的原则出发给予战争受难者以必要保护的国际法律规范,主要包括1949年《日内瓦公约》和1977年该公约的两个附加议定书。关于禁止使用滥伤性武器、比例原则等的相关规定。
美国国防部在其2013年的指令3000.09中将AWS定义为:“一旦启动,就可以在没有人类进一步干预的情况下选择和打击目标。”包括人类监督式自主武器系统,即人类保持对AWS干预和终止打击的能力,以及半自主武器系统,即武器系统一旦被激活,仅用于瞄准单个目标或由操作人员选定的特定目标群体[23]19。红十字国际委员会从关键功能出发,认为自主武器系统是指任何具有自主关键功能的武器系统,可以在不需要人为干预下选择(搜索、检测、识别、跟踪)和攻击(使用武力对抗、中和或破坏)目标[24]5。可见,AWS的最大特征依然是自主决策能力。
根据《1949年8月12日日内瓦四公约关于保护国际性武装冲突受难者的附加议定书》(以下简称《第一议定书》)第51条第4款的规定,滥伤性武器是指不能区分平民和军事目标的武器。在当前进阶版弱人工智能水平下,AWS的辨别能力显然低于受过长期训练的军人,因而难以准确识别现实中平民与军事目标等复杂情况。同时,根据国际人道法的相关规定,指挥官或操作者在使用武器系统方面应当遵循比例原则(10)比例原则的完整表述在1977年《日内瓦四公约关于保护国际性武装冲突受难者的附加议定书(第一议定书)》第51条第5款b项中,指“可能附带使平民生命受损失、平民受伤害、平民物体受损害或三种情形均有而且与预期的具体和直接军事利益相比损害过分的攻击”。与攻击预防规则(11)攻击预防规则完整表述在1977年《日内瓦四公约关于保护国际性武装冲突受难者的附加议定书(第一议定书)》第57条和58条关于攻击时的预防措施和防止攻击影响的预防措施的规定中。,寻求军事需要与平民保护两种价值之间的平衡,防止平民与民用物体的损失。关于比例原则,更是要求综合各种因素定性评估(12)参见Wanger M., ″Taking Humans Out of the Loop: Implications for International Humanitarian Law,″ Journal of Law Information and Science, Vol.21, No.2 (2012), p.165。。AWS的自主决策能力显然无法满足比例原则与攻击预防原则的基本要求。
鉴于此,国际社会禁止使用致命性自主武器系统(lethal autonomous weapons systems,简称LAWS)的呼声不断。根据停止杀手机器人运动组织(The Campaign to Stop Killer Robots)的报告,自2013年3月30日巴基斯坦呼吁禁止LAWS至2016年12月13日,已有19个国家发出同样禁止的呼声(13)The Campaign to Stop Killer Robots, ″Country Views on Killer Robots,″ https://www.stopkillerrobots.org/wp-content/uploads/2013/03/KRC_CountryViews_May2017.pdf, 2020-01-31.。2014年5月,联合国《特定常规武器公约》缔约国通过非正式专家会议的形式讨论是否有理由禁止LAWS(14)United Nations, ″Report of the 2014 Informal Meeting of Experts on Lethal Autonomous Weapons Systems (LAWS),″ https://documents-dds-ny.un.org/doc/UNDOC/GEN/G14/048/96/PDF/G1404896.pdf?OpenElement, 2020-01-31.,吸引了各国、联合国组织、红十字国际委员会和非政府组织的广泛参与(15)UN Meeting Targets ″Killer Robots″, https://news.un.org/en/story/2014/05/468302-un-meeting-targets-killer-robots, 2020-01-31.。
但是,已经发展AWS的国家不会希望以任何方式限制其军事使用。因而,需要国际关注和改变现有法律以应对这些挑战,而不是预先强加一套新的禁止规则或暂停发展AWS[25]411。现阶段可以通过修改国际人道法使其能够适用于AWS,以解决军事行动期间人工智能的强制性行为,并为各国在国际法下确立何时能够授权AWS进行操作和攻击提供一个标准[4]240。
(三) 人工智能对国际刑法的挑战
当人工智能代表个人做出《国际刑事法院规约》(以下简称《罗马规约》)禁止的行为时,会产生责任主体认定、归因方式与责任类型等新的问题。根据《罗马规约》第1条、第5条的规定,国际刑事法院对个人所犯的灭绝种族罪、危害人类罪、战争罪及侵略罪行使管辖权。这里的“个人”仅指自然人,非自然人的法人、国家、国际组织皆不能承担国际刑事责任。当具有自主决策能力的人工智能实体做出灭绝种族、危害人类、违反战争法或侵略的行为时,首先产生的问题是由人工智能自身承担责任,还是由人工智能背后的控制人或他人承担责任。根据《罗马规约》的规定,人工智能实体并不具有承担个人刑事责任的资格。未来人工智能即使被赋予法律人格,其最终承担的刑事责任类型也很有限,往往难以与其造成的行为后果相匹配,不符合刑法“罪刑相适应”的原则。因而,为了维护人类的生存利益,防止个人利用人工智能逃避责任,个人仍应当是唯一的国际刑事责任承担者。
当人工智能介入时,产生的主要问题是谁应当对人工智能的行为承担刑事责任,以及如何将人工智能的行为归因于个人。在责任主体方面,是程序员、控制人工智能机器的上司、采用这种战争方法的军事指挥官,还是命令军事指挥官采取任何有效战争方法的政治领导人[14]8-9?在此,不能将人工智能实体简单地类比为指挥官。因为人工智能缺少理性和伦理判断的能力,完全遵从算法的指令。因而,在责任主体制度的构建上,仍需系统考虑人工智能实体的特殊性与智能化程度。在归因方式上,宜采取过错归因原则,只有负有监督职责的人,或者与其交互的人存在过错,才需承担由人工智能行为产生的法律责任。
同时,个人承担的刑事责任还须附加一项特殊的刑罚类型,即对其控制的人工智能实体进行改造以符合法律规定,或者直接毁灭。在刑事责任的类型上,鉴于人工智能感受不到痛苦,需要选择其他的惩罚方式,例如失能与修复等方式[26]71。当前,《罗马规约》中尚无任何关于人工智能的规定,亟须对相关的责任主体、归因方式与责任类型做出一般规定。
(四) 人工智能对国际知识产权法的挑战
人工智能的生成之物一般通过两种方式产生:一是人工智能被人类用作工具,受到人类的直接控制;二是人工智能自主生成。在第一种方式下,人工智能生成之物的知识产权应当属于人类;在第二种方式下,由于具体创作过程缺少人类的参与,人工智能生成之物是否符合发明、作品或商标的标准以及归属权等问题仍存在一定争议。有学者认为在缺少人类干预时,人工智能生成的内容具有随机性,缺乏个性特征,并不符合独创性的要求[27]154-155。但是,创造型人工智能已经出现,并且在过去几十年里悄然发展起来[4]257。人工智能生成的具有价值与创新性的发明、作品或商标应当受到法律的保护,以鼓励创新,促进经济、文化的发展。在具体方式上,当人工智能在没有任何有意义的人类交互干预下自主创造新的知识产权时,人工智能本身应当被视为作者或发明者,但在其进入公共领域之前,人工智能的创造者应当对此享有10年的版权或专利权。由此,既可鼓励编程者开发具有自主创新能力的新程序,也能加快该产品进入公共领域的进度[4]291。
在人工智能生成之物在国内逐渐获得知识产权的同时,各国关于人工智能生成之物的保护标准也将不可避免地产生矛盾,尤其是在部分国家承认人工智能自主生成之物的知识产权而某些国家不承认的情况下,当未保护国的国民侵犯该知识产权时,权利人仅能在受保护国主张权利,这显然不利于知识产权的保护,因而需要国际知识产权法(16)主要指《保护文学和艺术作品伯尔尼公约》《保护工业产权巴黎公约》以及《与贸易有关的知识产权协定》。积极进行协调。但是,当前国际知识产权法对人工智能生成之物尚无任何规定。随着科技的发展,国际社会一直在努力推动知识产权法的更新,知识产权保护的范围也在不断扩大,例如计算机程式与数据。为了使人工智能自主生成之物受到应有的保护,国际社会应当设定最低的保护标准,在诸如人工智能生成之物的归属、保护期限等方面,各国应当具有一致性。
(五) 人工智能对国际人权法的挑战
传统上,国际人权法面临的挑战往往来自恐怖主义、战争、贫困与环境恶化等方面。在智能时代,国际人权法还面临人工智能的严峻挑战。一方面,人工智能将会冲击国际人权法的部分规定,例如人权的主体、人权的内容;另一方面,人工智能的不当利用会导致严重侵害人权的行为,例如人类利用自主武器系统做出违反国际人道法与国际刑法的行为,将会严重危害其他人的生命、财产、自由、发展、可获得的食物水源等。
国际人权法的发展经历了漫长的过程,真正意义上的国际人权保护文件出现在二战以后。《联合国宪章》中有关人权的条款为保护人权奠定了基础,1966年通过的两个人权公约(《经济、社会和文化权利国际公约》《公民权利和政治权利国际公约》)及一个议定书进一步细化了人权的基本内容[8]634-638。人权既包括个人权利,也包括集体权利(17)集体权利包括民族自决权、发展权、环境权、和平权等,参见白桂梅《论新一代人权》,载《法学研究》1991年第5期,第3-4页。。根据国际人权保护文件的规定,人类是人权的唯一主体(18)例如《联合国宪章》第1条,《公民权利和政治权利国际公约》与《经济、社会、文化权利国际公约》的序言部分都强调了人权的主体是人类。。但是,人权的主体具有扩大的趋势。先有关于集体权利的主体是个人还是集体的争议[28]4-5,后有人权主体从生命主体到人格主体的扩展[29]55-57。例如,法人在诸多国内法律和国际条约中已经获得部分人权(19)1950年《欧洲人权公约第一补充议定书》第10条规定:“每个自然人或法人有权和平享有其财产。”参见徐显明、曲相霏《人权主体界说》,载《中国法学》2001年第2期,第55-57页。,突破了建立在人类尊严基础上人权主体的唯一性(20)有学者认为人的尊严是人权的基础,参见[美]艾伦·格沃斯《作为权利基础的人的尊严》,钟夏露、孙雨菲编译,载《中国人权评论》2015年第2期,第153页。。
当前,人工智能已经应用于人类生活、学习和工作的各个领域,并在逐步取代人类的工作。未来,人工智能的水平会不断提高,甚至可能超越人类,成为人类生存的主要工具。为了维护人类的利益,法人被逐步赋予部分人权。人工智能在成为人类利益的主要创造者和维护者的时候,也可能被赋予人权的部分内容,例如财产权、劳动权。但是,人工智能拥有人权的目的限于保护人类的利益。例如,赋予部分“情感陪护型机器人”以人权,目的是保护被陪护人的权益。因而,当人工智能涉及人的情感、利益以及人获得陪伴、帮助的权利时,人工智能会因此获得一些“边际人权”。但是,当前《联合国宪章》第1条以及《世界人权宣言》、两个人权公约的序言部分规定的人权主体仍仅限于人类,未来,国际人权法需要对此做出特别规定。
(六) 人工智能对国际海洋法、国际海事法的挑战
在海上航行方面,与无人驾驶汽车和无人机类似的是,人工智能技术的应用使无人船舶成为现实。由于当前人工智能在国际海洋法、国际海事法领域中带来的挑战都是由无人船舶引起的,因而本文将这两部分放在一起讨论。无人船舶最终的发展方向是船上没有人员的完全自动航行[30]60。和人类驾驶型船舶相比,无人船舶在节约成本、降低风险等方面具有独特优势。虽然当前关于无人船舶的尝试大多都是学术性质的,但有一些组织正在寻求将该技术商业化[31]198。未来,无人船舶也将会被用于货物托运、乘客运送等诸多工作中。但是,当前国际航运规范、海洋法和国际海事法的前提是人的存在和控制船舶(21)Chircop A., ″Testing International Legal Regimes: The Advent of Automated Commercial Vessels,″ German Yearbook of International Law, Vol.60 (2017), p.109.,因而需要重新审视相关国际法规范以确定哪些可以适用于无人船舶,哪些不能适用于无人船舶。在不能适用时,应当做出怎样的改变。
关于“船舶”一词,不同国际条约的规定并不相同,有的甚至没有做出规定(22)《联合国海洋法公约》未对船舶一词做出具体规定,而《国际防止船舶造成污染公约》第2条规定,船舶包括在海洋环境中运行的任何类型的船舶。,其实,无人船舶除了缺少船员外,与传统船舶并无区别,暂且假定无人船舶属于船舶的一种。作为船舶,无人船舶的航行也需要考虑适航标准、航行规则、海上合同、海事赔偿责任等诸多问题,涉及复杂的国际规则。尤其是依据不同的标准,无人船舶可以被分为不同的类型(23)例如,根据是否载人载物,无人船舶可分为载人无人船舶、载物无人船舶以及空船无人船舶三类。根据人类控制程度的不同,无人船舶可分为遥控船舶、自动化船舶与自主船舶三类,自动化船舶又可进一步分类为人为控制、人工授权控制和人为监控控制三类。根据是否在水面航行,无人船舶可分为无人水面舰艇和无人潜艇两类。“空船”在租船业务中通常指配备了船员却没有载货或者载客的船舶,将“空船”与“无人”结合指代没有载货和载客且没有船员的船舶。参见Chwedczuk M., ″Analysis of the Legal Status of Unmanned Commercial Vessels in U.S. Admiralty and Maritime Law,″ Journal of Maritime Law and Commerce, Vol.47, No.2 (2016), pp.128-130; Schmitt M.N. & Goddard D.S., ″International Law and the Military Use of Unmanned Maritime Systems,″ International Review of the Red Cross, Vol.98, No.2 (2016), p.571。,不同类型的无人船舶所适用的规则存在一定差异,由此也进一步加剧了国际规则的复杂程度。
例如,在无人船舶的航行规则方面,根据《联合国海洋法公约》(United Nations Convention on the Law of the Sea,简称UNCLOS)第17条和第58条的规定,船舶在他国领海享有无害通过权、在专属经济区享有航行自由等航行权利。虽然UNCLOS在制定之初没有考虑无人船舶,而且在第94条要求船旗国采取保证船舶海上航行安全的必要措施,其中就包括船员的资格和人数要求,但是鉴于UNCLOS中的大部分内容已经成为习惯国际法,无人船舶也应当享有类似的权利并履行同等的义务。同时,考虑到无人船舶的特殊性质和潜在危险性,沿海国对无人船舶也应当享有特殊的管辖权。例如,UNCLOS第22条规定沿海国指定或规定海道和分道通航制,可以适用于无人船舶。为了方便沿海国的管辖,无人船舶本身应当具有特殊的足以被辨别的标记,或者由船舶所有者主动向沿海国做特别报告。
值得注意的是,在UNCLOS中军舰享有特殊的权利,例如主权豁免权、扣押实施海盗行为的船舶、登临权、紧追权,并参与旨在保护海洋环境的执法行动(24)参见《联合国海洋法公约》第32条,第107条,第110条,第111条,第224条。。由于军舰需要军官指挥并配备服从正规武装部队纪律的船员(25)参见《联合国海洋法公约》第29条。,无人船舶往往难以满足军舰的要求。但是,为政府服务的其他船舶也具有同样的权利(26)参见《联合国海洋法公约》第32条,第107条,第110条第5款,第111条第5款,第224条。。除此之外,UNCLOS并没有施加更多的标准。这意味着只要无人船舶具有相应的标记并有资格成为船舶,则没有其他原因可以阻碍无人船舶由政府授权行使军舰享有的特殊权利[32]579。
此外,在海事赔偿责任方面,对于受远程控制和监督的无人船舶,控制人、监督者和船舶所有者应当对事故承担责任。但是,完全自主的船舶在造成海洋污染或发生船舶碰撞事故时,应当由谁承担责任?是所有者、设计者、建造人,还是船旗国?同时,在追责过程中还面临主观注意义务如何确定的困境。例如《国际海上避免碰撞规则》第7条要求船舶判断是否存在碰撞危险,第8条规定了避免碰撞的行动。由于无人船舶难以做出理性人的分析,在涉及无人船舶的事故中进行疏忽分析往往存在困难[33]421。因而,法律要求的注意义务目前只能由无人船舶的所有者或设计者在过错原则的基础上承担。
三、 国际法应对人工智能挑战的途径
大数据时代,直觉的判断被迫让位于精准的数据分析[34]21,人类的衣、食、住、行都被迫与人工智能密切联系。在强人工智能时代,人工智能表现出明显的智能行为,至少在整个认知任务中,与人类一样先进[1]7。艾萨克·阿西莫夫曾在短篇科幻小说《环舞》中首次提出机器人学的三大法则(27)第一法则,“机器人不得伤害人,或者坐视人类受到伤害而袖手旁观”;第二法则,“除非违背第一法则,否则机器人必须服从人类命令”;第三法则,“在不违背第一及第二法则的前提下,机器人必须尽可能地保护自己”。。虽然这些法则针对的对象不包括其他类型的人工智能实体与研发者,但是也对今天如火如荼开展的人工智能研发提出了颇有价值的建议。人工智能的应用在促进社会发展的同时,也会产生严峻的安全问题,不排除人工智能的研发被用于实现非法目的,甚至走到人类难以控制的地步。基于此,正确处理人工智能技术发展与国际法的关系显得尤为重要。为此,国际社会必须确立以人工智能安全使用为价值的目标,始终以其对人类社会的影响为指导,积极引导人工智能健康发展,在防范风险的同时为人工智能技术的发展留有必要的制度空间。
(一) 制定国际软法
国际软法是没有作为条约或习惯国际法的地位的形式性国际文书,亦是在形成过程中的未成熟规范的总称[35]2。在变革过程中的法领域,由于新规则的形成存在困难,往往首先用“软法”形式的文件抽象性地确认这些规则,然后通过国家惯常的积累,将成熟的“软法”凝固、结晶化为“硬法”[35]2。在国际软法中,存在一种超级软法,其制定主体是相关利益方、专业团体、社会和自然科学家、公司以及民间社会组织形成的无政府无领导的立法机构[15]106。在其制定普遍适用的标准时,没有任何传统的国际法制定者参与其中,例如主权国家、国际组织等[15]106。从软法发展的历史来看,其产生的原因主要是新事物的出现和硬法制定的滞后。为了有效治理新事物,不得不率先制定软法。
人工智能属于新兴领域,许多国家的人工智能技术尚处于起步或前期发展阶段。虽然主权国家自身会出台相关指导性规则、行业调整规则等,但是在短期内,各国难以缔结具有约束力的国际规范。而人工智能的安全问题不容忽视,其发展需要得到有效规范。因此,人工智能的相关利益方、研发者、公司以及民间社会组织可以率先组织起来,尽快制定关于人工智能安全和伦理的技术标准。与网络领域的代码类似,这些标准将用于解决人工智能的安全和伦理问题。我国阿里巴巴、科大讯飞等科技公司的部分人工智能技术已经处于世界前列,应当抓住这种领先优势,主动制定或牵头制定相关超级软法,从而掌握人工智能技术标准的话语权。同时,相关国际组织也应当积极制定规范人工智能的软法规则。
值得注意的是,国际软法都缺少法律约束力。网络领域随着互联网技术的发展逐渐制定了硬法,形成了“软硬结合”的治理方式。在人工智能领域制定国际软法虽然能够解决技术问题和一定的伦理问题,但其不具有约束力,而且难以应对层出不穷的新型社会问题和伦理问题。此外,网络域名和地址分配规则与人工智能标准存在明显不同。前者属于静态技术,由于网络的交互性和普遍性特征,各国需要遵循统一的标准;而后者仍处在动态发展过程中,任何国家、团体或个人在掌握技术的情况下皆可创造人工智能实体,缺少遵循统一标准的动力。未来人工智能发展的高度可能超出人类所能控制的范畴,引发更深层次的伦理问题,因而需要相关的国内法以及国际法予以指导、规制和保护。
(二) 修改和出台多边条约
解决各国之间有关人工智能的争议、潜在问题以及冲突的最好的办法就是通过多边条约的形式[4]235。经过长期发展,部分软法硬法化是必须进行的立法工作。软法不具有强制力,其作用更多体现为指导性和宣示性。而人工智能仍处于发展之中,在必须设置强义务责任领域内仍然需要硬法进行规制。另一方面,软法由于在解释上具有更大的随意性,也难以在司法程序范围内发展适用甚至改进,给国际法治建设带来不稳定因素。因此,将来有必要将部分人工智能软法硬法化,促成相关多边条约的出台。同时,通过修改多边国际规则,例如国家责任原则中的具体内容,实现对人工智能的有效规范,避免出现法律漏洞的情况,及时解决人工智能对这些规则提出的挑战,形成全球性的风险防控机制。
当前,尚无任何国家或人权组织去关注弱人工智能演化为进阶版人工智能甚至强人工智能的后果。这本是一个应该早在科学家、计算机工程师和程序员成功创建单个或多个超智能机器人或能控制地球的机器之前,就需要解决的可能对人类产生重大影响的问题[14]10-11。在现实生活中,人类在从事一定行业时往往需要一定的培训并取得资格证书和职业证书,人工智能在具体应用到某一领域时也应达到相应的标准[2]419。对此,国际社会宜设定人工智能的使用标准[4]240-241,以便监督管理。
在人工智能武器系统领域,非政府组织Article 36提出了“有意义的人类控制”(Meaningful Human Control)这一新兴概念,作为解决AWS所带来的挑战的一种可能方案[36]1,并得到联合国《特定常规武器公约》缔约国的广泛认同(28)Article 36, ″Article 36 Reviews and Addressing Lethal Autonomous Weapons Systems,″ http://www.article36.org/wp-content/uploads/2016/04/LAWS-and-A36.pdf, 2020-01-31.。该组织将满足人类控制的关键要素总结为四点:第一,技术是可预测的、可靠的和透明的;第二,使用者必须拥有正确的信息;第三,及时的人类判断、行动和介入;第四,一定标准下的负责制[37]3-4。其实,无论是AWS,还是其他类型的人工智能实体,人类都应当始终对人工智能的发展和行为负责,以避免人工智能本身对人以及人类的权益造成损害。因而,任何人工智能实体都应当严格遵守“有意义的人类控制标准”。该标准应当以法律规范的形式固定下来,并贯穿于人工智能实体研发、制造和使用的全过程。
然而,修改与制定国际规则不是一蹴而就的事情,国家之间的利益分歧往往阻碍新规则的产生和发展。从国内规则与国际规则的互动规律来看,国内规则与国际规则之间总是相互影响、相互促进的(29)参见赵骏《全球治理视野下的国际法治与国内法治》,载《中国社会科学》2014年第10期,第79-99页;孔庆江、王艺琳《国际法与国内法的关系:国际组织法律文件的视角》,载《武大国际法评论》2018年第1期,第50-76页。。国内规则在得到他国认同的情况下可能会逐渐上升为国际规则,同时国际规则也会在主权国家承担国际义务的范围内转化为国内规则。在人工智能领域,虽然尚未缔结任何有约束力的国际规则,但是相关的国内政策和规则已经出现。在制定与修改国际规则的路径上,部分主权国家可以选择在分歧较小又亟须实现有效规范的技术标准领域率先缔结双边或区域性条约,将国内法的共识部分上升为国际条约。随着人工智能的不断发展,相关国际条约的加入国会不断增加,反过来也会影响国内规则的制定。总体上,多边条约将会与相关行业规则、国家立法、国际示范法等相互影响、相互促进。
(三) 设立专门性国际机构
为了应对人工智能在全球范围内带来的机遇与挑战,引导人工智能更好地服务于人类命运共同体的建设,宜在国际层面设立人工智能的专门性国际机构。考虑到各国之间的利益分歧,人工智能专门性国际机构并不限于政府间国际组织。在职责方面,人工智能专门性国际机构应当至少履行以下五个方面的职责:(1)关注并制定人工智能行业标准、技术与伦理规范;(2)人工智能研发的合规、国家规则协调及监管;(3)人工智能技术与知识产权保护;(4)人工智能争端与冲突解决;(5)人工智能与现有国际法体系的“融合”等等。
以人工智能的监管为例,由于任何一国的强人工智能都可能变成对全人类的威胁,因而迫切需要实现全球性的监管合作。根据《第一议定书》第36条的规定,一个国家具有自主审查新武器、作战手段或方法的义务,以确定是否符合国际规定。然而,由于超智能机器以广泛共享的人类理想为动力,可以对人类控制新兴技术的危险方面更为有益,从而能够提高国家的政治、经济和国防优势。没有一个国家或公司会放弃研究人工智能,因为研究可以获得某些好处并制衡竞争对手[19]139。因而,主权国家一般缺少足够的动力去执行自主审查任务,需要独立的第三方来履行监督人工智能技术发展的责任。
作为尖端科技,人工智能技术在各国和私人机构的研发和应用一般处于保密状态。但是,如果任由资本和利益驱动的人工智能技术发展,可能会对公平、正义造成毁灭性打击。在监管方式上,各国和私人研发机构应当定期向专门机构报告研发进程,同时在出现重大技术创新时也必须及时报告。在监管对象上,应当局限于一定水平基础上的人工智能核心程序或算法。虽然人工智能可以被应用于各个领域,但是专门机构的监管范围并不包括所有与人工智能相关的领域,而应当被限定在与人类安全息息相关的领域,例如武器系统等。
由于对人工智能技术的有效管理需要机构拥有专业技术知识,因而监管部门以及监管过程的各个阶段都需要高级专家的参与。对此,一方面,可以采取新型的人事分配和交换模式,即临时性人事分配模式,让专家在监管机构、大学、研发中心以及其他符合条件的组织之间定期流动。另一方面,可以建设技术合作机制,由国际监管机构委托独立技术机构检查、测试部分算法。同时,各国应当加大与人工智能有关的教育投入,培养一批专业的队伍。
四、 结 语
人工智能的发展已经成为不可阻挡的潮流和趋势,也再次突显了科技与法律的矛盾关系。追溯远古,如果将工具的使用看作科学创造、把规则的创制视为发明,那么科技与法律都是人类为了更好地生存和生活而进行的文明构建。人工智能的发展对社会各方面都产生了重大影响。在国际法领域,人工智能不仅极大地挑战了国际法基本原则,而且深刻影响了国际法的具体领域。面对这些共同的挑战和风险,亟须实现全球治理。尽管国际社会无法在短期内达成较为一致的意见,从而制定国际法规予以管制,但是技术层面的自我规制可率先行动。通过民间力量形成较为可行的技术标准,首先保障人工智能不越界,这也完全符合法的历史轨迹——从共识到习惯再到规则。同时,国际法律工作者应主动参与人工智能相关软法的制定,并适时促成相关多边条约的出台,设定“有意义的人类控制标准”,同时设立国际监管机构,实现对人工智能技术的有效引导、约束和规范,使人工智能的发展在法治的轨道上不断推进。