弱人工智能时代的法律回应
——构建以产品责任为核心的责任分配体系
2019-01-26钱思雯
钱思雯
(常熟理工学院,江苏 常熟 215500)
0 引言
案例一:2011年,英国一驾驶员根据GPS指引,超车并将车辆转向道路错误的一侧造成交通事故致人死亡。法院认为GPS的失误是事故的部分原因,但驾驶员对GPS的过分依赖构成了疏忽驾驶,被判处4年徒刑。
案例二:2016年,美国佛罗里达州一辆开启Autopilot模式的特斯拉电动汽车对驶近的大货车未做出任何反应,径直撞向了大货车尾部的拖车并导致驾驶员死亡,成为人工智能发展史上第一起自动驾驶致死事故。
案例三:2017年,ElsaGate (爱莎门事件)使不良儿童视频广泛传播,由于You Tube算法存在漏洞 (如自动推荐算法给予基于视频发布者的权值权重很小,给予个人观看者权值比重大;儿童安全算法易被规避等),导致个别有害视频被儿童观看后大量类似视频被自动推荐给儿童。
从深蓝到AlphaGo,从GPS到智能车,近年来,人工智能 (Artificial Intelligence,AI)在多个领域取得突破进展并展现了极为强大的深度学习能力,甚至超越了人类一流专家水平,人工智能已成为不可阻挡的时代潮流,对各国经济社会发展产生着战略性和全局性影响。 《国务院关于积极推进 “互联网+”行动的指导意见》提出,到2018年,要在重点领域培育若干全球领先的人工智能骨干企业,初步建成基础坚实、创新活跃、开放协作、绿色安全的人工智能产业生态,形成千亿级的人工智能市场应用规模。
人工智能的飞速发展带来了一系列社会与法律问题:社会层面,特定行业工作岗位首当其冲,2018年1月,美国卡车司机工会要求与UPS谈判禁止无人机和无人驾驶卡车配送包裹,以保障26万名员工工作;法律领域,2017年12月,工信部 《促进新一代人工智能产业发展三年行动计划 (2018—2020年)》提出要开展人工智能相关政策和法律法规研究,为产业健康发展营造良好环境。年是三年行动计划的之年,人工智能法律领域的研究也已提上议事日程,人工智能的民事主体地位、人工智能作品著作权、人工智能侵权、大数据时代隐私权保护等问题皆已引起了各方关注。
面对人工智能时代对现行法律体系的挑战,本文针对以下问题进行思考:传统法律如何应对人工智能技术革新?怎样构建人工智能时代的责任分配体系?如何在保障安全与促进技术进步之间取得平衡?本文的第一部分对当前人工智能的发展阶段进行定性,认为当前人工智能属于弱人工智能阶段,尚未脱离 “物”之属性,仍属法律关系的客体;第二部分从责任分配的角度分析弱人工智能时代可能承担责任的主体,认为由制造商承担产品责任是平衡技术发展与消费者权益保护的最优选择;第三部分讨论弱人工智能技术发展对现行法律体系的挑战,认为法律应对人工智能的合法地位采取宽容态度,并确立合理的监管框架和责任分配体系。
1 人工智能的定位:弱人工智能的 “物”之属性
技术进步使人工智能逐渐由 “物”向 “人”转变,对应人工智能法律人格从无到有、法律地位由法律关系的客体向主体的转变。人工智能的不同法律定位对应了不同的纠纷解决形式,影响最终的权利归属与责任承担方式,因而明确现阶段人工智能技术的发展阶段与法律地位成为探讨人工智能一切法律问题的前提。
1.1 发展阶段
自1956年达特茅斯会议上提出人工智能概念以来,人工智能的发展已经历60多年,对人工智能的讨论围绕 “思考”和 “行为”区分了四个维度,即:像人一样思考的系统,理性地思考的系统,像人一样行动的系统,理性地行动的系统[1],但对其定义至今未有一致结论。从发展阶段看,人工智能可分为弱人工智能 (Artificial Narrow Intelligence,ANI)、强人工智能 (Artificial General Intelligence,AGI)和超人工智能 (Artificial Super Intelligence,ASI)三个阶段,弱人工智能尽管具有推理计算、自我学习能力,可以像人类一样解决任何问题并在任何社会环境中进行互动,但并不具备意识;强人工智能则具备意识、自我、创新思维等与人类类似的智能[2];超人工智能更是在各方面均远超人类大脑。
目前,弱人工智能已取得了飞速发展并充斥在人类生活的各个方面,如搜索引擎、导航系统、人脸识别系统、AlphaGo,等等[3]。尽管深蓝、AlphaGo等人工智能在某些领域击败人类顶尖高手,但尚未具备自我、意识等类人类智能,仍未跨越与强人工智能之间巨大的技术鸿沟, 《星球大战》中的C-3PO等智能程度匹配甚至超越人类智能的强人工智能仍属虚构。 《奇点临近》一书预言技术发展将以指数级速度递增,人工智能将在2045年超过人类智能[4],但奇点临近前的当前时点仍处于弱人工智能阶段。
1.2 控制能力
面对人工智能的爆发式发展,霍金曾公开表示忧虑,其认为: “可以想象,人工智能会以其‘聪明’在金融市场胜出,在发明方面胜过人类研究者,在操纵民意方面将胜过人类领导人,研发出人类甚至不理解的武器。尽管人工智能的短期影响取决于谁在控制人工智能,而它的长期影响则取决于人工智能能否受到任何控制。”可以看到,控制权的归属将成为强人工智能和超人工智能时代人类与人工智能交互作用的焦点,也是人工智能从法律关系的客体向主体转变的重要转折点。强人工智能以后,人工智能技术超越人类控制能力,伦理性将超越技术性成为人工智能法律制度的基石,从 “机器人三定律”到 “阿西洛马人工智能原则”,人工智能的伦理性基础将确保其未来发展以人类最佳利益行事。
弱人工智能的深度学习能力导致其行为具有不可预测性,当制造商 (设计者)将人工智能用于实践后就无法预见其将如何运行,更无法预测其与消费者或第三方互动学习结果[5],例如,案例三中,You Tube根据用户点击习惯推荐类似视频导致有害视频扩散,微软聊天机器人Tay根据互动用户语言习惯学习并发表种族歧视言论,等等。然而,尽管无法精准预测弱人工智能的行为结果,制造商 (设计者)仍可通过更科学合理的设置算法与强化审核过滤体系对不可预测后果加以防范。因此,尽管弱人工智能具有独立思考与深度学习能力,甚至具备某种程度的独立行为能力,但仍离不开人类的监管与控制,如人类驾驶员在自动驾驶模式下仍需保持足够警觉并在系统发出请求时及时恢复人工控制,又如网络平台自动推荐系统的控制权由平台公司掌握并受到监管。由此可见,弱人工智能阶段,人类有能力也有义务保持对人工智能的控制以保障技术发展的安全性,对弱人工智能的法律规制更多集中于技术层面。
1.3 法律地位
沙特阿拉伯于2017年赋予机器人 “索菲亚”公民身份,引发了对人工智能法律地位的思考,其究竟是隶属于人类的 “财产” “自然奴隶”,还是与人类相似的 “公民”[6]?具有公民身份的机器人 “索菲亚”在当前只是特例,弱人工智能的公民地位并未得到普遍认可,人工智能的公民权问题在强人工智能时代将无法回避,而弱人工智能时代则更多关注责任分配等私法问题。
长远来看,确定人工智能有限法律人格或特殊法律地位系大势所趋[7],当人工智能自治性增强到具有独立行为能力的转折点——便产生了独立承担民事责任的必要性与可能性。2016年,欧洲议会向欧盟委员会报告第59 (f)项建议: “从长远来看,要创设机器人的特殊法律地位 (a special legal status),以确保至少最复杂的自动化机器人可以被确认享有电子人 (electronic persons)的法律地位,以弥补人工智能所造成的任何损害,并适用于机器人做出自主决策或独立与第三人交往的情形”。除技术突破外,还需辅以劳动法、税法、保险法、公司法、信托法乃至宪法等法律的变革,才能使人工智能享有独立财产并享有一定程度的私法 “人格”[8]。
目前,弱人工智能虽具有独立思考与深度学习能力,但尚未具备自我意识与情感,也不能离开人类的最终控制。从作为辅助驾驶工具的GPS到可独立作出判断的自动驾驶汽车,人工智能自治性不断增强,工具性不断减弱,难以做出准确的法律定性。明确弱人工智能的法律定位是解决一切法律问题的关键,根据人工智能的特殊属性,其可能的法律定位包括[9]:
(1)雇员:近年来,亚马逊等公司开始探索采用无人机、无人驾驶汽车送货,导致人类快递员岗位岌岌可危,或可将弱人工智能的法律地位类比为人类雇员,其造成的损害由雇主承担替代责任。然而,与其说无人机、无人驾驶汽车类似于人类雇员,不如说其为更先进的运输工具更合适。再进一步,人工智能并不具备人类雇员的特性,无法在复杂的社会活动中作为一个有自我意识的主体存在,难以从主观上断定其是否为 “雇主利益”行事,对其自我学习、自我判断后超出授权范围的行为难以断定是否属于 “职务行为”,将其类比为 “雇员”并不合适。
(2)代理人:电子代理人 (electronic agent)在电子商务缔约过程中的广泛运用提出了人工智能法律地位的另一种可能——代理人,与人类代理人相似,电子代理人使被代理人行为得以延伸,并将行为后果归属于被代理人。然而,电子代理人实质上仍是计算机程序、电子或自动化手段,根据既定程序运行,与人类代理人有本质区别,没有能力对代理过程中造成的损害承担民事责任,无法超脱工具范畴 (Instrumentality Theory),并不适合将其类比为代理人[10]。
(3)未成年人:将人类对弱人工智能的监管类比为对未成年人的监护,监护手段与强度随着被监护人理性的增长而调整[11]。但监护权系准身份权[12],弱人工智能并不具备 “人格”与 “身份”,并且其理性程度、承担监护义务的主体均难以确定,无论使设计者、制造者或使用者负担监护义务,均将造成 “监护人”的过重负担,阻碍人工智能技术发展。
(4)动物:弱人工智能的理性水平尚处初级阶段时,抛开 “人格”与 “身份”的顾虑,动物或许是更为合适的类比对象。动物饲养人或管理人实际控制、管理着动物,并了解动物的习性,比一般人更能注意和防范损害发生,应当对动物采取安全措施并负合理注意义务,对动物造成的损害承担侵权责任。然而,此种类比将弱人工智能侵权责任施予实际控制者 (如使用人,往往是消费者),并不深究损害原因[13],但事实上,实际控制者并不掌握人工智能的运作原理,不能预测其行为趋势并防止损害发生,由其承担替代责任并不公平。
(5)危险行为:还有一种思路是将弱人工智能类比高度危险作业,如民用核设施、航空器、高度危险物等,由实际控制者承担无过错责任。然而,人工智能的运用与火箭测试、高速驾驶油罐车等行为存在本质区别,发展人工智能的目的是使人类生活更为便利与安全,即便在使用过程中产生了危险也并非其固有风险,很难将其定性为危险行为。相反,弱人工智能在提高安全性、减少事故发生方面做出重要贡献,例如特斯拉在安装了Autopilot辅助驾驶系统后交通事故发生率降低了40%。
(6)物:弱人工智能远未发展到 “电子人”阶段,人类依旧保持着对弱人工智能的监管与控制。不同于对未成年人的监护及对动物的管理,人类对弱人工智能的监督主要体现在两方面:一方面,体现为制造过程中制造商对程序和算法的设定、技术的改进,以及在后续维护中对程序的更新及漏洞的弥补;另一方面,体现为应用过程中使用人对控制权的掌握。现阶段,人类对弱人工智能的权益并未脱离占有、使用、收益、处分的范畴,将人工智能定位为 “物”,特别是被人们生产、使用和消费的 “产品”更为合适,有利于推动人工智能商业化进程。
2 弱人工智能的责任承担:以产品责任为核心
无论是有形的自动驾驶汽车,还是无形的算法,弱人工智能作为 “物”与人类互动不断增多,无可避免产生损害与侵权风险。不同于奇点来临后的强人工智能,弱人工智能尚未具备独立承担法律责任的条件,但与传统 “物”之侵权不同,弱人工智能侵权特征表现为侵权形态的多样性、侵权原因的复杂性以及控制手段的隐秘性,如何合理分配弱人工智能的侵权责任,从而推动技术进步并保障技术安全成为现行法律亟待回应的重要问题。
2.1 责任主体
导致人工智能侵权的原因多种多样,包括人工智能产品缺陷、使用人 (监管人、第三人等)的错误操作以及人工智能本身的独立判断等,在人工智能与人类互动导致损害的过程中,责任主体有以下可能[3]:
(1)制造商 (设计者、经销商等)。人工智能作为产品本身的缺陷,包括制造缺陷、设计缺陷和警示缺陷,应由制造商 (设计者、经销商等)承担责任。如案例三中,You Tube应对存在漏洞的算法导致的损害结果负责;实务中汽车制造商对汽车电子控制系统设计缺陷、定速巡航系统缺陷亦承担产品责任。
第三天仍然是有,第四天,第五天,一个星期过去。第十天的时候,阮小棉终于把那张报纸留下来。她记下了他的地址,芙蓉里五段18号。
(2)使用人 (监管人、第三人等)。目前的弱人工智能尚未具备独立行为能力,使用过程离不开人类控制与监管,即便使用者并不了解、无法预测人工智能的行为,仍需为其行为承担责任[13]。如案例一中GPS提供的路线指引离不开驾驶员的独立判断;Google汽车Autopilot系辅助驾驶系统需要驾驶员保持对车辆的控制和快速反应;自动驾驶模式下的飞机驾驶员仍有义务对飞机保持严密监控。此外,第三人通过与人工智能互动等方式对其自我学习结果产生影响致使损害发生,也应当承担责任,如聊天机器人自动学习的语言内容与使用者的语言习惯有直接关系;黑客对系统漏洞的攻击可引发隐私泄露等一系列严重后果。因此,弱人工智能的使用人、监管人乃至第三人都是可能的责任主体。
(3)人工智能本身。特定情况下,弱人工智能符合逻辑的正确决定也将导致损害,产生人工智能本身承担责任的可能。例如:两辆完全自动驾驶汽车在高速公路上同向行驶,A车在左车道,B车在右车道,A车在B车略前方。一头鹿突然出现在左车道中间,A车立刻做出决定,向右车道打方向以避免撞到那只鹿。右车道内的B车同样做出决定,向右侧打方向以避免碰撞到A辆车,撞到了右面的一棵树并导致B车内乘客受伤。两辆自动驾驶汽车均正确运行并做出最安全的决定,由人工智能本身承担责任似乎最符合公平正义的理念。当前,美国国家公路运输安全管理局 (the National Highway Transportation Safety Administration)已承认车辆自动驾驶系统作为车辆 “驾驶人”,由人工智能本身承担责任的情境并不遥远。
此外,在人类与人工智能的复杂互动中,尤其是弱人工智能尚离不开使用人监督操作的现阶段,更多出现混合责任的情况,如人类驾驶员在不利的天气条件或路况下开启自动驾驶模式,以及未能在特定情况下重新控制车辆等,此时,事故原因的界定及责任的合理分配将更为困难。
2.2 最优选择
无论是通过传统侵权法体系还是产品质量法体系解决弱人工智能侵权责任分配问题,事故原因的查明均系关键所在,但只有制造商才具备技术与数据优势进行调查。此外,正如霍姆斯法官所说, “最安全的方式是将风险交给决定采取何种预防措施的人。”[14]人工智能的制造商掌握着最全面的制造与改进技术,对弱人工智能具有最强的控制权。无论从事故原因的确定还是从风险控制方面来看,制造商都具有最优主体地位,具体而言:
(1)调查优势。人工智能的运作过程类似 “黑匣子”,无论是法院还是其他专门调查机构,在事故原因调查中都需要人工智能制造商配合以获得相关数据,如案例二中,美国国家公路交通安全管理局作为调查主体要求特斯拉公司移交自动驾驶系统引入以来的一切设计变更与更新的详细信息,以及接下来四个月的更新计划。弱人工智能的运作过程类似 “黑匣子”,制造商在推动 “黑匣子”转变为 “玻璃匣子”的进程中发挥核心作用。目前,各国已开始推动人工智能的透明化进程,欧盟要求配置大量对公众产生影响的算法的公司,必须在2018年前对所创建模型的内部逻辑做出 “解释”,美国国防高级研究计划署也制定了 “可解释的人工智能新计划”力图对人工智能深度学习进行解释[15]。
(2)控制优势。由于制造商掌握着弱人工智能的核心技术并在制造、设计、警示方面具有主动权,较于其他主体,制造商对人工智能产品更为了解,更有利于控制事故、改进技术,具有最低的预防成本,根据汉德公式,由制造商作为人工智能侵权的第一责任人具有合理性。制造商对弱人工智能行为缺乏预见能力并不能成为其拒绝承担产品责任的 “挡箭牌”,现代侵权法的多样性风险路径扩张了风险预见能力与预见范围[5],制造商 “合理预见”范围也进一步扩大,必须预见人工智能产品可能的一切用途,而不局限于其宣称的功能。而随着弱人工智能技术发展,越来越多弱人工智能将独立运作,责任承担将进一步由混合责任向制造商责任倾斜。
制造商的第一责任人地位也引发了一系列担忧:一方面,面对不可预见的产品责任,制造商将失去开发新产品的动力从而阻碍技术进步[16]。严格的产品责任使中小企业很容易因几起诉讼而破产,大企业则成为侵权诉讼的 “深口袋 (Deep Pocket)”背负沉重枷锁;另一方面,制造商采取各种手段转移责任使产品责任名存实亡,从而对人工智能市场发展产生负面影响。如将具备看护功能的人工智能保姆作为 “玩具”销售,消费者难以证明对其看护功能的 “合理期待”,出现问题后难以归咎于产品责任[3];或与消费者签订格式条款要求消费者保持注意义务并承担最终风险,如Tesla要求自动驾驶模式下驾驶员的手经常保持在方向盘上并保证控制权,将责任转移到使用人。
(1)责任限制。①免责事由。根据 《产品质量法》规定的免责事由,未将产品投入流通、产品投入流通时引起损害的缺陷尚不存在、科技发展水平限制可作为免责事由进行抗辩,但后两种抗辩事由应采取更严格的标准,要充分考虑到制造商对人工智能自动学习、自我发展能力的预测与控制能力。②责任限额。科技进步与风险伴生,以航空法的发展为例,20世纪初飞机的发明对当时人类社会的冲击并不亚于人工智能时代的到来,为保障航空公司免于大规模侵权诉讼,1929年签订的 《华沙条约》对国际航空运输中的承运人责任、损害赔偿标准等做出了规定,促进了技术创新与航空产业发展[18]。面对弱人工智能造成的不可预知的侵害,可参考航空法责任限额方式对制造商责任进行限制。③合理替代设计。制造商并不因人工智能带来净效益而免责,但为缓和制造商责任并防止诉讼泛滥,在缺陷的认定上可采合理替代设计标准,即制造商若能证明不存在其他合理替代设计以避免损害可减免责任[9]。在完全自动驾驶车辆基于独立判断仍不免发生事故的情况下,制造商并无合理替代设计方案避免事故,即便人类驾驶员也无法做出更好的选择,根据风险-效用理论并不能认定自动驾驶车辆存在缺陷,因而制造商在上述情况下可免于承担责任。
(2)税收与基金。通过向制造商收税并设立赔偿基金以缓和制造商责任、减少诉讼带来的冲击,此种方式在医疗、汽车制造领域均有先例。以医疗领域为例,新疫苗的研发与应用往往伴随大量诉讼,为促进疫苗的研发并维护受害人权益,1986年,美国前总统里根签署 《全国儿童疫苗损害法案》 (NCVIA)并为受害者设立赔偿基金,并成立了国家预防接种伤害救济项目 (NVICP),每剂疫苗向制造商征收0.75美元的税收,消费者可直接向该项目提出索赔。消费者并不承担对因果关系和实际损失的举证责任,只有消费者拒绝赔偿或被该项目拒绝赔偿的情况下才可对制造商提起诉讼,此举既鼓励了家长给儿童接种疫苗,同时也促进了制造商继续研发疫苗[18]。在人工智能领域,也可参考此种方式向制造商征收合理的税收并成立赔偿基金,为人工智能侵权受害人提供赔偿,避免制造商陷入诉讼旋涡。
(3)保险。通过保险分散人工智能带来的风险是一个多赢选择,人工智能安全性越高,保费就越低,就越能促进制造商进一步改进技术、提高产品安全性[16]。目前,在自动驾驶领域,交通事故责任保险或赔偿保函已成为强制性要求。对人工智能投保也具有较强可行性,目前许多保险公司已开始采用 “基于使用”计划,通过车辆设备收集驾驶信息,了解驾驶习惯及驾驶行为,据此精确调整保费。类似的,在其他人工智能领域,保险公司也可根据历史数据确定风险并调整保费[19]。
2.3 制造商义务
弱人工智能时代,法律调整的首要任务是在防范人工智能带来的风险与鼓励科技创新之间寻求平衡,由于制造商在事故原因调查、风险控制、技术革新方面都具有显著优势,并可通过责任限额、税收、基金及保险等手段分散风险,故以产品责任为核心的责任分配体系具有合理性与可行性。围绕制造商责任,基于弱人工智能特点,制造商还需承担如下义务:
(1)举证义务。产品责任系无过错责任,原则上,受害人承担对产品缺陷、损害以及因果关系的证明责任;生产者则对法律规定的免责事由承担举证责任。而在特殊情况下,如生产者掌握核心技术,受害人无法通过其他途径检测产品缺陷,则可由法官裁量采用举证责任倒置。弱人工智能的产品责任确定即属于此种特殊情况,人工智能的复杂性与不透明性使消费者难以查明事故原因并证明产品缺陷,为避免消费者负担过重的举证责任,举证责任倒置是更合理的选择。此外,以不存在 “合理替代设计”作为证明标准,避免诉讼泛滥[20]。
(2)培训与训练义务。弱人工智能的特殊性在于其不断的自我学习与自我改进能力,为确保制造商对其行为的 “合理预测”,在人工智能产品进入市场前,必须保证具备足够的 “前市场测试”使操作系统具有足够的学习量[19]。以医疗机器人 “达芬奇”为例,其投入市场后已引发多起产品责任诉讼,法院普遍认为制造商应对消费者进行培训指导,个别法院甚至认为制造商还应当负有对机器人的 “训练义务”[9]。
(3)警示义务。现阶段弱人工智能尚离不开使用者监督,但消费者对人工智能的想象与信赖很容易产生对其安全性与便利性的 “合理期待”,导致对人工智能的过度依赖与注意力分散,因此,除事先对消费者进行培训外,制造商还应承担及时的风险警示义务[9]。案例二即人类驾驶员对有条件自动驾驶模式产生过度依赖所导致的,事发时驾驶员正在观看电影,人类驾驶员无视车辆发出的视觉警告及语音警告导致了事故发生。针对此种情况,除及时有效的警示外,制造商还应采取容错设计以避免人类在与人工智能互动过程中发生错误。案例二事件发生后,特斯拉升级了Autopilot系统,若司机对系统警告没有反应,将暂时阻止车主使用该系统。通用汽车也计划在半自动驾驶汽车中安装包含能够探测出驾驶员是否困倦或未注意路况功能的软件,并采用声音和视觉方式引起驾驶员注意,若警告无效,制造商将通过车辆的对讲系统与人类驾驶员对话沟通。如果人类驾驶员仍未有反应,车辆就会在路边停靠,进一步确保人工智能安全性[19]。
(4)维护义务。不同于普通产品制造商提供的售后服务,弱人工智能产品投入市场后,不断与人类互动并自我学习成长,时刻面临新情况、新问题,弱人工智能产品制造商负有更重的跟踪维护义务,需要随时注意更新程序、修补漏洞并防范黑客攻击,必要的时候甚至需要主动召回产品[9]。目前,一些制造商已经在自动驾驶汽车采用无线升级技术OTA (Over The Air),以确保对自动驾驶汽车的维护与更新。
(5)披露义务。人工智能是当前发展最前沿的技术之一,消费者很难通过检索代码等方式发现程序、算法错误等产品缺陷[21]。制造商出于商业秘密保护等目的可能不愿意透露产品信息,但举证责任倒置的要求及合理替代标准的确立都迫使制造商负担一定程度的信息披露义务[20]。此外,结合产品责任保险,制造商还可通过披露保费的方式使消费者了解人工智能产品的潜在风险,从而做出正确的消费决定[19]。
3 弱人工智能时代的法律态度:激进还是保守
技术的发展对法律制度有着直接影响,甚至推动全新法律制度的创造[22],反过来,法律对科技发展的回应方式又影响了技术革新的进程。人工智能时代对法律带来的挑战远甚于以往任何时期的技术变革,在人工智能产业发展三年行动计划的开局之年,我们必须思考:现有的法律体系应以何种姿态应对人工智能的飞速发展?如何在促进技术革新与维护各方权益之间取得平衡?
3.1 对现行法律体系的挑战
人工智能的最大特点在于其自我学习、自我决定的能力,而现行法律则是建立在 “所有的决定都是由人类做出”这一假设的前提下,长远来看,两者必然产生冲突,在宪法、刑法、民法等各个领域引起重大变革。在当前的弱人工智能时代,冲突尚未加剧,但摩擦早已显现,弱人工智能在合法地位、监管手段、责任承担等方面与目前法律体系不相适应,亟待法律及时做出调整与回应。
(1)合法地位的挑战。人工智能的进步正在以无与伦比的势头挑战现有法律体系,以自动驾驶汽车为例,现有的法律制度、政策、保险体系等,并不是为自动驾驶时代的交通量身定制的,势必面临排斥反应[23]。2017年7月,百度CEO李彦宏 “乘坐”无人驾驶汽车在北京五环上行驶的事件引发了对无人驾驶合法性的争议,倒逼现行交通法律法规的破冰。12月,北京市交通委联合北京市公安交管局、北京市经济信息委制定发布了 《北京市关于加快推进自动驾驶车辆道路测试有关工作的指导意见 (试行)》和 《北京市自动驾驶车辆道路测试管理实施细则 (试行)》,规范并推动了自动驾驶汽车的实际道路测试。自动驾驶领域的合法性挑战在国际上早已呈现,2016年 《国际道路交通公约 (日内瓦)》修正案承认了符合条件的自动驾驶合法身份,德国、西班牙、新加坡和美国部分州也肯定了自动驾驶汽车的合法性,相反,印度则于2017年7月宣布禁止自动驾驶汽车上路。
(2)监管体系的挑战。面对人工智能带来的不确定性与潜在风险,放任自流并非明智选择,如何构建适度有效的监管体系,引导人工智能在正确的轨道上发展成为各国立法的重要课题。早在2016年,欧盟议会法律事务委员会发布 《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》 (Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)及 《欧盟机器人民事法律规则》 (European Civil Law Rules in Robotics),并于2017年通过一份决议 (Resolution),提出了具体的立法建议,加强对人工智能的监管成为该项决议的重要内容,具体包括设立专门机构、确立伦理准则、针对特定用途人工智能出台特定规则等。目前,无人驾驶汽车及无人机领域的监管盲区已经呈现[24],在及时填补特定领域法律空白的同时,学习欧盟确定针对人工智能确定整体监管框架与伦理准则成为当务之急。
(3)责任体系的挑战。随着人工智能的广泛运用,越来越多人工智能侵害案件对现行责任体系提出挑战,强人工智能甚至能成为侵权责任、违约责任乃至刑事责任的主体。弱人工智能在逐渐脱离使用者监督、控制的过程中,责任分配方式也从使用者过错侵权转移至生产者的产品责任。而现阶段弱人工智能仍需要人类操作与监管,存在大量混合责任的情况,责任的确定与转移难以 “一刀切”,目前各国立法对此的回应较为保守,中美两国则仍在现行法律体系内确定自动驾驶责任,人类驾驶员仍居于责任主体地位。德国2017年修订的 《道路交通法》则更进一步,试图在制造商与驾驶员之间明确责任转移的标准,但此举的合理性与可行性遭到质疑。但长远来看,面对弱人工智能的发展,对现行法律体系的变革与责任的重新分配势在必行。
3.2 法律对技术革新应对手段
法律必须是稳定的,但又不能一成不变[25]。人工智能的迅速发展将彻底改变人类生活甚至改造世界,对现行法律体系的挑战也是前所未有。法律应及时做出回应,在激进与保守、稳定性与适应性之间寻求平衡点:一方面,对人工智能合法地位采取宽容态度,以鼓励技术发展;另一方面,确立科学合理的监管框架和责任分配体系,以维护安全稳定。此外,应对技术革新,弱人工智能时代的法律体系更要处理好以下三方面关系:
(1)推动创新与保障安全。科技的进步从来是一把 “双刃剑”,法律应在技术进步与安全稳定之间起到平衡作用。人工智能引领人类通往未知世界,被称为 “第四次工业革命”,在构建人工智能法律体系与监管手段时,必须具备充分的前瞻性,既要防止刻板传统的监管阻碍创新,又要防止法律盲区引发系统性风险[9],应致力于 “建立以安全为核心的法律价值目标、以伦理为先导的社会规范调控体系和以技术、法律为主导的风险控制机制[26]。”
(2)信息披露与知识产权保护。在人工智能监管框架内,从事故原因调查到产品标准确立,均离不开制造商对人工智能技术的合理披露,这与商业秘密的保护存在冲突。然而,人工智能自我学习能力的提高与发展将带来制造商无法控制的风险,适当的权利让渡不可或缺,对人工智能 “黑匣子”运作过程的解读与一定程度的信息披露是保障人工智能安全性的必经之路。
(3)制造商责任与消费者权益。特别是现阶段,一方面,弱人工智能尚离不开使用者监督,制造商采取种种手段将最终责任转嫁到消费者身上;另一方面,消费者对人工智能的合理期待又无法避免其产生合理依赖,在允许自动驾驶汽车的人类驾驶员手离方向盘、上网、浏览邮件的同时,又要求其保持随时掌握车辆控制权实属强人所难。弱人工智能发展的最终方向是脱离使用者监督,不断增强自治性与独立性,因而应当构建以产品责任为核心的责任分配体系,强化制造商责任,并辅以保险、基金、税收等手段分散制造商风险,从而平衡制造商与消费者权益并推动技术进步。
4 结论
人工智能的发展无论在伦理性层面还是制度性层面都引发了广泛争议,从长远看,必然给人类社会带来翻天覆地的变化,政治、经济、法律等各个领域都将发生深刻的变革;而从短期看,目前技术发展水平仍处于弱人工智能阶段,我们既不必杞人忧天地对人工智能产生 “终结者”的恐慌,又不可故步自封无视技术的进步,法律则应顺应时代发展,在对人工智能合理定位后做出恰当的回应,为人工智能发展营造良好环境。