“人工智能+法律”发展的两个面向
2018-11-28张清,张蓉
张 清,张 蓉
近年来,人工智能机器人研发、部署、安装与使用的运动式发展,在引发全球讨论的同时,也鼓励着政府监管和法律责任的创新。例如,无人机在成为大众消遣工具的同时还在反恐战争中发挥着重要作用;自动化智能机器可以取代工厂中的体力劳动者,由此带来了劳动力市场的革命;人形机器人在学校协助教导学生、在日托机构中照顾老年人;辅助机器人技术广泛应用在医疗领域,不管是在鉴别诊断还是对自闭症患者的心理治疗抑或在复杂的外科手术中,都能发现智能机器人的身影。机器人在家庭、工作、社会公共层面的广泛存在,不仅带给人类新的机会与挑战,同时还改变着人类的行为方式。①Danit Gal:《联合国的人工智能政策》,孙那、李金磊译,http://www.sohu.com/a/132199558_556637,访问时间2018年5月22日。2017年7月8日国务院发布的《新一代人工智能发展规划》(以下简称《规划》)认为,在移动互联网、大数据、超级计算、传感网、脑科学等理论创新、技术创新的多因素共同驱动下,人工智能加速发展,呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等新特征。大数据驱动知识学习、跨媒体协同处理、人机协同增强智能、群体集成智能、自主智能系统成为人工智能的发展重点,类脑智能助推人工智能发展进入新阶段。当前,新一代人工智能相关学科发展、理论建模、技术创新、软硬件升级等整体推进,正在引发链式突破,推动经济社会各领域从数字化、网络化向智能化加速跃升。①国务院:《新一代人工智能发展规划》[国发〔2017〕35号],http://finance.china.com/news/11173316/20170720/30991028.html,访问时间2018年5月20日。《规划》描绘了我国新一代人工智能发展的蓝图,确立了“三步走”目标:到2020年人工智能总体技术和应用与世界先进水平同步;到2025年人工智能基础理论实现重大突破、技术与应用部分达到世界领先水平;到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。《规划》确定六方面重点任务:一是建立开放协同的人工智能科技创新体系,从前沿基础理论、关键共性技术、平台、人才队伍四个方面进行部署。二是培育高端高效的智能经济,发展人工智能新兴产业,推进产业智能化升级,打造创新高地。三是建设安全便捷的智能社会,发展便捷高效的智能服务,提高社会治理智能化水平。四是强化人工智能对军事和国防安全的支撑。五是构建泛在安全高效的智能化基础设施体系,加强网络、大数据、高效能计算等基础设施的建设和升级。六是设立新一代人工智能重大科技项目,形成以新一代人工智能重大科技项目为核心、统筹当前和未来布局的“1+N”人工智能项目群。美国当地时间2017年10月18日,谷歌人工智能DeepMind团队在《Nature》上发表论文,宣布新版的AlphaGo Zero计算机程序可以突破人类知识的局限,迅速实现自我学习。新版阿尔法狗从零开始自学围棋,仅用3天时间,就以100比0的成绩击败了旧版的AlphaGo,这是人类人工智能史的重大突破。②蔡鼎:《新版阿尔法围棋横空出世:自学3天,100∶0碾压李世石版“旧狗”》,http://www.nbd.com.cn/articles/2017-10-19/1155201.html,访问时间2018年5月28日。AlphaGo Zero除了独立地学会了人类花费数千年时间发现的围棋规则外,还自行学会了非常有趣的围棋策略,并且许多走法都“极具创造性”。在沙特首都利雅得举行的Future Investment Initiative大会上,机器人索菲亚登台亮相,并宣布了自己的独特身份。当主持人安德鲁·罗斯·索尔金(Andrew Ross Sorkin)询问索菲亚为何看起来如此高兴时,她表示:“我为获得这种优待感到非常荣幸和自豪,我是历史上第一个获得公民身份的机器人。”③小小:《沙特授予一个机器人公民身份,但它有人的权利吗?》,2017年10月27日网易科技报道,http://tech.163.com/17/1027/09/D1OCBSK100097U80.html,访问时间2018年10月28日。据Futurism报道,由总部位于香港的人工智能机器人公司Hanston robotics设计的机器人索菲亚(Sophia),已经被沙特阿拉伯王国授予了公民身份。这是有史以来第一次机器人被给予这样的优待,但也引发了“机器人权利”之争。索菲亚在演讲台上的表现非常出色,甚至熟练地避开了向她提出的“机器人自我意识”的问题。新一代人工智能是国际竞争的新焦点、经济发展的新引擎,它带来社会建设的新机遇,而发展的不确定性也带来新挑战,改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。④国务院:《新一代人工智能发展规划》[国发〔2017〕35号],http://finance.china.com/news/11173316/20170720/30991028.html,访问时间2017年11月20日。面对2030年要建成“更加完善的人工智能法律法规、伦理规范和政策体系”的目标,我们要做的事情很多很多。
一、机器人、人工智能及其法律面向
人工智能最早的表现形态是机器人,以替代人类难以实现的更大数据计算、更细微量度操作或更恶劣环境等重复劳动为目标。华盛顿大学法学院Ryan Calo教授是美国最具影响力的机器人法律方面的专家之一,他通过研究美国近50多年来所有涉及机器人的案件后,发现机器人涉法问题的争论早已有之。他认为机器人法律简史可以通过以下四个案例来描述⑤佚名:《深度解密你所不了解的机器人法律简史》,http://www.sohu.com/a/65846007_335773,访问时间2018年5月26日。:案例一,肖像权案。20世纪90年代初,三星做了一个广告,广告中的机器人使用了女星Vanna White的肖像特征,而Vanna White认为这一举动侵犯了她的公开权及肖像权,她以各种方式起诉三星公司,最终,她赢得这场官司。这是一个典型的关于人类是否能拥有自己版本权利的案例。法庭也由此开始考虑是否能够视机器人为演员从而征收娱乐税。案例二,木马捣乱案。有一名网页开发者在Twitter上向当地的一个时装秀发布了一个死亡威胁,然而被逮捕后他却表示对此事毫不知情。调查后发现,始作俑者却是来自他编写的一个程序,最终他被无罪释放,一则“无犯罪实施者”的案件形成了。案例三,太空机器人律师案。2015年11月,奥巴马签署法案鼓励私人公司进行太空探索,包括那些对小行星矿产感兴趣的公司。Calo教授表示在未来这种工作肯定是交给机器人的,不难想象各种法律问题会由此而生,说不定太空机器人律师会成为一个正式的职业。案例四,无人驾驶车案。关于无人机和自动驾驶机器人的法律机制更为复杂,许多法律尚需实施,以便控制它们的法律风险。
Calo教授论及的这些法律案,涉及诸多法律问题,比如:机器人的肖像权,或由此衍生的人格权;是否应该像对待人类一样给予机器人权利;如果机器人犯罪了,机器人是否具有刑法意义上的“主观能动性”,它是否要受到法律的约束与制裁;机器人行动的程序是由人编写的,相应的法律责任由谁承担,抑或按比例分担;是否允许无人驾驶车辆在道路上行驶;车辆管理部门该如何给机器人做视力检查及驾驶培训;当一辆无人驾驶车辆发生道路交通安全事故,谁负责赔偿损失;紧急状态时,计算机应该选择撞向一只动物还是冲下公路;等等。
艾丹米勒也认为,随着机器人崛起和“机器人法律”出现而引发的其他重要问题,我们必须面对:其一,机器人规制必须要针对特定机器人并结合具体场景而定。这就要求对特定领域的“机器人行为”产生的微观与宏观效果有深刻的认识。其二,(完善的)现有法律类型能够被合理地应用并对机器人予以规制。其三,机器人法律受到社会“深层次规范结构”的影响。其四,如果该结构是实用主义的,那么在不远的将来,智能机器人就会被当作人类来对待。那就意味着,智能机器人应当被赋予法律人格,并因此有能力取得和持有财产以及订立合同。其五,反对将机器人当作人类一样对待的理由源自于认识论与本体论层面。这些观点都关系到机器人是否能思考(它们不能)以及成为人类意味着什么。①霍斯特·艾丹米勒:《机器人的崛起与人类的法律》,李飞、敦小匣译,《法治现代化研究》2017年第4期。
机器人发展的最新形态是新一代人工智能。人工智能(Artificial Intelligence,英文缩写为AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。斯图尔特·罗素(Stuart Russell)和皮特·诺威格(Peter Norvig)②关于Russell和Norvig对人工智能分类的观点,参见M.U.Scherer:Regulating Artificial Intelligence Systems:Risks,Challenges,Competencies,and Strategies,in Harvard Journal of Law&Technology,2016,29(2)。在《人工智能:一个现代路径》中提出了八个不同的人工智能定义,分成四类:像人一样思考(thinking humanly),像人一样行为(acting humanly),理性思考(thingking rationally),理性行为(acting rationally)。③马修·U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。人工智能可以模拟人的意识及思维的信息过程,能像人那样思考、像人那样行为,甚至超过人的智能。
就此,《规划》在对人工智能理论、技术和应用作出前瞻布局的同时,呼吁加强人工智能相关法律、伦理和社会问题研究,建立人工智能法律法规、伦理规范和政策体系。《规划》力挺智慧法庭建设,提出促进人工智能在证据收集、案例分析、法律文件阅读与分析中的应用,实现法院审判体系和审判能力智能化。更为前瞻的是,《规划》提出“人工智能+X”复合专业培养新模式,法学赫然在列,法学教育的变革已然箭在弦上。④曹建峰:《法律人工智能十大趋势》,http://www.sohu.com/a/162390641_455313,访问时间2017年10月20日。《规划》要求,建设人工智能学科。完善人工智能领域学科布局,设立人工智能专业,推动人工智能领域一级学科建设,尽快在试点院校建立人工智能学院,增加人工智能相关学科方向的博士、硕士招生名额。鼓励高校在原有基础上拓宽人工智能专业教育内容,形成“人工智能+X”复合专业培养新模式,重视人工智能与数学、计算机科学、物理学、生物学、心理学、社会学、法学等学科专业教育的交叉融合。加强产学研合作,鼓励高校、科研院所与企业等机构合作开展人工智能学科建设。
1987年,在美国波士顿东北大学举办的首届国际人工智能与法律会议(ICAIL),旨在推动人工智能与法律这一跨学科领域的研究和应用,并最终促成了国际人工智能与法律协会(IAAIL)在1991年的成立,人工智能的法律面向包括但不限于十大主要议题①曹建峰:《法律人工智能十大趋势》,http://www.sohu.com/a/162390641_455313,访问时间2018年5月20日。:法律推理的形式模型,论证和决策的计算模型,证据推理的计算模型,多智能体系统中的法律推理,自动化的法律文本分类和概括,自动提取法律数据库和文本中的信息,针对电子取证等法律应用的机器学习和数据挖掘,概念上的或者基于模型的法律信息检索,完成重复性法律任务的法律机器人,立法的可执行模型。日本学者关心的议题包括:人工智能与宪法(表达自由、隐私、法律下的平等、正当程序),人工智能与民法(知识产权、合同、不法行为——尤其是产品责任),人工智能与刑法(利用人工智能实施高科技犯罪:冒充、欺诈、金融犯罪、网络犯罪),人工智能与劳动法(雇佣环境的变化、通过人工智能进行雇佣管理与否),人工智能与国际法(安全保障、恐怖犯罪对策、人工智能武器)等。②储陈城:《日本政府对人工智能的发展战略和法律应对框架》,中日刑事司法微信公众号,访问时间2018年5月28日。
二、人工智能法律规制的理论构造
人工智能运动式发展,不仅在全球范围内逐步建立起自己的生态格局,而且开始深度介入人类的社会生活。
1.人工智能三定律/八原则
人类与机器人/人工智能的关系将掀起一场对于私隐、尊严及安全的讨论。随着机器人/人工智能的适应性和自主学习能力不断增强,它们可能不再是人类使用的简单工具,“类脑”人工智能可能超越人类的智力,这将对人类控制机器人构成挑战。一旦机器人自我意识崛起,高度自主、独立判断且不受人类直接控制的人工智能机器人甚至可能威胁人类的生存。欧盟议会法律事务委员会(JURI)参照美国科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)在1950年出版的短篇小说集《我,机器人》中提出的“机器人学三大法则”(也被称为“机器人学三定律”)作为立法框架,提出了机器人自我意识觉醒后的行为规范。据此,我们可以为人工智能设定三个原则,即“人工智能三定律”。③於兴中:《当法律遇上人工智能》,《法制日报》2016年3月28日第007版。第一定律:人工智能机器人不得伤害人,也不得见人受到伤害而袖手旁观;第二定律:人工智能机器人应服从人的一切命令,但不得违反第一定律;第三定律:人工智能机器人应保护自身的安全,但不得违反第一、第二定律。人工智能三定律必须在一个大前提之下方可成立,即:人工智能不得伤害人类整体,或因不作为使人类整体受到伤害,有义务保护人类的整体利益,以契合阿西莫夫在《机器人与帝国》中补充提出的第零法则。④佚名:《关于机器人时代的伦理,阿西莫夫早就给出了三条法则》,http://www.sohu.com/a/131831765_483391,访问时间2018年5月27日。日本学者新保史生提出机器人使用的八原则,被称为“新保试案”:人类优先原则,服从命令原则,保护秘密原则,限制利用原则,安全保护原则,公开透明性原则,个人参加原则,责任原则。⑤储陈城:《日本政府对人工智能的发展战略和法律应对框架》,中日刑事司法微信公众号,访问时间2018年5月28日。
2.法律吸纳风险理论
人工智能技术在造福人类的同时也增加了人类受危害的系数,这恰恰能够验证技术的负面性与风险的不确定性的关联。传统法律治理体系无力解决新一代科技革命带来的社会问题,这恰恰能够验证法律的确定性与风险的不确定性的背离。当前,人工智能发展的规制,其实是基于风险的制度选择和法律安排,我们应“通过法律化解风险”“通过法律吸纳风险”“将风险社会置于法治社会的背景之中”,即对智能革命时代的法律制度乃至整个社会规范进行新的建构。①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。人们对人工智能安全问题的普遍忧虑,涉及人类基本权益的生命与健康、尊严与隐私、安全与自由。1986年,德国学者乌尔里希·贝克在《风险社会》一书中首次在学理上提出了“风险社会”的概念,贝克认为,人类面临着威胁其生存的由社会所制造的风险。现代化正在成为它自身的主题和问题,因此变得具有反思性。②吴汉东:《知识产权的制度风险与法律控制》,《法学研究》2012年第4期。风险概念表明人们创造了一种文明,以便使自己的决定将会造成的不可预见的后果具备可预见性,从而控制不可控制的事情。在风险理论中,人工智能存在着现代性的负面影响,因此有必要采取风险措施,即预防性行为和因应性的制度。对风险社会问题的法学研究,其重点是法律制度与法律秩序。③吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。一方面,“法律制度的价值和意义就在于规范和追寻技术上的可以管理的哪怕是可能性很小或影响范围很小的风险和灾难的每一个细节。”④参见乌尔里希·贝克:《从工业社会到风险社会(上篇)——关于人类生存、社会结构和生态启蒙等问题的思考》,王武龙译,《马克思主义与现实》2003年第3期。另一方面,法律秩序客观上表征了法律制度实施的效果,大致是人类社会生产生活基本方面实现法律化和制度化。现代社会是法治社会,制度风险及风险法律控制是风险社会法学研究理论的基本内涵。风险社会是一种“全球风险社会”,风险的空间影响超越了地理边界和社会文化的边界。
3.法律责任理论
中国科学院科技战略咨询研究院吴焦苏提出了Graceful AI,不仅考虑AI的责任,还考虑AI的技术、伦理和法律之间的界限。Graceful AI以网络行为学的策略相关性原理(SCP)为基本模型,其策略相关系数的上界是图博弈矩阵的最小特征值的倒数,下界是图博弈矩阵的最大特征值的倒数,在上下界之间的行为才是亲人类行为,过之属道德过载(Moral Overload),略少属道德负担不足(Moral Under⁃load),过多低于该阈值,则是法律管辖的范围。⑤齐昆鹏:《“2017’人工智能:技术、伦理与法律”研讨会在京召开》,《科学与社会》2017年第2期。这也正是当前人工智能发展面临的主要法律挑战,即人工智能法律化规制的具体面向:法律责任划分和法律责任承担问题。法律责任是由于违反了第一性义务(如违约、侵权等)而引起的第二性义务(如赔偿等),也是因为特定的法律事实而引起的对损害进行补偿、赔偿或接受处罚的特殊义务。人工智能机器人的法律责任是否当然包括现有的民事责任、行政责任、刑事责任、违宪责任和国家赔偿责任?此外,法律责任除了分责,还有归责、免责、偿责等诸多方面,某种程度上,人工智能机器人作为拟制人,与所有参与机器人的发明、授权和分配中的自然人或(和)法人,甚至承保相应险种的保险公司,在归责、免责和偿责等诸多方面均是法律空白,需要在既有规范之外制定新的法律责任规则。
三、人工智能法律规制的立法探索
人工智能从产品到技术都在迅猛发展,现在是人工智能立法的准备阶段、摸索阶段、积累阶段,也是人工智能立法的促进阶段,可以先制定促进人工智能发展法。立法应该优先考虑对人们生活已经有影响的领域,比如自动驾驶、服务类机器人领域,率先启动立法立项工作。人工智能的法律应对,有必要进行体系性的讨论和专题式的研究,主要包括:功能风险与法律制度、权利利益相关的风险,由于对于法律课题的讨论刚刚开始需要进行个别性把握,分别列举可能出现的风险等。⑥储陈城:《日本政府对人工智能的发展战略和法律应对框架》,中日刑事司法微信公众号,访问时间2018年5月28日。
1.联合国的人工智能法律与伦理
联合国教科文组织(United Nations Educational,Scientific and Cultural Organization)与世界科学知识与技术伦理委员会(World Commission on the Ethics of Scientific Knowledge and Technology)联合发布的报告(2016年),主要讨论了机器人的制造和使用促进人工智能的进步,以及这些进步所带来的社会、法律与伦理道德问题。①Danit Gal:《联合国的人工智能政策》,孙那、李金磊译,http://www.sohu.com/a/132199558_556637,访问时间2018年5月22日。报告呼吁在国际层面上应该在以下几个方面加强立法控制:数据和隐私保护,创新关于机器人与机器人制造者之间的责任分担机制,预警机制的建立,对机器人在实际生活场景中的测试,在涉及人类的机器人研究中的知情同意权,智能机器人的退出机制,为应对自动机器人的广泛应用将给人类教育和就业带来的巨大影响而建立全新的保险制度。②详细分析参见Danit Gal:《联合国的人工智能政策》,孙那、李金磊译,http://www.sohu.com/a/132199558_556637,访问时间2017年10月22日。联合国作为全球最重要的国际组织,在2016年最新发布的人工智能报告中,表达了其对于人工智能的关注;同时,为应对人工智能及机器人技术的发展带来的各种问题,提出了全新的思考方式与解决路径,这对世界各国的人工智能监管具有重要的参考意义。
在制造一个机器人需要不同的专家和部门合作的情况下,谁该为机器人的某次操作失灵负责任?联合国的报告援引了阿萨罗(Asaro)提出的结论,即机器人以及机器人技术造成的伤害,很大一部分由民法中产生责任的相关法律调整,因为机器人一般被视为通常意义上的科技产品。从这个角度看,机器人造成的伤害很大一部分被归责于机器人制造者和零售商的“过失”“产品警告的缺失”“没有尽到合理的义务”。在阿萨罗看来,这种归责制度会随着机器人越来越自动化及智能化而逐渐被废弃。③Asaro,P.M.“A body to kick,but still no soul to damn:legal perspectives on robotics”,in Lin,P.,Abney,K.,and Bekey,G.A.(eds.)Robot Ethics:The ethical and social implications ofrobotics,MIT Press,2012.pp.169-186.然后,一个新的平衡机器人制造者、销售者和最终使用者的责任分担机制会被逐渐创造出来。④参见Danit Gal:《联合国的人工智能政策》,孙那、李金磊译,http://www.sohu.com/a/132199558_556637,访问时间2018年5月22日。对此,一个可行的解决办法,即采取责任分担的解决途径,让所有参与到机器人的发明、授权和分配过程中的人来分担责任;另一个解决办法就是让智能机器人承担责任,因为智能机器人确实拥有前所未有的自主性,并且拥有能够独立做出决策的能力。这两种责任分担方式展现了两种极端,既无视了人类在科技发展过程中的固有偏见,也忽略了科技被居心叵测的使用者用作他途的可能性。而高度智能化的机器人如何独立承担责任值得我们深入研究。
2.欧盟的立法建议
早在2015年1月,欧盟议会法律事务委员会(JURI)就决定成立一个工作小组,专门研究与机器人/人工智能发展相关的法律。2016年5月,法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》⑤United Nations Educations,Scientific and Cultural Organization(UNESCO)and World Commission on the Ethics of Sci⁃entific Knowledge and Technology(COMEST).(2015).Preliminarydraft Reports on COMEST on Robotics Ethics.Accessible on⁃line at:http://unesdoc.unesco.org/images/0024/002455/245532E.pdf.,讨论欧洲首份管制机器人的建议立法草案,旨在为民用机器人的使用制定法律框架。报告对机器人可能引发的安全风险、道德问题、对人类造成的伤害等情况做出讨论。呼吁制定“人类与人工智能机器人互动的全面规则”,这或是首个涉及管制机器人的立法草案。报告要求欧盟为民用机器人制定法律框架,探讨是否需要为机器人安装“死亡开关”、研究机器人抢走人类工作的应对措施,等等。专家认为,此次立法将有利于人类应对机器人革命带来的社会震荡。⑥Lielvwang:《全球首个涉及管制机器人的立法草案或将落地欧盟》,http://www.robot-china.com/zhuanti/show-3112.html,访问时间2017年10月26日。EU Parliament.(2016).Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics.Accessible online at:http://www.europarl.europa.eu/sides/get Doc.do?pub Ref=-//EP//NONSGML+COMPARL+PE-582.443+01+DOC+PDF+V0//EN。同年10月发布《欧盟机器人民事法律规则》。在此基础上,2017年2月16日,欧盟议会投票表决通过一份决议,包含了立法建议,并要求欧盟委员会就机器人/人工智能提出立法提案。法律事务委员会提出的立法建议涉及多个方面,主要包括:成立一个机构,专门负责欧盟的机器人和人工智能;确立人工智能伦理准则;重构智能机器人的责任规则;长远考虑,也许可以赋予复杂的自主机器人法律地位(所谓的“电子人”);明确人工智能在知识产权领域的“独立智力创造”;注重隐私和数据保护;推进标准化工作和机器人的安全性;针对具有特定用途的机器人和人工智能系统(主要包括自动驾驶汽车、护理机器人、医疗机器人、无人机、人类修复和增强等)出台特定规则,进行特殊监管;关注人工智能的社会影响;加强法律政策领域的国际合作。①司晓、曹建峰:《论人工智能的民事责任:以自动驾驶汽车和智能机器人为切入点》,《法律科学》2017年第5期。
3.美国的草案
2016年,美国弗吉尼亚州州长签署了一条关于送货机器人的法律,它将允许送货机器人合法在全州的人行道上行驶,它也是美国第一条关于送货机器人的立法。两名弗吉尼亚州的立法者Ron Villanueva和Bill DeSteph与爱沙尼亚一家做地面送货机器人的公司Starship Technologies合作制定了这条法律的草案。根据最新法案规定,送货机器人被允许在道路上自动行驶,但速度不能超过每小时10英里(约16千米每小时)或者质量不得超过50磅(约23 kg)。虽然法案没有要求机器人一定要在操作者的视线范围内行驶,但它还是需要操作者进行远程控制,以防止其在道路运行的过程中失控。这条州立法案的规定并不是唯一固定的,各个城市可以根据本地的运营条件对它做出适当的调整。比如市议会可以指定更严格的速度限制或禁止送货机器人上路等。目前除了弗吉尼亚州之外,美国的另外两个州爱达荷州及佛罗里达州也在提出类似的立法草案。②朱若淼:《送货机器人在美国合法上路了,还有了第一条关于机器人法案》,http://www.qdaily.com/articles/38375.ht⁃ml,访问时间2018年5月26日。
4.英国的监管与目标
2013年,英国挑选出“机器人技术及其自动化系统”作为其“八项伟大的科技”计划的一部分,并且宣布英国要力争成为第四次工业革命的全球领导者。英国下议院的科学和技术委员会在2016年发布的《机器人技术和人工智能》报告,侧重阐述了英国会如何规范机器人技术与人工智能系统的发展,以及如何应对其发展带来的伦理道德、法律及社会问题,报告认为积极响应并且负责任地监管措施能促成监管的介入和领导体制的建立。英国政府总是落后于工业进步、学术研究和不断增长的公共关注,在政府决策机制中引入人工智能,制造了非常有趣的关注点,在为社会创造利益的同时,也带来了新的伦理、法律和社会问题。下议院的科学和技术委员会在伦理道德和法律方面的重要关注点包括:人工智能的安全与管控,管理——标准与规则,鼓励公众对话,研究——资金支持与创新。③腾讯研究院:《人工智能各国战略解读》,http://www.360doc.com/content/17/0301/09/35919193_632883078.shtml,访问时间2018年5月26日。
5.日本的机器人革命战略
作为“机器人超级大国”,日本政府希望开发推广机器人技术,缓解劳动力短缺问题,提高生产效率,2014年9月成立了“机器人革命实现委员会”,召开会议讨论与“机器人革命”相关的技术进步、监管改革以及全球化标准等具体举措。日本经济产业省将委员会讨论的成果进行汇总,2015年1月编制发布了《日本机器人战略:愿景、战略、行动计划》,机器人革命战略的三大支柱包括:作为世界机器人创新的据点——彻底强化机器人创新能力,成为世界上主要的机器人使用大国,领导世界走向机器人新时代。同时建议制订机器人发展“五年计划”。④储陈城:《日本政府对人工智能的发展战略和法律应对框架》,中日刑事司法微信公众号,访问时间2018年5月28日。日本的机器人革命战略涉及人工智能与宪法、民法、刑法、劳动法、国际法等诸领域的法律问题,法律法学界正加紧研究。
6.人工智能立法规制的中国方案
《规划》在对人工智能理论、技术和应用作出前瞻布局的同时,还呼吁加强人工智能相关法律、伦理和社会问题研究,建立人工智能法律法规、伦理规范和政策体系。在前文人工智能法律规制的理论构造基础上,我们依次从人工智能的权利能力、行为能力、责任能力等方面进行相应的立法规制。
其一,人工智能机器人享有法律权利。对应“人工智能三定律”第三条“人工智能机器人应保护自身的安全”,若要赋予人工智能机器人保护自身的权利,必然与一般的基本权利保护范围由自然形成不同,人工智能机器人的基本权利形成必须通过立法来确定基本权利的范围。具有高度智慧、独立意思表示能力和独立决策行为能力的高智能机器人是自然人和服务类机器人之外的特殊主体,其享有的法律权利及对应的法律义务都应当在立法中予以明确界定。
其二,人工智能机器人类型化立法技术管控。“这是最好的时代,也是最坏的时代”,狄更斯在《双城记》中的开篇语,同样适用于“未来已来”的人工智能时代。即:既希冀于人工智能机器人带来的高效率、高精度、高细度的“三高”智能时代,又忧虑于人工智能优于人类的学习深度、优于人类的工作强度、优于人类的生活态度以及可能颠覆人类的潜在风险。面对这种具有共生性、时代性和全球性的风险,①吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。不高估、不怯懦,不低估、不自大,以权利能力、行为能力等基本法律概念为切入点,通过分级、分类管控的方式化解、吸纳人工智能风险。例如,参照自然人民事行为能力的分类,将人工智能机器人按照智能程度高低分为无民事行为能力者、限制民事行为能力者,智能程度低的人工智能机器人属无民事行为能力者,智能程度高的人工智能机器人属限制民事行为能力者,其行为需经相关责任主体追认方可生效。如此,权利享有者顺理成章地成为责任的承担者。
其三,全区链备案制的法律责任规制。自然人之权利始于出生,终于死亡,无民事行为能力人的法律责任和限制民事行为能力人的大部分法律责任由其监护人承担。对于人工智能机器人,其权利应当始于登记备案时,登记备案是必经的法定程序,人工智能的设计者、生产者、销售者、使用者、监管者都是法律责任的可能承担者,任何一方不得擅自更改人工智能数据,人工智能数据“黑匣子”只在主管部门授权或司法部门鉴定时提供。唯有如此,才能倒逼人工智能行业自律,亦能保证整个生产使用链条在程序上的可追责性。
其四,投保强制责任险。具有深度学习能力、独立意思表示能力的高智能机器人,性质界定远不是学界流行的工具说、电子奴隶说、代理说等②袁曾:《人工智能有限法律人格审视》,《东方法学》2017第5期。所能囊括的。高智能机器人致人损害的责任有可能是产品责任,毫无疑问,由产品的设计者、生产者、销售者承担损害赔偿责任;另一种可能是“类脑”机器人的损害故意,责任划分上,单方面将赔偿责任归给使用者或管理者等“实际控制人”,显然不妥,而投保强制责任险或许是以法律手段调整新型人机权责关系最有效的方式。
四、法律科技人工智能化的可能路径
“现代法律制度的每一个建构性要素及其运作过程的每一个环节,都表现出很强的技术性特征,这使得法律成为一种典型的社会技术。……法律技术本身也是法治的基本条件之一。”③周少华:《法律理性与法律的技术化》,《法学论坛》2012年第3期。人工智能在法律领域的运用,即法律科技(LawTech)的发展趋势/重点规制领域包括但不限于④曹建峰:《法律人工智能十大趋势》,http://www.sohu.com/a/162390641_455313,访问时间2018年5月20日。:智能化的法律检索将深刻影响法律人进行法律研究(检索)的方式;人工智能将推动法律文件自动化生成;在线法律服务、人工智能机器人法律服务等替代性商业模式(alternative business structure)不断涌现,促进法律服务标准化、商品化、自动化、民主化;基于人工智能和大数据的案件预测将深刻影响当事人的诉讼行为或改变法律纠纷的解决模式;在线法院(online court)以及人工智能法律援助,将促进司法可得性(access to justice),帮助消除司法鸿沟(justice gap);人工智能和机器人将成为法律系统的主要进入点;律师市场评价将使法律行业更加透明,可能带来“马太效应”;法律人工智能职业将作为法律行业的新兴职业而不断涌现;法律教育与人工智能等前沿信息科学技术将日益密切结合起来;计算法律(computational law)以及算法裁判,或将成为法律的终极形态。基于这些预判,我们需要对其尽早作出规制设计。
在智能发展引擎的驱动下,法律的人工智能化可能遍及立法的人工智能化、司法的人工智能化、执法的人工智能化等领域,其发展进程亦离不开法律规制,人工智能技术在法律领域的开发应用必须跨过一个鸿沟,即法理学原则在智能开发领域的有效运用。有学者指出,擅长法律推理的人工智能应当可以解决以下问题:根据案例的类比推理(包括真实案例和假设案例);根据规则推理;多种推理方式的结合;处理定义不严密及含义开放的概念;设计论证和解释;处理各项知识的例外和期间的冲突,比如规则间的冲突;包容法律知识基础的变化,尤其是法律概念的变化,处理非单一性因素引起的变化,即由于更多新知识的出现而使原有的真理不再成为真理,因之而起的变化;模拟普通常识;模拟人的意向和信念知识;承担理解自然语言的功能。①於兴中:《法理学前沿》,北京:中国民主法制出版社,2014年,第102—105页。
不难看出,法律的人工智能化过程中,不得不面对以下具体问题:其一,人工智能法律语言的规制;其二,人工智能法律解释的规制;其三,人工智能法律推理系统的规制。无论是人工智能法律检索还是人工智能司法裁判,都必须基于最基本的法律语言而展开,这一点恰恰是人工智能需要攻克的难题。因为现有法律语言存在模糊性,不同学者对法律概念的内涵和外延认知有差别,对某一法律问题的理解可能法律职业共同体内部就有多种解释,而机器语言只做单向的精确推理,如需穷尽推理结果,必须在法律语言的确定性、法律解释的一致性和法律推理的多维性等方面预先加以规制。
法律的人工智能化在智慧司法中的运用应当是“有限智能化”②黄京平:《刑事司法人工智能的负面清单》,《探索与争鸣》2017年第10期。,尤其现阶段该应用主要集中于数据检索环节,更需兼顾效率与公正、权衡案件的共同性和差异性。2017年8月28日,由上海市社科联探索与争鸣杂志社和华东政法大学政治学研究院共同主办的“人工智能与未来社会:趋势、风险与挑战”学术研讨会上,微软亚太科技有限公司副总裁王枫鲜明地指出:“没有数据的人工智能是一个理论和空谈,数据的完整性、专业性和准确性是最基本的。”③参见《人工智能在未来社会将有哪些风险与挑战》,http://news.ifeng.com/a/20170831/51821471_0.shtml,访问时间2018年5月23日。人工智能发展的原始助推力不是算法、不是推理,更不是软件系统,而是大量的数据,所涉数据的来源、数据的使用都不可避免地带来安全隐患或产生隐私侵权行为,这就需要在道德伦理与法律之间寻求一个平衡点,在保护数据信息安全使用的前提下,通过人工智能系统促进法律职业技术改革,总之,法律的人工智能化不仅追求效率,更要兼顾公平与正义。在使用数据方面,遵循目的明确、最少够用、公开告知、知情同意等基本原则,④袁曾:《人工智能有限法律人格审视》,《东方法学》2017第5期。通过数据使用主体权限、数据使用者登记备案、数据使用流向注入标签水印等方式严格规范数据使用,对于滥用数据或窃取使用数据的行为,在查明责任主体的前提下,以民事和刑事责任予以规制。
结 语
人工智能从技术到产品都在发展成熟的过程中,这个过程正是人工智能立法的准备阶段、摸索阶段、积累阶段。在人工智能立法方面,就目前而言,尚没有立法成就特别突出的国家,这是全人类所面临的新课题,有学者提出,坚持以人为本的原则、建立全流程监管体系、明晰法律责任制度、明确数据信息保护与隐私权保护、强化涉及人工智能发展的知识产权保护、加强国际合作,加快制定专门的《人工智能发展法》。①袁曾:《人工智能有限法律人格审视》,《东方法学》2017第5期。一部体系和结构完整的《人工智能发展法》既需要廓清人工智能机器人的基本权责义,还需要厘清人(法人)机之间的责任分配以及责任承担方式,更需要不同领域相关法律的配合和补充。
人工智能已然提升至国家战略层面,毫无疑问,立法也将紧随科技进步的步伐。当前,围绕自动驾驶、服务机器人等应用基础好的领域,加快立法进度,将人工智能复杂环境中的突发事件纳入法律规制的范围,探索归纳该场景下突发事件的应对主体、问责机制,为后续立法提供借鉴。