人工智能立法的海外状况及难点分析
2019-08-28武雪健
武雪健
迅猛发展的人工智能技术亟待相关法律的设立,以对其进行规制和引导,相关技术领先国家也在近些年进行了有益的探索与实践,但人工智能技术的特殊性也为法律的细化和落地带来诸多挑战。
人工智能立法的国外状况
近年来,人工智能技术发展迅猛并日益渗透到人类生活的多个方面,也正因此,人工智能愈发引起全世界的广泛关注。人工智能是一种正在给人类社会带来全方位深刻变革的技术,与以往技术进步相同的是,人工智能同样由人类开发并以服务人类为目的,但其特殊性在于人工智能的技术核心依赖于机器学习(尤其是无监督学习),这当中就存在着很大的风险和不确定性,还很有可能引发诸多法律监管和伦理道德问题。因而,如何在确保人工智能技术不至于触及法律底线和引发伦理道德问题的前提下,最大程度地发挥其促进生产力发展、促进社会进步的功能,就必然成为亟待解答的时代课题。例如,联合国下属的科学知识和科技伦理世界委员会就在2016年8月发布了《机器人伦理初步报告草案》,认为机器人不仅需要尊重人类社会的伦理规范,还需要将特定伦理准则编写进机器人程序中。电气和电子工程师协会则在2016年12月发布《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》,就一般原则、伦理、方法论、通用人工智能和超级人工智能的安全与福祉、个人数据、自主武器系统、经济/人道主义问题、法律等八大主题给出具体建议。与国际组织和社会机构不同的是,超国家组织与各国政府对于人工智能的发展事项具有一定实操性的权能,进行立法引导和规制也就成为人工智能技术领先国家的普遍做法,下文分别就欧盟和美国的立法进行介绍。
1.欧盟:率先提出人工智能立法动议
欧盟是最早进行人工智能立法探讨的超国家组织。最早在2015年1月,欧盟议会的法律事务委员会(下称“委员会”)决定成立一个工作小组来负责研究机器人、人工智能发展等相关法律问题。2016年5月,委员会发布了《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》;同年10月,又发布研究成果《欧盟机器人民事法律规则》。在这些报告和研究的基础上,2017年1月12日,委员会以12票赞成、2票反对、2票弃权的结果通过一份决议,在其中提出了一些具体的立法建议,要求欧盟委员会就机器人和人工智能提出立法提案。2017年2月16日,欧盟议会以396票赞成、123票反对、85票弃权的结果通过这份决议。委员会的主要考虑是针对机器人和人工智能出台民事法律规则,为人工智能研发和审查人员制定伦理守则,从而保证在整个研发和审查环节中都充分考虑到人类价值,最终确保面向消费者和社会的机器人能够符合人类利益。其中具体的立法建议主要包括以下四个方面。
确定人工智能的伦理准则。在机器人和人工智能的设计、研发、生产和利用过程中,需要一个指导性的伦理框架,确保以符合法律、伦理等标准的方式运作。比如,设计者应当设置一个“一键关闭”的功能,从而能够在紧急情况下将机器人关闭。委员会还提出了“机器人宪章”,这一宪章针对人工智能科研人员和研究伦理委员会,构想了在机器人设计和研发阶段需要遵守的基本伦理原则。对于机器人科研人员而言,诸如不作恶、正义、基本权利、可责性、安全性、隐私等都是需要认真对待的事项。此外,还需要伦理审查委员会对人工智能设计和研发进行把关,确保机器人符合人类社会的伦理、法律等规范。
考虑赋予复杂的自主机器人以法律地位的可能性。将人工智能写入法律,至少要回答关于法律主体地位的两个问题:其一,机器人应当被界定为自然人、法人、动物还是物体;其二,是否需要创造新的法律主体类型,以便复杂的高级机器人可以享有权利和承担义务,并对其造成的损害承担责任。因为界定监管对象是人工智能立法的起点,委员会的观点是智能自主机器人应属监管对象,并提出了四大特征加以辨析:(1)通过传感器和/或借助与其环境交换数据(互联性)获得自主性的能力,并能够分析相应数据;(2)从交互中学习的能力;(3)机器人的物质支撑形式;(4)因环境而调整行为和行动的能力。此外,委员会认为还应当提出机器人的分类标准,建立高级机器人登记制度,从而实现可追溯性,并促进推荐性规范的落实。
实施强制保险机制和赔偿基金。自动驾驶汽车、工业机器人、护理机器人等类型的人工智能产品可能完全或者部分脱离人类的控制,一旦对人类和财产造成损害,其设计者和开发者是否应当承担严格责任,抑或承担有限责任。对此,委员会提出两个建议:一是对机器人适用强制保险机制,由机器人的生产者或者所有者负责购买,以便对机器人造成的损害进行责任分配;二是设立赔偿基金,对强制险未予覆盖的损害进行赔偿,并让投资人、生产者、消费者等多方主体参与这一机制,从而形成赔偿基金。
明确人工智能的“独立智力创造”。第一,委员会建议欧盟委员会就与软硬件标准、代码有关的知识产权提出一个更平衡的路径,以便在保护创新的同时也促进创新;第二,对于计算机或者机器人创作的可确认版权的作品,需要提出界定人工智能的“独立智力创造”的标准,以便明确版权归属。
2.美国:提出“人工智能未来法案”抢抓发展机遇
虽然特朗普政府对人工智能的反应相对消极,但美国国会认为人工智能可以极大地促进经济增长,理解人工智能并为其发展和应用做好准备对美国的经济繁荣与社会稳定至关重要,所以在2017年12月12日提出了“人工智能未来法案”。这一法案的目的在于大力发展人工智能,主要内容是要求商务部设立联邦人工智能发展与应用咨询委员会(下称“人工智能委员会”),并明确了人工智能咨询委员会的职责、權力、人员构成等内容。
明确发展人工智能的必要性。法案认为,理解人工智能并为其发展做好准备,对美国经济发展和社会稳定至关重要。因而根据此法案成立的人工智能咨询委员会有必要就以下议题优先出具指南或建议:其一,建立一个有利的投资和创新环境,以保持美国在人工智能领域的全球竞争力;其二,优化人工智能发展,以处理人工智能发展给劳动力带来的潜在增长、重塑或改变;其三,推动和支持人工智能的发展和应用;其四,保护个人隐私。
厘清人工智能相关概念。法案对人工智能相关概念作出了一般性解释,并要求人工智能咨询委员会根据其解释修订并明确人工智能相关概念。法案指出,围绕人工智能存在不同的定义,总体来看,通用人工智能是未来人工智能概念,即在众多认知领域上像人类智能那样灵活和全面的系统,能够做出智能行为,包括认知、学习、语言、感知、推理和社会化行为等。狭义的人工智能则强调特定应用领域,能够执行专门的、定义明确的任务,如玩策略游戏、智能翻译、自动驾驶汽车和图像识别等。
成立联邦人工智能发展与应用咨询委员会,并明确其职责、组成与权力。人工智能咨询委员会的职责有三点:提建议、从事研究、出具报告和建议。具体而言,提建议的事项包括促进投资和创新、劳动力、教育、伦理研究和培训、数据开放、国际合作和竞争、法律责任和权利、算法歧视、人工智能与乡村社区、行政效率十个方面。从事研究的事项包括:(1)创造有利于公共和个人投资的环境;(2)发展人工智能可能对经济、劳动力市场和美国竞争力的正负面影响;(3)人工智能的应用将如何取代就业机会或者创造新的就业岗位;(4)如何在人工智能开发和相关联的算法中识别并消除歧视;(5)是否需要以及如何在人工智能开发和应用中融入伦理标准,(6)如何激励开发可以惠及各社会阶层和经济团体的人工智能技术;(7)人工智能如何影响个人隐私权;(8)人工智能的发展是否会影响消费者保护相关的法律和管理体制;(9)是否需要更新现有的关于数据获取和隐私保护的法律;(10)联邦政府如何利用人工智能处理重大且复杂的数据集;(11)多方利益相关者之间的持续对话和谈判如何实现将人工智能的潜力最大化;(12)人工智能如何促进政府各个职能领域节约成本和简化运营。出具报告和建议为人工智能咨询委员会应于该法案颁布后540天内向商务部长和国会提交人工智能相关事项的研究报告,并对出台相关立法或行政措施提出建议。人工智能咨询委员会由19名经商务部任命的投票委员(含1名主席)和众多非投票委员组成,每年至少召开两次全体会议,每两个月召开一次电话会议。其权力包括为行使该法案规定的职责而举行听证会、采取行动,收集证据等;必要时向国会、联邦政府机构提交建议;出具报告、指南和备忘录;举行会议和研讨;与第三方专家合作并监督员工;建立分会和议会规则等。
人工智能立法的难点分析
从前述梳理可知,虽然人工智能的立法在近几年得到了相关国家的关注和发展,但相关立法的规定内容实际上多数仍停留在初步构想阶段,将人工智能赋予法律主体地位,从而进行立法,这一本应是核心的内容却少有涉及。究其原因,除却人工智能技术的发展时间较短,因而相关法律并未及时跟进制定外,人工智能技术本身的特殊性也为立法带来一些难题。参照刑法学者王素之对于人工智能犯罪的三方面刑法难题的分析——人工智能的刑法地位、人工智能犯罪的主观方面、人工智能犯罪的客观方面,下文对其进行法律难点的扩展。
主体难题:人工智能的法律地位。随着人工智能的发展,其智能化的发展程度和独立性也愈发突显。虽然人工智能主要受预设程序的控制,但这并不意味着人工智能不具有独立性。例如发表特定言论可以构成犯罪,如果他人诱导人工智能散布相关言论该如何认定,特别是该人工智能是基于自身的“学习”并“发表”以上言论时又该如何认定和处理。在传统的法律认知中,人(法人也是法律主体的人格化)才是法律规制的主要主体。当法律的规制主体变为机器人,就将面临至少两个问题:其一,法律需要保证道德主体的权利;其二,机器人也需要遵守法律上的义务。但是现阶段人工智能显然不具备自然人的特征,这会导致在认定其法律行为的认定上存在障碍,在处罚层面也容易存在难以起到有效地震慑犯罪的问题。就此而言,人工智能作为传统体系的适格主体进入法律范畴存在问题。
罪过难题:人工智能的主观“认识”方面。随着人工智能的发展,机器人逐渐能够从周围环境的刺激中学习,并从自己的行为中获得知识和技能,进而可能越来越难以被它们的用户和设计师预测。一直以来,人的主观罪过是法律考量的重要元素,独立意志成为权利、义务、责任包括处罚的前提基础,构成这一思想的核心是主张尊重理性的观点。然而我们也了解到,BBC地平线系列纪录片《寻找人工智能》曾经报道过针刺机器人会根据自己的判断是否会刺伤人的手指,那么对于其行为的主观方面该如何认定呢?更何况人工智能领域本就存在强人工智能和弱人工智能的争论,其中强人工智能的观点认为未来能够真正制造出能进行推理和解决问题的智能机器,这种智能机器像人一样有知觉和意识;弱人工智能的观点认为,智能机器只是看起来像是智能的,它的智能只是表面的、非实质性的,不会像人类一样真正拥有智能和意识。这更加使得对人工智能主观“认识”的判断成为难题。
行为难题:人工智能的客观方面。从行为层面,人工智能可能涉及以下两种类型:第一种类型是本就应用于社会之中,由于人工智能出现问题或其他原因导致不良后果,如特斯拉自动驾驶导致交通事故等严重后果的情形。在这种情形中,人工智能本身用途无害,但是客观上造成了侵害。第二种类型是人工智能被直接用于犯罪。如“全国首例利用人工智能犯罪案”中,人工智能将文本识别技术用于非法获取个人信息,人工智能被直接用于犯罪目的。在传统意义上,法律中的行为主要是人的行为。即行为是人的身体活动,犯罪行为必须是在客观上侵犯了法益,这是行为的实质要素。然而人工智能犯罪中的行为却处在两者之间:第一,人工智能的“行为”并非人们所直接发出的,有些甚至并非人们所直接指令其发出的,人工智能的“行为”在归因于人的过程中存在一定障碍。第二,人工智能的“行为”又与人的行为有一定的关聯,即使未曾直接指令人工智能实施一定的“行为”,但是至少会对人工智能的模式和范式做出设定。由此,如何认定人的行为与人工智能“行为”的性质与界限也是一个需解答的难题。
从海外人工智能立法情况和出现的难点来看,人工智能立法问题必须要加强研究,积极学习海外的经验。我国对于人工智能产业发展当中出现的社会影响,需要提前加强社会研究,寻找社会共识。在立法上也需要结合经济学等学科的研究成果,使人工智能的发展能促进社会更美好