人工智能法律规制的难题及其破解
2022-11-30王玉薇唐楚欣
王玉薇,唐楚欣
(东北林业大学 文法学院,黑龙江 哈尔滨 150040)
人工智能的诞生为人类生活提供了诸多便利,极大提高了人们的工作效率。重庆市将人工智能应用于法院,推出的“易诉”网上法院可以直接进行证据交换,在正式庭审阶段直接就双方有异议的证据进行质证,大大简化庭审过程。[1]然而,在人工智能飞速发展的同时,其有效法律规制则成为了理论和实务界所面临的重大课题。现阶段人工智能的法律地位尚未明确,刘洪华教授认为:“人工智能高度自主,似乎具有‘精神、意识’的人工智能应当被赋予法律主体地位。”[2]人工智能的出现颠覆了传统法律责任体系的种种原则,人工智能的致害责任应当如何分配仍是亟待解决的问题,甚至有学者建议“为智能机器人创设特殊的责任承担的机制,例如信托制度”[3]等。人工智能的运作程序难以被人察觉,具有隐蔽性和不可解释性,对此有学者提出对人工智能应当“采用严格慎重的原则,并且法律监管措施应贯穿全过程”[4]等。针对人工智能带来的种种问题,若不以审慎的态度应对人工智能带来的挑战,很容易一味追求科技进步而忽视社会整体的和谐,从而对国家安全、社会秩序和公民利益造成威胁。有效破解人工智能法律规制面临的难题,才能实现人与人工智能的和谐共处。
一、人工智能法律规制的难题
在大数据、区块链、传感网等新技术的驱动下,人工智能飞速演进,呈现出深度学习、跨界融合、自主操控等特点。把握人工智能发展机遇的同时,我们还需要警惕这一技术给我们带来的风险。具体而言,人工智能法律规制面临的难题主要存在以下三方面。
(一)法律主体地位尚未明确
在我国传统法律体系中,法律主体主要分为自然人、法人和国家三类,而法律客体主要包括物、人身、行为结果和精神四种类型。人工智能既不具备法律主体的全部属性,例如弱人工智能并不具备独立的行为能力,也不适合全然归类于法律客体,原因在于强人工智能可以通过学习产生自己的意识,不同于“物”为人所用。因此现阶段对于人工智能的法律地位,学术界众说纷纭,观点云集,主要存在客体说、完全主体说和有限主体说三类学说。
客体说从人工智能的工具属性出发,认为人工智能只能作为法律客体参与社会活动。归根结底,人工智能只是服务于人类的工具,基于提高效率、辅助人类生活的目的而产生,缺乏自身的思考能力和道德能力。在这种观点之下,人类是法律关系中的主体,而人工智能是作为客体对象的存在,有学者提出“人工智能的行为和意志都是人工赋予的,人工智能仍是物的属性。”[5]一直以来,法律主体的特点就是具备独立思维,自然人乃至法人在法律上都有独立思考的能力,可以享有权利、负有义务和承担责任,并通过实践完善自己的能力,然而人工智能本身并不具备独立思维,即便人类在开发和设计之初编写了完备的算法和程序,足以支撑人工智能完成大量的工作和困难的任务,它仍然是人类本身实践的产物。现阶段多数国家的现行法律法规和司法实践活动中都坚持人工智能客体说的观点,但客体说主要针对弱人工智能,很难将强人工智能涵盖其中。
完全主体说认为人工智能有着人类的特征并在一定程度超越了人类的极限,如寿命、疾病等方面,极大地补充人类在生物特征上的缺陷。随着科学技术的高速发展,人工智能逐渐不再仅仅是提供便利的工具,而是具备独立思考能力的类。人工智能在机械化劳动和整合信息等多个方面逐渐显露优势,可以与人类相媲美,甚至有超越人类的可能,在此基础上,应当将人工智能视为完全法律主体。主体说以代理人说和电子人格说为代表,试图赋予人工智能主体地位。代理人说意图将人工智能作为其所有人的代理人,电子说则是将人工智能确立为“电子人”,为其申请电子人格成为法律主体。除以上两种类型外,亦有学者建议“配置出一个既有别于自然人、又有别于动物和团体法人的某种新的位格位阶”。[6]
有限主体说则是采取更为缓和的手段,从实际情况出发,结合人工智能的自主程度和独立意识进行具体分析。正如孙占利教授所说,“对于智能机器人的法律人格问题,需要遵循最小化原则和程序化原则,尽量在最小程度上对人工智能制订新的法律”,[7]因此在人工智能产生独立意识之前,其本质仍是为人所用的机器,其工具属性不言而喻,此时的人工智能可归为法律客体,适用于现有的法律体系。当人工智能不再是完全被人类控制的工具时,可以考虑在著作权等权益部分将人工智能视为有限主体,以便于解决人工智能参与的相关问题。
学理上对于人工智能的法律主体地位尚未统一的认知,尽管目前,人工智能的类型以弱人工智能居多,主要在于辅佐人类活动,也正因如此,许多学者对于人工智能持着客体说的观点。但考虑到人工智能的发展速度,若不及时对人工智能的法律主体地位进行限制和解释,产生自我意识的人工智能很难继续适用于传统的法律体系,从而造成法律漏洞,致使人工智能的法律责任和法律义务难以实现。
(二)法律责任认定困难
人工智能技术与传统科技之间最大的差异在于能够实现对人的模拟。人工智能可以基于设定好的程序做出判断,相应的也会造成侵权行为。在实践中,人工智能产品致人损害的事故屡见不鲜。2015年,德国大众工厂的技术人员被机器人攻击而不幸丧生。2016年深圳的高交会上,一台机器人突然失控砸坏展台,伤及路人。在传统法律责任体系中,责任主体必然是人,机器终归是人类完成工作的工具。一旦这类工具型机器造成损害,要么因产品自身缺陷认定生产者的责任,要不以使用者未尽到合理注意义务追究使用者的过错,及时弥补受害人的损失。因此,人工智能致害责任认定疑难的原因主要在于致害责任主体不明确和因果关系难辩明。
其一,明确责任承担的前提就是对于人工智能致害主体的认定。人工智能产品的致害责任主体复杂多样,包括了产品生产者、销售者、所有者及使用者,甚至有时还存在身份重合的现象。尽管目前在多数学者看来,人工智能仅具备工具属性,本质还是物品。但不可忽视的是,人工智能具有高度智能性和复杂性,在其高速发展的过程中,很难保证其不产生自主意识,化“客”为“主”,因此人工智能本身也可能是责任主体。学界对于人工智能的责任分配问题也存有较大争议,有学者认为人工智能的致害责任应当由制造者和使用者承担。[8]有的学者提出“赋予某些智能机器人电子人格,使其可以对其行为承担法律责任。”[9]
其二,在认定有无致害责任时,需要确认的重要方面是因果关系。随着人工智能的广泛应用,一件人工智能产品的出现,背后往往需要多方的操作配合。而且人工智能的程序设定远超普通人的理解范畴,其背后的因果关系认定更为复杂。当出现人工智能致害事故时,可能是因为一方或多方的原因,比如产品系统自身出现故障、生产者未尽到安全义务亦或是使用者操作失误等,很难第一时间辨明因果关系。在人工智能技术不断进步的今天,强人工智能的学习能力很有可能成为其他责任人逃避责任的“挡箭牌”,人们很难知晓致害行为是否是人工智能自主学习的产物。在事故发生时,一旦事故本身难以解释或者不能明确认定设计缺陷,就极易造成不正义的现象出现,最终致使被侵权人难以追偿。
(三)法律监督难以奏效
人工智能产品的普及必然带来人与智能产品同在共存的生活常态,而技术自身的隐患会危及人类的安全,同时亦会产生一系列伴生问题。由于缺乏对人工智能潜在风险的明确认识,国际上鲜有针对人工智能的专门的监管法律与机构,大多仍处于空白状态。同样,对于人工智能监督途径的法律研究也是匮乏的。[10]尽管近年来我国愈发重视人工智能领域的发展,相继出台并修订《中华人民共和国科学技术进步法》、《中华人民共和国数据安全法》等法律法规,但在实践中并未得到有效落实。
其一,国家监督管辖范围有限,而社会监督又很难对人工智能进行有效监督。人工智能内部结构的复杂性使得监管者和普通民众难以理解其背后的运作机制和原理,无法预测其潜在的风险之处,因此社会监督很难发挥效果。鉴于人工智能的特殊性,如缺乏具备专业知识的监督机构和人员,很难全面地对人工智能进行管理,从而容易导致人工智能技术滥用,后患无穷。
其二,监督体系不够完善。目前我国对于人工智能的监督主要集中于生产和流通阶段,然而人工智能的特殊属性决定了其精准度不容有失,任一环节的纰漏都可能成为人工智能产品的“定时炸弹”,因此人工智能的研发阶段同样离不开法律的监督。如果人工智能技术在研发之初缺乏有效的监督,有漏洞的人工智能产品流入市场,从一开始就埋下隐患,尤其是像自动驾驶汽车等直接影响社会安全的人工智能产品,一旦存在安全性能方面的问题,后果将不堪设想。
二、破解人工智能法律规制难题的路径
为适应时代发展的需要,国际社会对人工智能提出了一系列的应对措施。我国是人工智能研发与应用的大国,并且已经将人工智能纳入国家战略规划,因此,我们对于人工智能时代面临的问题更应当加强防范,积极面对,以有效的措施推动人工智能的发展。
(一)明确人工智能有限法律主体地位
诚然,对于人工智能的法律地位,大多数学者持客体说的观点,认为传统法律体系尚可以适用于现阶段的人工智能,试图维持法律体系的稳定性;少部分学者主张尽早确认人工智能的主体地位,以免出现法律空白;支持有限主体说的学者则是寥寥无几。笔者认为,客体说与完全主体说的观点都具有一定的合理性,但又难以覆盖人工智能的全部法律活动。因此,人工智能法律地位的确立要着眼于现实发展的需要,兼顾未来发展的趋势和动向进行定位。
其一,确立强人工智能的有限法律主体地位。目前学理上对于强弱人工智能已经有较为详细的讨论,以此为标准对人工智能赋予法律地位也较为明晰。正如前文所述,为了保持法律的稳定性,对于人工智能的法律主体地位应当坚持最小化原则。一方面,弱人工智能作为工具辅助人类活动,其法律权利、义务以及法律责任等诸多方面均可由生产者或使用者承担,此时人工智能作为法律客体参与法律活动。另一方面,强人工智能在运行过程中可能产生自我意识,从而支配自己的活动。在这种情况下,将人工智能基于自主意识而产生的法律责任归于生产者或使用者显然不合常理,因此赋予强人工智能以主体地位是必要的,旨在对其自主意识支配下的活动承担责任。
其二,对人工智能法律地位的研究更应侧重于强人工智能阶段。对于弱人工智能阶段,机器和系统所做的决策被认为是由预先设计好的算法所决定,[11]在这种情况下,人工智能作为客体参与法律活动,尚且能适应我国现有的法律主体体系,并不能对其产生冲击。然而,强人工智能拥有有限的法律主体地位,不可避免地会对现有法律体系造成影响。因此,在未来的研究过程中,既要规范强人工智能有限法律主体地位认定的标准,明确其需要承担的责任义务,又要尽量保持法律体系的相对稳定,维护法律的权威性,从而在学理上为人工智能的有限法律主体地位提供理论保障。
(二)完善人工智能致害责任认定标准
人工智能的复杂性对人工智能致害责任认定提出的难题,既直接导致产生人工智能致害事故难以追责、无法合理保护受害人的权益,也暴露出现行法律法规的局限性。就人工智能本身的独特程度而言,人工智能的致害责任认定标准需要从两方面进行规定,即明确法律致害责任主体和厘清因果关系。
其一,责任主体的划分主要在于如何定义产品缺陷与人为要素两部分。一方面,是否存在产品缺陷,是认定生产者有无必要承担致害责任的前提。对生产者是否应追究责任,就需要判断其是否在产品生产制造的过程中尽到了安全保障的注意义务。因而,我们应该将生产者的注意义务内容进一步具体化、定型化,才能明确生产者的责任范围,并确保对生产者过失的谴责合理性。另一方面,对于使用者来说,人与人工智能同时参与的法律活动,应将“人为因素参与”与否作为责任主体认定依据之一。具体来说,当发生事故时,人工智能处于或应处于人为支配状态时,应依据过错责任认定责任主体。当确定无人为因素参与而导致事故时,则应通过人工智能的智能化程度认定责任主体。在弱人工智能环境下,人工智能仍作为客体参与法律活动,这种情况下责任主体基本认定为生产者。反观强人工智能背景下,人工智能可作为主体承担责任,此时责任主体可认定为人工智能系统本身。
其二,厘清因果关系需要建立统一的安全生产行业标准。在我国,安全生产行业标准是衡量产品达标的前提。人工智能产品具有不透明性和不可解释性,追溯法律责任时往往难以查清因果关系,因此,建立统一的安全生产标准更为必要。在实践中,统一的安全生产行业标准可以作为人工智能产品问题的有力导航,以甄别生产者的责任。此外,人工智能具有不可预测性和不可回溯性,损害结果的出现往往是一瞬间的,在人工智能产品上装入“黑匣子”便于事故发生后追溯原因。
(三)健全人工智能法律监督制度
在支持人工智能发展的同时,法律监督亦不可缺。2017年我国出台的《新一代人工智能发展规划》在提出要求和布置任务的同时,也揭露了潜在的风险。规划提出建立健全公开透明的人工智能监管体系,[12]由此可见,建立公开透明的人工智能法律监督制度是国家的大势所趋。在这种情况下,不仅要设立针对人工智能的专门法律监督机构,还要完善事前、事中、事后三阶段的动态监督体系。
其一,设立专门的人工智能法律监督机构。国家对于人工智能领域越来越重视,2020年7月国家标准化管理委员会等五部门联合印发《国家新一代人工智能标准体系建设指南》。该指南为人工智能行业发展提供了框架设计,以实现人工智能领域的标准化建设,推动人工智能的技术研发,促进人工智能行业的整体发展。从人工智能的专业性水平考量,有学者认为应当建立专门机构,建议在网信办中设置算法审查委员会。还有学者建议通过专业审计人员的协助,“聘请独立的第三方算法审计机构对算法进行定期检测。[13]”新兴技术的发展具有灵活性,鉴于人工智能算法的特殊性和隐蔽性,仅仅依靠国家力量进行监督已经力不从心,在实践中遇到的许多问题依靠统一标准是很难解决的,专业人士的保障更有利于及时发现人工智能的问题,因此专门针对人工智能的法律监督机构既是国家政策落实的根本,也是指导实践的风向标。
其二,建立动态的全过程监督体系。在事前预防方面,需要加强对人工智能的形势预测、重视人工智能的跟踪分析,方能更加准确地掌控人工智能的发展。与此同时,应当将人工智能与风险意识紧密联系起来,重视人工智能可能对其他行业带来的冲击,关注舆论的走向,将人工智能的发展牢牢地限制在安全范围中。在事中管理方面,投入市场的人工智能产品需要联网,在保护用户数据的前提下尽可能掌握人工智能的一举一动,防止其造成不利后果,并定期回访人工智能的使用者以便了解近况。为更好地管理人工智能,首要任务是对人工智能进行等级分类,以安全程度和使用难度为标准,限制有危险性的人工智能产品的销售范围,进行实时监管。在事后监督方面,选拔专业水平优越的法律人员组成专门法庭处理人工智能相关案件,在适用法律的同时审查条款的合理性和合法性。针对人工智能网络犯罪的情况,有学者提出法院应当积极发挥个案规则的形成功能,建立案例指导制度。[14]
综上所述,人工智能给人类生活带来美好的同时,也带来了挑战,因此,需要保持清醒的头脑,时刻树立风险意识。尽早确立人工智能的有限主体地位是出于实践的需要,以便人工智能更好地融入法律体系之中。理清人工智能法律责任的根本是明确责任主体和因果关系,产品缺陷和人为因素是判定责任的重要因素。作为保障实践效果的法律监督层面,建立人工智能监督机构和全面动态的法律监督体系是人工智能法律监督的关键。尽管目前人工智能不足以威胁到我们的实际生活,但我们需要警惕人工智能可能给人类生活带来的种种难题,并及时加以规制,方能维护社会的安宁稳定。