人工智能在实际应用中的主体资格研究
2020-11-12吴萍萍刘丹伍嘉庆吴欣雨裴湘琴吴玥陈天赐
吴萍萍 刘丹 伍嘉庆 吴欣雨 裴湘琴 吴玥 陈天赐
摘要:随着时代的发展,人工智能产业也逐渐进入高速发展的阶段,但是现行的法律规制却不能够满足人工智能发展的速度,使得人工智能在实际应用中缺乏有效规范。人工智能是具有智慧工具属性并且可以做出独立意思表示的特殊主体,但其法律人格是有限的,因此应当适用特殊的法律规制,在这一点可以借鉴国外立法实践,同时应当通过投保责任险来促进人工智能的长远发展。
关键词:人工智能;主体资格;法律规制
一、研究的背景
现代人工智能的快速爆发主要源于三个重要发展趋势的快速汇聚:摩尔定律所明确描述的具有计算机能力的指数快速增长、互联网和移动物联网的快速爆发所直接产生的海量大数据、智能算法的快速积累和发展。
当前世界人工智能尚未成熟和处于早期,现阶段几十年来人工智能在世界大规模推广应用的重要性和发展的态势已清晰地显现,正在逐渐成为引领和推动世界科技工业革命的重要推动力量,如今现代的人工智能已经逐渐成为国际竞争的新技术焦点、经济和社会发展的新技术引擎,社会文明建设的热点和新机遇。
二、人工智能的基本概念和定义
现代世界,人工智能技术和发展的进程已经取得了很大的技术突破。那么,什么类型的才是人工智能?仁者见仁智者见智,但总的来说,大概都从四个基本方面对于人工智能的概念进行了界定:包括人类的基本思考方式、行为和思维模式、理性化的独立思考以及建立理性化的智力行为管理模式。〔1〕阿兰·图灵认为机器以及人能否独立思考这样的问题其实不值得需要人们花时间来深入讨论,原因之一就是对独立思考的方式进行定义其实是很困难的,由此图灵提出了图灵测试,其中的核心问题在于"机器能否在智力行为上表现得和人无法区分"。〔2〕目前人工智能的发展可以大致归纳表现出8个基本特征:〔3〕第一,创新性。利用人工的智能技术可以根据其现有的技术产品以及现有的方法对系统进行实际的设计调整或者改变,并可以创造新的方法以及产品。第二,产生的结果不是具有不可预知性,不是事前已经可以确定的。根据一定的技术目的来控制系统运行的人工智能在一定的数据分析的理论基础之上可以进行随机的变化,通过随机的数据分析方式可以得出最有利的解决方式与其结果。第三,人工智能可以使系统能够独立的运行。虽然目前人可以通过自己设立系统运行的目标、固定的参数值等诸多方面来达到对系统的运行进行干预,但是人工智能拥有在人为干预方面之外的对数据以及其自身的认知功能。第四,理性化思维的能力。人工智能系统的实时运行能力可以使设计者依托系统提供的实时数据来为确定运行目标的系统能否实现提供参考。第五,不断更新的能力。系统可以通过自身设定来快速获取实时的设计数据而快速地产生在自己预期的设想中没有发生或出现过的想法和结果。第六,从自身的设定之外可以获得学习,分析,传播设计数据的能力。第七,效率高,精准度高。第八,可以自行地选择系统运行的目标。
三、人工智能的基本分类
(一)弱人工智能
弱人工智能(artificialnarrowintelligence)人工智能简称缩写为anani,是一种泛指最早在世界上出现,主要是擅长于单个计算机方面的一类人工智能。其中比如曾经战胜了象棋世界冠军的阿尔法狗、超级计算机"深蓝"、在线广告等。弱人工智能在创造强人工智能的体系中实际上是较低级的人类发明,不能够直接作出人类预定范围外的智能操作。
(二)强人工智能
强人工智能(artificialgeneralintelligence),简称agi,是一种本质上类似于人类大脑级别的人工智能。强人工智能实际上是指一种在各方面都能和其他人类大脑相比肩的仿真人工智能,通过一定的计算和编程,可以直接使这种仿真人类大脑的系统能够进行独立的逻辑思考,智能的运作。强人工智能实际上指的是一种宽泛的人类大脑心理能力,能够进行独立思考、计划、解决复杂的问题、抽象思维、理解复杂的理念、快速地学习和从经验中学习等各种智能操作。创造强人工的智能比创造弱的强人工智能艰难许多,我们现在还远远达不到此种的水平。
(三)超人工智能
超人工智能(artificialsuperintelligence),简称asi,科学家把超人工智能定义为"在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。"我们可以清楚地看出,超人工智能已经完全可以取代人类来完成原来只能由人类才能够独立做的某些工作。甚至在某些领域超人工智能可以完成人类所不能完成的工作,可以完全取代人类。它是在人工智能体系中的顶端,由于它的能力已远超于人类,所以这种超人工智能的出现极有可能給未来的人类社会带了巨大的风险以及挑战。
四、人工智能的主体资格
(一)人工智能是特殊性质的法律行为主体
目前学术界对于这种人工智能的特殊性质和定义一直都是众说纷纭。比较流行的人工智能定义主要有工具说、电子奴隶说等等。〔4〕这种工具奴隶说的定义和观点主要认为这种人工智能的定义是一种基于为了人类的活动和生产服务的技术目的,为了人工智能更好地实现和服务于人类的生产和生活而被创造和开发出来的一种智能工具。〔5〕工具奴隶说的观点认为这种人工智能既没有独立的法律性质和人格,也没有独立的意思和表示的能力。所以电子奴隶说的观点认可其具有人工智能的法律行为能力,但是不等于认可其本身具有自己的法律权利能力。这种观点的定义认为现代人工智能就是没有疲惫感的现代机器,没有和现代机器人相似的感情和机体的特征。但是以上所说的工具主义观点都有不完善的地方,工具学说将现代的人工智能都定义在了传统的不能进行自主意识表示的"工具",忽略了现代的人工智能的现代化发展和工业化进程,比如所属于美国特斯拉公司的第一代电动汽车就已经基本实现了无人驾驶,并且可以通过对人工智能的意识进行自主判断和选择来控制和排除影响人类活动的障碍操作。电子奴隶学说虽然通过对现代人工智能法律权利能力的否认解决了现代人工智能的法律责任承担能力的独立主体问题,但是也只是直接延伸了现代工具论所说的观点,并没有直接承认现代人工智能的法律主体独立性。
现代人工智能的发展是人类文明的发展和进步到了现代的一个必然结果,是推动人类经济社会文明发展的重要助力,并且将向更大范围的人工智能应用和技术方面进一步发展,可以准确预测,在不远的未来,人工智能的普及和运用将更为广泛,所以当务之急,应该是规范人工智能在其法律上的地位和性质。因为人工智能本身具有着极高的智慧性以及独立作出意思表示和决断的能力,与以往的智慧工具性质相比有很大的区别。在其现有的条件基础上,人工智能在法律上应该被明确定义为一个既具有机器人智慧工具的性质又能够作出独立的意思表示的特殊主体。
(二)法律保护人工智能应当使机器人享有法律权利
"机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;机器人必须保护自己,除非这种保护与以上两条原则相矛盾。"这也就是"机器人之父"科幻作家阿西莫夫提出的"机器人三原则"。而其中的第二条原则禁止机器人伤害自己就是在赋予人工智能法律权利来让机器人保护自己。人工智能如果需要获得独立的法律人格就必须具备两个根本的条件:社会存在和法律认可,就是说人工智能能够通过自身做出独立的意思表示并且还要获得法律的认可。从目前的人工智能技术水平来看,虽然人工智能做出独立意思表示的能力还没有的到法律的明确认可,但是人工智能已经完全可以通过自身现有条件来对公司进行管理,处理事务,满足了社会存在的要件。〔5〕那么在现有情况下,人工智能是否可以向法律要求认可其做出独立意思表示的权利?
根据斯通纳的观点,某一主体要想拥有法律上的权利就必须满足以下三个条件:第一、该主题可以根据其自身要求提起相应的诉讼;第二、法院在决定进行法律救济的时候应当将损害纳入考虑范围之中;第三、法院所进行的法律救济应当满足其利益需求。对于第一点,人工智能已经在司法裁决领域应用开来,对于独立提出诉讼要求没有任何实践问题。而第二点,法院在决定进行法律救济的时候应当将损害纳入考虑范围之中。人工智能虽然是考虑到了工具属性的本质,但是由于考虑到了人工智能切割机器的设计造价成本高并且可能作为工具作为对人类表达感情的一种载体,例如当作为对老人或者孩童的陪伴机器人的独特记忆存储元件被完全删除时,使得该切割机器人的独特存储的记忆将不能被完全恢复,从而可能会对机器人产生严重的社会精神经济损害。第三点、法院所进行的人工智能法律权利救济满足其法律利益需求是应当有可能的。无论是停止侵害、排除或者停止妨害都是可以有效地运用到对于拥有人工智能的法律权利救济当中。综上而言,人工智能已经满足了拥有人工智能法律上权利所需的三个基本条件,应当能够享有人工智能法律上的权利。
(三)人工智能应当作为人工智能法律责任承担的主体
1978年世界上发生了第一起机器人切割杀人事件,日本世界上一家机械工厂的切割机器人"转身"将切割机工人的身体抓住并对其进行了切割。1989年被一位前苏联国际象棋世界冠军打败的切割机器人突然释放出极高强度的电流导致了冠军的死亡,该起杀人事件发生后,全球轰动。人工智能侵权事件其实并不少见。所以人工智能作为可以做出独立意思表示的特殊主体必须同人类一样为自己的行为承担责任,并且人工智能还在发展,其不可预测的行为可能会带来显性或者隐形的危险,不能够因为人工智能不是人类就可以逃避法律的制裁。
人工智能随着时代的发展将会面临更加严峻的伦理安全问题,谷歌创立的深度思考等研究机构已经设立了由一批具有不同的专业知识技术背景和丰富实践经验的人工智能专家组成的人工智能伦理安全审查会来思考解决这个问题。法律对于人工智能这一特殊法律主体更应该地向前一步发展,而人工智能也应当相应地保留人工智能设计前的数据以及推广使用前的数据备份,尽可能地扩大对人工智能设计数据的使用可披露范围,在推广使用前进行测试并告知相关的使用程序风险,由此使得人工智能企业可以通过数据复查以及应用程序告知等方式來判断是否承担人工智能相关的风险,并尽可能地减小其危害可能性以及法律责任。
五、人工智能主体资格的法律规制
(一)明确人工智能的侵权责任和承担的主体
明确界定人工智能是服务于国家和社会发展的法律工具的属性,人工智能仅仅是拥有有限的民事法律人格,并不完全可以等同与任何自然人和公司,不具有完全承担责任的能力和法律资格,所能够由人工智能主体承担的法律责任也只是部分。依据实际的情况,人工智能主体造成的侵权法律责任或者其刑事责任分担应当由其产品设计开发者以及其制造商共同承担。
在人工智能侵权责任方面,要促进人工智能的发展的主要因素就是要确定为人工智能的行为承担责任的主体。联合国教科文组织《关于机器人伦理的初步草案报告》明确提出了让所有参与人工智能发明、授权和使用的人员作为主要主体来承担责任和分担的机制的解决方式,这种人工智能责任分担的机制主要是给予了所有人工智能的产品设计者和生产者一定的压力,帮助来促使他们达到自觉地履行对自身参与的产品环节的安全保障义务,能够通过责任杠杆让人工智能侵权成本在内部得到消化,也能够有效地保障一旦发生意外后,被侵权人可以及时找到相应的人工智能负责主体并按照要求得到补偿。对于具有独立意志能力的人工智能,不能完全将其行为责任归结于创造者。〔6〕因为人工智能存在"黑箱",即使在系统运作之前对人工智能的参数以及分析数据进行人为干涉,也不能保证人工智能系统在运作之后产生什么样的结果,加上由于外部环境的干涉,仅仅只归责于技术创造者是极其不合理的。
在刑法方面,因为人工智能的有限人格以及不存在与人类相同的生理特征,所以人工智能与公司的法律地位并没有什么差别。〔7〕根据公司相关的刑法理论中重要的"实际控制人说",应当由人工智能这一表面操作看到实际上的责任主体。以美国无人驾驶汽车领域为例,2013年美国发布了《自动驾驶汽车的基本政策》,对人工智能测试过程中无人驾驶汽车的责任风险承担的主体进行了明确规定,除非第三方有足够的证据可以证明无人驾驶车辆在被第三方人工智能改造之前已经存在了缺陷,并且有可能导致在其测试过程中对用户造成了严重的财产损失或者是人身的伤害,否则无人驾驶车辆的初始设计者和制造商不需要承担其相关的责任。同样德国《道路交通法》也明确规定机动车驾驶员不得在车辆行驶的过程中放松警惕以及双手不得离开方向盘,否则驾驶员需要自行承担在驾驶车辆发生交通事故中,人工智能应用所造成的经济损失。所以,在利用人工智能有限人格的前提下,其所可能造成的经济损失由人工智能的主要责任人承担风险来说是可行的。
(二)为人工智能应用投保强制驾驶责任险
在高速发展的人工智能的语境下,如果对于人工智能的利用不当将有可能会给任何个人乃至于社会各个群体带来严重的经济风险以及危害。〔8〕从人工智能的研究开发、制造到产品投入使用来看,整个产业的环节是分散的,在信息网络发达且网络使用门槛偏低的时代,任何人都极有可能获得参与人工智能产品制造的机会。事前的人工智能监管和防范措施难以在危险结果发生之前有效发现某一风险,但是人工智能投入使用带来的责任风险很显然不能够由特定单一的政府部门或个人来进行有效应对,必须通过采取一种社会化的强制经济保险投入措施来有效规则和防范人工智能投入使用带来的强制责任风险。在人工智能产品投入使用前,为其投保了强制责任险,通过相对较小的经济保险投入费用来有效减少了当发生人工智能产品侵权事件发生之时可能产生的经济赔偿相关法律纠纷,促进了人工智能的更长远健康发展。〔9〕
六、结语
人工智能时代必将到来,而在法律领域,急迫且重要的问题是对人工智能机器人法律地位认定、法律责任归属等问题作出回应,并妥当设置相应规则、制度,在有效规范人工智能技术的同时,为新兴技术的发育预留必要的制度空间。人工智能随着现代科技的进步而高速发展,并应用于人类的生产与生活,逐渐改变着人们的生活方式与认知方式。尽管人工智能对当前社会带来一系列挑战,但其仍有很高价值的追求。
参考文献
[1]马修U.谢勒,曹建峰,李金磊.监管人工智能系统:风险、挑战、能力和策略[J].信息安全与通信保密,2017(03):45-71.
[2]A. M. Turing. Computing Machinery and Intelligence[J]. Mind,1950,59(236).
[3]梁志文.论人工智能创造物的法律保护[J].法律科学(西北政法大学学报),2017,35(05):156-165.
[4]叶欣.私法上自然人法律人格之解析[J].武汉大学学报(哲学社會科学版),2011,64(06):125-129.
[5]Phil McNally,Sohai Inayatullay,邵水浩.机器人的权利——二十一世纪的技术、文化和法律(上)[J].世界科学,1989(06):47-50.
[6]. Some Speculation about Artificial Intelligence and Legal Reasoning[J]. Stanford Law Review,1970,23(1).
[7]袁曾.人工智能有限法律人格审视[J].东方法学,2017(05):50-57.
[8]Zaki Eusufzai. Cathy ONeil. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown Publishers, New York (2016). 259 pp., ISBN: 9780553418811.[J]. The Social Science Journal,2019,56(3).
[9]宋云霞,李承奕,王铁钢.海上丝绸之路安全保障法律问题研究[J].中国海商法研究,2015,26(02):11-16+23.