APP下载

民法典视域下人工智能法律规制论纲

2023-12-28刘智慧

学术交流 2023年9期
关键词:民法典规制人工智能

刘智慧

(中国政法大学 法律硕士学院,北京 100088)

一、人工智能的《民法典》规制视域

随着各项技术与互联网的飞速发展,人工智能系统在代替人类从事简单性、重复性以及危险性工作方面存在广泛的应用价值,目前人工智能与制造业、物流、交通、金融、医疗等诸多行业领域的融合日益深入,并且在精确度和效率上确实已远超人工。[1]然而,人工智能技术是一把“双刃剑”,在其给人类带来产业升级和便利的同时,也带来新的社会问题。正如布莱恩·阿瑟所言,“本质上,技术是被捕获并加以利用的现象的集合,或者说,技术是对现象有目的的编程”[2]。马丁·海德格尔在其《存在与时间》一书中也指出:“现代技术业已不是中性中立的,它架构式地渗透、弥散、影响,甚至操控人的现代生活,赋予人新的生命与发展轨迹。”[3]为此,必须关注人工智能技术应用可能导致的安全风险、对现有法律规则的冲击以及技术发展对法律规制的急迫需求。

我国《民法典》于2021年1月1日实施。民法典一直被认为具有担负私权启蒙、权利教化以及引领社会变革的作用[4],而我国《民法典》因应时代的发展,于多个条款中明确规定或隐含了规制人工智能的相关内容,本文旨在《民法典》视域下检视这些条款对人工智能的发展和应用可能产生的影响,探寻人工智能的法律规制体系。

(一)引领:相关规则的类型化

《民法典》因应新时代背景,多个条文为涉人工智能规制的规则。整体观察,除了总则编外,这些规则在人格权编和侵权责任编的规定相对比较集中,主要涉及数据与网络虚拟财产、个人信息保护、隐私权保护、肖像权保护、电子合同、网络侵权责任承担等。

总体来看,可以将《民法典》涉人工智能规制的规则分为两类:

一类是规制人工智能发展应用场景或者领域的规则。例如,近些年来,不少商业或非商业征信系统是通过用户画像技术进行信用评价的,这是人工智能频繁应用的领域。针对这一领域,《民法典》从基本法层面针对民事主体的信用保护及评价作出了原则性规定。例如,针对个人信息、隐私权与肖像权保护领域,《民法典》第110条、第111条首先明确了自然人的个人信息、隐私权和肖像权受法律保护的原则。之后第999条规定了基于公共利益的个人信息合理使用;第1029—1030条则规定了民事主体与信用信息处理者的权利义务以及处理二者的关系应遵循的法律;第1034—1038条界定了个人信息,明确了个人信息包括生物识别信息、行踪信息等,将生物识别信息和行踪信息等纳入个人信息法律保护范围,规定了处理个人信息的原则、条件、免责事由,以及自然人对个人信息的权利与信息处理者的义务,为生物识别信息的法律保护提供了正当性基础的同时,也有助于规制目前已经被广泛应用的生物识别技术和人工智能追踪技术的滥用,同时还规定个人信息中的私密信息保护可以适用隐私权保护的规则,解决了法律适用问题;第1039条、第1226条则明确了国家机关及其工作人员在履职过程中对于个人信息和隐私的保护义务、医疗机构及医务人员对个人信息和患者隐私的保护义务。这些针对人工智能发展应用场景或者领域的规则安排,有助于直接或者间接地实现对于人工智能的规制。

另一类是规制人工智能支撑要素的规则。在互联网时代,任何一种新技术都离不开数据的产生和保护,而在互联网服务中,在数据的基础上创造出了各类网络虚拟财产,因此,对数据和虚拟财产的保护无疑是规制人工智能的支撑性要素。为此,针对网络虚拟财产与数据电文,《民法典》总则编第127条首先明确法律保护数据、网络虚拟财产的基本态度,用“法律对数据、网络虚拟财产的保护有规定的,依照其规定”这一转致的原则性规定为规制人工智能提供了很大的立法空间。同时,《民法典》也设计了一些直接规制具体问题的规则。例如,《民法典》第137条第2款规定了以数据电文作出意思表示的生效时间(1)《民法典》第137条第2款:以非对话方式作出的意思表示,到达相对人时生效。以非对话方式作出的采用数据电文形式的意思表示,相对人指定特定系统接收数据电文的,该数据电文进入该特定系统时生效;未指定特定系统的,相对人知道或者应当知道该数据电文进入其系统时生效。当事人对采用数据电文形式的意思表示的生效时间另有约定的,按照其约定。;第469条第3款规定了可有形地表现内容的数据电文视为书面形式(2)《民法典》第469条第3款:以电子数据交换、电子邮件等方式能够有形地表现所载内容,并可以随时调取查用的数据电文,视为书面形式。;第491—492条规定了数据电文形式订立合同的成立时间与成立地点;第512条明确了电子合同标的物的交付时间。再如,《民法典》第1018—1019条、第1023条明确了隐私的含义、隐私侵权行为的类型,并针对“深度伪造”(3)“深度伪造”(Deep Fake)是“深度学习”(Deep Learning)与“伪造”(Fake)的组合词,包括视频伪造、声音伪造、文本伪造和微表情合成等多模态视频欺骗技术。虽然“深度伪造”在影视制作、医学成像、艺术创作等不少领域具有重要应用价值,但因“深度伪造”技术的滥用具有突出的法律、伦理和政治风险,不少国家和地区采取措施予以规制。See MICHAEL C,HARLY C:Blame It on the Machine:A Socio-Legal Analysis of Liability in an AI World, Washington Journal of Law,2018,14(1).肖像侵权和声音侵权问题,规定不得利用信息技术手段伪造等方式侵害他人的肖像权,有助于对目前人工智能技术应用于“深度伪造”予以规制,遏制该项技术被滥用;针对网络侵权责任,《民法典》第1028条规定了民事主体有权要求媒体更正或删除失实报道内容,第1194—1197规定了网络服务提供者的侵权责任,与网络用户的连带侵权责任以及网络用户侵权救济程序。

正如有学者所言,“人工智能的研发、生产和应用应遵循基本人类价值,为相关活动提供安全、可信、公平、可解释性并保障主体权利等基本价值指引”[5]。在人工智能技术的快速发展过程中,技术影响着法律规则的形成[6],而《民法典》正是立于民事基本法地位,提供了基本的价值指引,这些规则对于规制人工智能的后续立法无疑具有引领意义。

(二)亟待推进:因应人工智能的发展

人工智能的适用领域不断扩展和深入,以至在合同法、侵权责任法、人格权法、知识产权法甚至婚姻家庭法等民法各领域,都有了人工智能适用的场景。在发生这些场景的社会关系中,由于人工智能设计极其复杂,而且存在难以预知的风险,以致既有立法规则调整产生的法律关系在加入人工智能因素后,变得或者无法适用或者不确定如何适用。再加之人工智能在发展过程中的不确定性,对法律关系的稳定性也造成极大冲击,以致《民法典》调整的法律关系中,有关合同、知识产权、侵权行为的认定及责任分配、人格权益保护,甚至在婚姻家庭领域等的诸多民事法律关系,因人工智能的介入,均需要给予特殊关注。

在合同法领域,人工智能的参与对合同关系的成立与履行均有重要影响。我国传统民法调整的合同关系以“当事人”之间合意的达成为基础,而在运用人工智能参与的交易中,交易过程有时会体现为由人工智能绕开人类的意思表示或者替代人类作出相关决策,有学者甚至将此归结为“契约的死亡”。[7]如前所述,虽然《民法典》已经对人工智能参与下通过网络平台购物时要约与承诺的判断(4)《民法典》第491条第2款:当事人一方通过互联网等信息网络发布的商品或者服务信息符合要约条件的,对方选择该商品或者服务并提交订单成功时合同成立,但是当事人另有约定的除外。、网购商品的交付(5)《民法典》第512条:通过互联网等信息网络订立的电子合同的标的为交付商品并采用快递物流方式交付的,收货人的签收时间为交付时间。电子合同的标的为提供服务的,生成的电子凭证或者实物凭证中载明的时间为提供服务时间;前述凭证没有载明时间或者载明时间与实际提供服务时间不一致的,以实际提供服务的时间为准。等问题作出原则性回应,但合同以当事人的意思表示为构成要素,在人工智能介入的电子合同中,如何在电子合同订立和履行过程中确保相关技术的安全性?对因算法形成的错误,如何判断该错误是当事人的意思表示错误还是操作失误?对于这些问题,《民法典》规定阙如。尤其是对随着区块链的发展而勃兴的智能合约,这种合约均采取数字代码的形式呈现内容,在双方对于智能合约的意思存在理解不一致的情况下,如何解释这些代码承载的意思?这些问题均待进一步研究。

在知识产权领域,随着人工智能的介入,有待进一步研究的问题就更多。例如,谷歌机器人Magenta独立进行艺术和音乐创作、人工智能“小冰”创作的诗集可以被制作为有音像制品进行出售等消息,又引发人们对人工智能的创作物是否可以被纳入知识产权客体范畴,以及人工智能创作物的著作权应当归谁所有的争论。[8]此外,人工智能在运作过程中收集、储存大量他人已享有著作权的信息是否属于非法复制他人作品从而构成对他人著作权的侵害?人工智能通过“自我迭代学习”而产生的智力成果是否可以作为知识产权的客体,如果可以,其权利归属于程序的设计者,人工智能的开发者,对智力成果的创作进行过必要安排的安排者,抑或是由这些主体共有?人工智能利用获取的他人享有著作权的知识和信息创作出的作品是否构成剽窃?在人工智能的行为构成侵害他人知识产权的情形下,如何确定责任承担者等问题。《民法典》只是在总则编第123条对知识产权作了定义性规定,涉人工智能的知识产权法律关系的具体处置规范有待单行法以及司法实践予以应对。

在侵权法领域,我国《民法典》目前有关产品责任、用人单位责任等的侵权法律制度适用于人工智能侵权领域也面临困境。例如,特斯拉在无人驾驶状态发生交通事故致人死亡的事件,不仅降低了公众对无人驾驶技术的信任度,同时也让司法者产生这种情形下是否可以适用既有的以人类驾驶员为中心的法律规则的疑问,如自动驾驶汽车能否成为法律主体进而自负其责?使用人没有驾驶行为是否还需承担责任?自动驾驶系统的缺陷怎么认定?如何追究生产者一方的产品责任?[9]当人工智能由于偶然性原因造成侵害后果时,无论是使用者自己被侵害还是使用者以外的主体被侵害,无论是人工智能侵害人工智能,还是人工智能侵害人类的人身或者财产,抑或是人类侵害人工智能,如何确定具体可资适用的归责原则?如何证明侵权行为与损害后果之间的因果关系?是否有相应的免责事由?在可能涉及的人工智能的程序设计者、开发者、运营者,机器的组装者、调试者、操作者、所有者等这些本就连身份都难以确定的主体中,鉴于人工智能的高度专业性和某些情形下的高度自主性,如何确定责任承担者?是否可能存在共同侵权?如果数人均应当承担责任,是否应当承担连带责任?这些问题目前在无人驾驶领域、互联网医疗领域已经亟待达成共识,可以预见的是,其他智能设备的广泛应用也会产生同样的问题,必须尽快找到可以兼顾侵权法所追求的公平、正义和效率,从而在充分保护各方主体利益的前提下找到人工智能技术继续发展的解决方案。

在隐私权等人格权权益以及个人信息等的保护问题上,也因为人工智能的介入而变得困难重重。例如,人工智能技术的信息搜集和处理能力在给人类生活带来便捷的同时,也使得侵害隐私权和个人信息变得相当容易(6)有学者早就描述了这一现象:“亚马逊监视着我们的购物习惯,谷歌监视着我们的网页浏览习惯,而微博似乎什么都知道,不仅窃听到了我们心中的‘TA’,还有我们的社交关系网。”可参阅[英]维克托·迈尔-舍恩伯格,肯尼斯·库克耶:《大数据时代:生活、工作与思维的大变革》,盛杨燕,周涛译,浙江人民出版社2013年版,第193页。,也就增加了对相关权益予以保护的难度;人工智能人脸识别技术等在各领域的应用,也使得肖像权等人格权益的保护面临新的挑战等。如前所述,虽然《民法典》对相关问题予以高度重视,除了总则编作出原则性规定外,在人格权编设专章规定了“隐私权和个人信息保护”,尤其是对于基因编辑、“深度伪造”技术等带来的社会问题均予以明确回应;同时对数据和虚拟财产的保护也作了原则性规定。但是,在适用相关条文时,如何为人工智能的搜集信息行为设定必要的前提和界限(7)吴汉东教授早就提出未来应加强网络、电讯隐私保护的专门立法。隐私权的保护应以民法保护为基础,明确隐私权的权利属性、权能内容、保护方式等;同时以专门法律保护为补充,规定特定领域的特定主体隐私保护的原则和办法。参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》(西北政法大学学报)2017年第5期,第133页。,从而在法律层面保证人工智能合法搜集个人信息、保护隐私权?如何在保护被搜集人的个人信息的前提下,保护数据开发者等民事主体的数据财产权等,这些问题均需要可资适用的具体规则。

二、人工智能的发展现状与法律规制的社会基础

从国际社会层面来看,人工智能技术的广泛应用虽然有助于提高生产力,但为提高生产力,次生的风险就容易被忽视。[10]各国和地区普遍意识到人工智能技术是今后科技创新、国际竞争的主要领域之一,均在为占据未来科技发展高地而进行战略部署。例如,美国于2016年10月就连续发布《为人工智能的未来做好准备》和《国家人工智能研究和发展战略规划》两份报告,为国家资助的人工智能研究和发展确定了七项国家长期战略;日本在智能机器人研究领域居全球领先地位,在2016年1月就提出“社会5.0”(第5个科学与技术基础五年计划)战略,将人工智能作为实现超智能社会的核心,之后又于2017年制定了人工智能产业化路线图,计划分三个阶段推进利用人工智能技术;英国在2013年即宣布要力争成为第四次工业革命的全球领导者,并于2017年1月宣布了“现代工业战略”,增加47亿英镑的研发资金用在人工智能、“智能”能源技术、机器人技术和5G无线等领域;德国政府则是在其“工业4.0”中对人工智能发展作出全面布局,确定了重点研究方向;2013—2018年,欧盟集中发展人工智能技术与战略布局,将人工智能确定为优先发展项目,欧盟委员会在2018年4月提交了《欧洲人工智能》报告后,又于2018年12月与其成员国发布主题为“人工智能欧洲造”的《人工智能协调计划》。[11]且不说在军事领域,面对全球人工智能军事化的发展浪潮,人工智能在军事方面的应用在更广范围、更深层次上不断拓展,各国军政领导人、人工智能专家、国际关系学者已经共同关注如何实现人工智能领域的安全治理、有效应对风险挑战[12],即便在民用领域,随着人工智能技术进入产业化发展阶段,在各国和地区大力推动人工智能的社会应用的同时,人工智能也日渐融入社会安全网络,从而影响社会和经济权利。

从我国人工智能的发展情况来看,电子商务、智能家居、自动驾驶、智慧医疗等,我国经济社会的很多领域和行业都选择了人工智能,人工智能产业在我国也呈现出蓬勃发展的态势。人工智能在推动我国经济社会发展、促进国家治理体系和治理能力现代化,满足人民日益增长的美好生活需要等方面,发挥着越来越重要的作用。

从人类社会法律发展的历史来看,科学技术的发展进步往往对传统法律规范体系的基础认知和逻辑、具体规则架构乃至新的制度建构产生重要的影响。[13]以规制工业化社会为目的建立起来的现行法律体系,日益显示出对人工智能发展的无所适从。例如,当人工智能能够独立创作出柔美的乐曲时,让司法者顿感保护著作权的知识产权规则杯水车薪;随着自动驾驶日益广泛地被使用,以及人工智能自主决策能力的日益增强,传统交通致害侵权法律关系以驾驶人为中心予以调整的做法便不足用,立法者不仅要考虑所有与致害有关的利益相关者,甚至车辆、道路这些非主体因素也得纳入其考量范围,这些将直接导致传统侵权法体系面临挑战。

在人工智能的法律规制方面,各国和地区已经着手作出努力,且不少国家和地区人工智能发展战略与政策推动的节奏和步调基本一致。例如,美国于2016年5月成立“人工智能和机器学习委员会”,负责协调全美各界在人工智能领域的行动,探讨制定人工智能相关政策和法律,近几年美国国会接连颁布了《2019年深度伪造报告法案》《2020年未来人工智能法案》[14]《2020年国家人工智能计划法案》(8)National Artificial Intelligence Initiative Act of 2020.等,这些法案明确了美国人工智能技术的优先适用领域,提出了提升人工智能健康发展的诸多措施。日本于2016年设立“人工智能战略会议”进行国家层面的综合管理。德国联邦参议院于2017年为解决自动驾驶汽车致害问题通过了《道路交通法第八修正案》。2013—2018年,欧盟及其主要成员国日益注重人工智能的技术伦理和各种风险,提出人工智能立法动议,发布了《欧洲议会机器人民法规则》(9)European Civil Law Rules on Robotics.等一系列政策文件,其中对从事医疗服务和护理的人工智能予以特别规制。值得关注的还有,欧盟于2022年还发布了《数据法案(草案)》。

我国自2013年就着手发布有关人工智能发展的整体性政策文件与治理规范准则。2017年国务院发布了《新一代人工智能发展规划》,旨在为人工智能的发展营造政策环境。该规划已经提出警示,“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响”。该规划已经将建设人工智能法律法规、伦理规范和政策体系视为在发展人工智能技术的过程中所必须同步完成的工作,自此我国开始从对偏技术性和产业化的关注,转为对关键领域高新技术发展中所伴生的伦理风险和社会影响的关注,强调注重人工智能的社会实用性,从组织推动层面全方位、多维度地进行顶层设计,以期实现人工智能与社会进步的协调融合发展,将人工智能的风险规制纳入法治化轨道。(10)可参阅清华大学公共管理学院政府文献中心:《国内外人工智能政策分析报告2018》;清华大学科技政策研究中心:《中国人工智能发展报告(2018)》。

2018年,我国成立了新一代人工智能发展规划推进办公室与新一代人工智能战略协调专家委员会。2019年6月,我国发布了《新一代人工智能治理原则——发展负责任的人工智能》,确立了人工智能社会治理的整体框架与基本原则。(11)该原则提出了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项具有相当伦理性的原则。2022年8月,科技部等六部门联合印发了《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》。新近国家互联网信息办公室通过的《生成式人工智能服务管理暂行办法》于2023年8月15日起施行。

在这些政策文件与治理规范准则之外,我国颁行的《民法典》《网络安全法》《数据安全法》《个人信息保护法》等法律也确立了不少因应人工智能技术发展的规制规范,且各部委也有针对性地采取过多次专项行动(12)例如,为净化网络环境、打击利用互联网的侵权或者犯罪行为,多部委联合开展的“剑网行动”“净网行动”“固边行动”“清源行动”“秋风行动”“护苗行动”等。,但因人工智能的产业化应用导致的社会乱象和损害事件仍旧频发。综合近年来的相关规范来看,更多的还是关注人工智能技术可以被应用的领域、方式,以及突破禁令应当承担的责任,且具体规则多为综述性的原则,尚缺乏系统、具体的对民事法律关系的规制。显然,传统的法律对于技术的规制往往滞后于社会实践,但人工智能技术的迅速应用和影响之大已经远超人类想象,如果仍遵循传统的立法程式,显然已经无法满足社会治理的需求。有鉴于既有法律规制模式和体系面临挑战的背景,如何应对人工智能的快速发展和应用,迫切需要法学研究予以理论回应。

三、人工智能的法律定位:作为法律关系客体予以规制

进行法律适用需要厘定法律关系各要素,但在对涉及人工智能民事法律关系的各要素进行判断的过程中,首先就面临着对人工智能的法律定位问题,即是否可以赋予人工智能独立的法律人格,使其成为民事主体的问题。

人工智能技术涉及诸多领域,一般认为人工智能作为一门新兴的技术科学,包括对模拟、扩展人的智能的理论、技术及应用进行研发。[15]人工智能的复杂性使得人们对其概念仍存在不同认识,或者被认为是一种显示智能行为的系统[16];或者被认为是具有智能的机器[17];还常被认为是一种理论、方法及技术。[18]我国发布的《人工智能标准化白皮书(2018版)》给出的定义是:人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及其应用系统。[1]显然这个定义具有相当综合性。

2010年11月,日本授予宠物机器人“帕罗”(Paro)以户籍,其发明人在户口簿上的身份是父亲;2017年10月,沙特阿拉伯宣布授予智能机器人“索菲亚”公民身份[19];以及2017年欧洲议会法律事务委员会建议可以赋予最精密的自主机器人拥有“电子人”的法律地位,使其承担相应责任[20],这些事件不断引发人们对机器人到底属于客体机器还是属于主体人这一问题的思考。从这个意义上来看,人工智能的法律规制,应当以对人工智能进行法律定位为逻辑起点。

(一)客体说与主体说之争

对于是否应当赋予人工智能法律主体资格这一问题,目前的观点主要有否定说、肯定说以及折中说。否定说与肯定说观点的支撑理由主要在三个方面存在分歧:

其一,从开发人工智能的目的出发,否定说将人工智能视为为人类服务的工具,是“服务于人”的客体,认为即使人工智能在某些领域已经具有超越人类的表现,但它依旧是为人类所支配的物。[21]人工智能只是人类为自身之目的而研发的高级工具,它无法被赋予“权利义务统一性”,难以改变二者之间的主客体关系。[22]肯定说则认为,人工智能是“代理人”,人工智能的所有人、使用人是被代理人,被代理人对人工智能进行控制的权利[23],赋予人工智能法律主体资格可以更好地保护人类利益,而且是以最小的成本获得最大利益的保护。[24]

其二,从民事主体的范围来看,我国《民法典》意义上的人,既包括自然人,也包括法人以及非法人组织。其中,自然人是指基于出生而取得民事主体资格且以生命为存在特征的人,法人和非法人组织则是依法享有民事权利和承担民事义务的组织,是社会组织体在法律上的人格化。否定说在这个意义上会认为,人工智能既不以生命存在为特征,又不是自然人集合体的法人或者非法人组织,所以很难赋予其合适的法律地位。肯定说认为,法律主体的范围在人类社会并非一成不变的,在法律发展历史上,奴隶、妇女、儿童、外国人、法人等组织体,最初均不可以作为民事主体,而现在这些均已经被赋予民事主体资格了,故而人工智能作为自然人、法人和非法人组织之外的第四民事主体未必就没有可能。

其三,从认知能力和自主意识的理性层面来看,肯定说认为人工智能在神经网络、区块链等技术的支持下,通过深度学习能够获得自主意识,在理性层面能够获得意志自由,尤其是类人型人工智能体拥有的认知与控制能力已经高于被赋予法律主体资格的组织体,而更接近自然人。既然组织体都可以被赋予法律主体资格,人工智能体当然存在被赋予法律主体资格的空间。[25]在刑法领域,也有论者提出,发展到一定阶段的智能机器人可能超越程序的设计和编制范围,按照自主的意识和意志实施行为,因而完全可能成为法律主体。[26]否定说则认为,即使人工智能体具有较高的认知能力,其也不能内生自发地生成意识,且缺乏对痛苦、幸福等情绪的感知能力,不具有独立意志和特殊的“人生”经验,也无法对自身行为承担责任,故而主张人工智能无法拥有法律人格。[27]

在以上的否定说和肯定说之外,折中说则提出,人工智能已经并且正在经历着不同的发展层次,不加区分简单地把“类人”甚至“超人”的人工智能仍然视为一种可供人类支配的工具的看法是不够审慎的。为此,有学者主张赋予人工智能有限法律人格,因为人类创造人工智能的目的就是服务自然人的,因而不能赋予人工智能享有和自然人完全相同的权利,但可在赋予人工智能法律主体地位的同时,以平衡科技创新和正当规制的关系为目的,根据人工智能的特点制定特殊的标准,在一定程度上限制人工智能的权利和义务范围。[28]也有学者主张可以如欧盟法律事务委员会向欧盟委员会提出的动议一样,将人工智能设置为具有类人格的“电子人”,赋予其“特定的权利和义务”,甚至可以为人工智能开设进行纳税、缴费、领取养老金的资金账号。[29]还有论者认为,人工智能体应当是介于人与物之间的特殊主体,并提出将人工智能体的智能化程度比拟自然人进行判定。[30]

(二)确定人工智能法律地位的考量因素检视

如果赋予人工智能法律主体地位,无论是权利的享有、义务的履行抑或责任的承担,当然均归于人工智能;如果不赋予人工智能法律主体地位,人工智能就仍然是权利的客体,相关行为的法律后果,无论是权利的享有、义务的履行抑或责任的承担,自然应归属于人工智能的设计者或控制者。这也正是将对人工智能进行法律定位作为规制人工智能逻辑起点的原因。然而,是否赋予人工智能法律主体地位,前述折中说的观点作为高度抽象的结果,无论是确定“有限法律人格”之“有限”的标准,抑或是明晰“电子人”与传统法律人格之间的具体差异,都停留在创立新的概念和理念上,并未真正解决现实的法律问题,本文认为暂不足取。从前述肯定论与否定论观点的支撑理由观察,应该说各自的考量均存在可资赞同的因素,兹作简要分析。

就人类开发人工智能的初始目的来看,当然是无意将人工智能作为法律关系中的主体的,但如何解释和规制当下人工智能已经在多个领域可以代替人类处理事务的情形?尤其是如阿尔法狗(Alpha Go)一样的人工智能确实已经具备了一定的自主学习能力,可以自主进行某些行为的情形,以及一些类人型人工智能体可以模拟人脑部分功能,辅助甚至代替人脑处理事务,其拥有的自主意识、认知与控制能力等已经接近自然人的情形,均有待法律规制,应当考虑如何将其纳入法律的调整范围。这恐怕已不是简单地认为人工智能本质上仍然是由人脑编程,且其行为仍然受其开发者设计的算法约束,尚不具备人类所具有的自主思考的意识和能力可以搪塞的。而且,在2017年国务院印发的《新一代人工智能发展规划》中,就已经明确指出人工智能的发展已呈现出“深度学习、跨界融合、人机协同、群智开放、自主操控等新特征”[31]。然而,如果赋予人工智能法律主体资格,则人工智能就应当承担其所实施行为的法律后果,但目前是否亟须扩大法律主体范围并且已经具备了时机?

从民事主体的发展历程可以看出,随着社会观念的变化以及生产力水平的提高,民事主体的范围的确在逐步扩大。在人类社会的早期阶段,并非所有自然人都可以成为民事主体,如妇女、奴隶等都曾经作为权利客体存在过。通过不同世纪立法者的努力,民事主体日益呈现多元化态势,不仅所有自然人都被赋予民事主体资格,而且将与自然人有着诸多差别的法人也纳入民事主体范畴。我国自《民法》总则开始,将非法人组织也赋予了民事主体资格。将组织体赋予民事主体资格,其中很重要的一个原因是因应商事交易的需要,分散投资风险、降低交易成本、促进交易快速进行。从《民法典》总则编规定的民事主体类型来看,人工智能显然既不是自然人,也不可能是法人或非法人组织,难以糅合于现有民事主体系统。如果突破现有民事主体系统,赋予人工智能民事主体资格,可以实现当下既要进一步发展人工智能技术,同时很好防控人工智能带来的风险,何乐而不为?可问题的关键在于,目前人工智能的发展是否已经足以颠覆我们既有的民事主体观念和系统,亟须赋予其民事主体地位?

实际上,在20世纪60年代,对于人工智能是否可以赶超甚至取代人类的问题,就有支持派和反对派两种不同的观点。[32]进入21世纪后,理论上逐渐认同将人工智能分为专用人工智能、通用人工智能、超级人工智能三个类别:专用人工智能也被称为弱人工智能,目前正处于高速发展阶段,是指通过感知以及记忆存储来实现特定领域或者功能为主的人工智能;通用人工智能又被称为强人工智能,是接下来人工智能的发展方向,是指基于认知学习与决策执行的能力可实现多领域的综合智能;超级人工智能目前暂存在于人类想象,是指可能在行动能力、思维能力和创造能力等方面全方位超越人类的人工智能,甚至有学者还描摹了未来强人工智能向人类夺权的场景。[33]黑格尔有言:“法的基地一般来说是精神的东西,它的确定和出发点是意志,意志是自由的,所以自由就构成法的实体和规定性。”[34]有研究者解释认为人工智能的意志可以通过三种途径产生:被编程而产生、从复杂性中出现、被习得而学会。[35]由此,随着未来科技的发展,如果人工智能的思维能力进一步增强,社会进入强人工智能时代,人工智能在意志方面真的具备与人类相当甚至超越人类的意识,人工智能以第四民事主体的法律地位出现并非没有可能。

然而,就以当下的人工智能技术来看,目前存在的人工智能远未达到强人工智能的程度。(13)2017年,美国国会议员玛利亚·坎特维尔(Maria Cantwell)描述的强人工智能应当满足五个特征:其一,所有可在多变且不可控的情况下作业,无须过多人工监管,或可自学以往经验、改善表现的人工系统;其二,可像人类一样思考的系统;其三,可像人类一般行动的系统;其四,如机器学习等模拟认知任务的技术;其五,理智行事的系统。可参阅Dave Gershgorn:《美国国会计划重新定义人工智能》,常笑译,见https://www.weiyangx.com/271094.html,2021年7月3日访问。如果在今后较长时间内,我们可以在既有的法律制度和规则体系有效解决人工智能所引发的难题,在对法律作根本转型[36]之前,当然就要谨慎对待突破民事主体的范围。更何况我们创造人工智能的根本目的是为人类服务,我们不能轻易赋予人工智能法律主体资格从而如同保护人类一样保护人工智能的自由意志。就人与物的关系问题,黑格尔曾经有言,“无需从我的意志中获得它的规定及内核,唯有人拥有意志及灵魂,并对物支配,体现目的与价值”[34]60。既然是我们人类为人工智能立法,对于人工智能的应用和发展,当然应当以人类期望确立的秩序为基础,必须将人工智能的发展建立在人类可控风险的范围内。以人工智能在司法领域的应用为例,有学者提出,人工智能法律系统的开发主要实现三个方面的功能:一是辅助司法审判,以便让司法人员更专注于解决复杂疑难案件;二是促进司法公正,人类法官可以将自己的判决与人工智能的判决对照;三是辅助法学教育和法律培训。[37]从这三个功能来看,至少在当下以及今后较长一段时间,人工智能还是服务于人类的工具,故而人类的立法暂无须赋予人工智能法律主体地位。

(三)应当确立将人工智能作为法律关系客体的规制思路

在社会运行系统中越来越广泛且日益深入地应用人工智能的背景下,明确人工智能的法律地位,是规制涉及人工智能法律关系的前提。未来人工智能发展到怎样的程度尚不确定,预测的强人工智能状态是否会出现、何时能到来,彼时人工智能与人类的关系将如何,这些均未可知。但从当下以及今后较长一段时间,意在用法律规制人工智能时,当然应当立足于人类创造人工智能的目的,不能把解决人工智能引发的难题简单寄希望于赋予人工智能法律主体资格这一可能触及人类伦理底线,且可能伤害人类、与人类创造人工智能的目的背道而驰的路径。从这个意义来看,将人工智能赋予法律主体资格予以规制的道路不可行。在《民法典》视野下,即便人类有朝一日真的进入强人工智能时代,人工智能在智识方面真的全面超越人类,而人类还能掌握立法控制权,还可以采取法律规制手段防范人工智能带来的风险的情形下,即便立法赋予人工智能法律主体地位,想必也是基于实现保护人类为宗旨而与人工智能和谐共生的结果。

在技术迅速更新的时代,法律自然面临着需要应对和承受技术革新带来的挑战。那么,在《民法典》实施过程中,如何解读适用相关规则平衡好人工智能的开发者、制造者、销售者、操作者、监督者等的权利、义务与责任,以在保障科技创新和技术进步,实现人工智能战略目标的同时,还可以有效防范人工智能带来的风险,这是必须研究的问题。人工智能作为人类的创造物,人类有权决定创造出怎样的人工智能。不同类型的人工智能可以根据其创制过程、目的和功能等归入不同的权利客体。例如,人工智能赖以运行的数据和算法等资源,初始可能由研发公司、研发人员享有物权或者知识产权,当该人工智能被销售后,买受人依合同享有占有、使用该人工智能等权利。即便是具有一定“类人”属性的强人工智能,也可以作为特殊的客体予以法律规制。

当然,从立法层面而言,规则的相当确定性可以使人们有可能事先据此安排个人事务,所以相应立法规则应当尽可能具体。但是,如果立足于将人工智能作为法律关系的客体,以法律规制人工智能,鉴于人工智能发展的不确定性,在立法层面上必须为人工智能的发展预留一定的空间,以保障立法兼具稳定性和灵活性。(14)正如有学者指出:“《民法典》作为基本法,若在理论未成熟时对这些新问题仓促立法,通过法典固定规则,不仅无助于鼓励社会创新,反而会扼杀生机,故它采取了面向长久未来、预留规范空间的立法技术。”见谢鸿飞:《后〈民法典〉时代的中国民法学:问题与方法》,载《社会科学研究》2021年第1期,第14页。《民法典》的相关规则体现出的原则性应当说与此思路直接相关。

四、建构科学的人工智能法律规制体系

我国近年来一直积极探索和推进人工智能的法律规制建设,但如前所述,在《民法典》通过之前,本就寥寥的针对人工智能的限制性或者禁止性条款多散见在多部政策性文件中。习近平总书记在党的十九大报告中强调要“科学立法”,而立法体系的确立问题是科学立法的基础性问题,所以确立科学的规制人工智能的法律体系也是法律规制人工智能的基础性问题。从法制层面来看,政策性文件的强制性程度以及其内容易频繁变动的特点,容易导致制度缺乏可预期性,所以,如果仅仅采取通过颁发政策性文件的方式规制人工智能,当然不可能确立具有体系化、规范化的人工智能法律体系。有学者针对“算法”的规制,提出建构由柔性规范、中性规范和刚性规范组成的多层次体系。[38]这种思路值得关注。人工智能的法律规制也需要确立多层次规制体系。整合具有相当规模的民商事单行法及相关司法解释是《民法典》编纂的核心目标之一,而《民法典》的颁行也为建构科学的人工智能法律规制体系奠定了重要的民事基本法基础。

法律规制体系的内核是法律渊源体系。在我国法学研究中,一般将法律的渊源定位为法律的各种表现形式或者存在形式。有学者进一步分析,认为法律渊源本质是多元规范的集合体,是司法裁判从中发现或者寻找待决案件所需要的裁判规范或准则之依据。[39]就民法而言,横向考察可以发现,域外民法法源体系均不尽相同,典型的范例可以概括为法律、习惯和法理(15)如我国台湾地区“民法”第1条的规定。,法律、习惯法和法院得依其作为立法者所提出的裁判规则(16)如《瑞士民法典》第1条第1—2款的规定。,法律、惯例和法的基本原则(17)如《西班牙民法典》第1条第1款的规定。,立法及协议、交易习惯、类推产生的规则、民事立法的一般原则和精神及善意、合理、公正的要求(18)如《俄罗斯民法典》第6条的规定。,法律、法规、习惯、类推产生的规则和国家法律制度的基本原则(19)如《意大利民法典》“法律之一般规定”中第1条以及第12条第2款的规定。这样五种模式。我国《民法典》总则编第10条的规定则将民法渊源确定为“法律+习惯”模式。(20)《民法典》总则编第10条规定:“处理民事纠纷、应当依照法律;法律没有规定的,可以适用习惯,但是不得违背公序良俗。”

对于我国《民法典》总则编第10条所规定的“法律”应采用广义抑或狭义理解的问题,虽然有观点认为本条中的“法律”仅指全国人大及全国人大常委会制定的法律,国务院行政法规等其他制定法都不能成为民法法源,即应作狭义理解[40],但目前学界达成的基本共识是应作广义理解,这一理解的结果就是认为我国的民法渊源包括宪法(21)也有观点认为,宪法不属于民法法源,不能直接成为民事案件的裁判依据。可参阅陈甦:《民法总则评注》(上册),法律出版社2017年版,第73页。、民法典、商事单行法、行政法规、地方性规范或者自治条例和单行条例、相关司法解释、指导性案例、符合公序良俗原则的民商事习惯。[41]目前虽然不能确定较为广义的解释适合于所有领域,但在人工智能领域,较为广义的解释正好契合规制人工智能发展的不确定性的需要。

在规制原则和具体规则的设计层面,民法基本原则可作为人工智能法律规制的上位原则。同时,《民法典》涉及人工智能的具有相当开放性的法律规则,使得人工智能的法律规制在民事基本法层面获得了法律适用的基础和法律解释的空间,也为之后特别法律规范的制定提供了基本法依据。在此基础上,可以根据人工智能的应用领域,结合人工智能的发展阶段,对于某些存在较大风险甚至已经发生致害结果的人工智能先行制定特别法,或者针对人工智能在特定行业引发的特定问题进行专门规制。以个人信息保护为例,《民法典》明确了保护个人信息的原则,警示在人工智能研发和应用时应当注意个人信息保护,结合单行法律《网络安全法》以及全国信息安全标准化技术委员会发布的《信息安全技术个人信息安全规范》等,就可以构成网络信息安全保护的一定范围的法律规制体系。基于现实的考虑,目前在立法位阶层面,可以是单行法律,也可以是行政法规,甚至还可以是地方性立法和部门规章。当然,位阶较低的立法,其适用和影响范围有限,但在解决现实问题的同时也可为未来针对人工智能的统一立法提供经验积累和规范基础。对于专门的人工智能法的制定,有学者已经建议该专门立法应以人工智能科技作为特殊规范对象,并将其作为科技法的特别法而定位。[42]

在规则适用层面,司法案例可作为人工智能法律规制的具体解释标准。在人工智能引发的纠纷领域,加快指导案例、参考案例和典型案例制度的建设。为柔化成文法天然的僵硬和刻板,也为克服成文法一直面临着法的安定性和进化性之间的矛盾,在现代法上不少大陆法系国家和地区日益采取务实的态度,主要表现在“司法实务上也愈来愈倚重判例法”[43]。例如,在德国这样典型的大陆法系国家,虽然制定了成文法典,但德国的习惯法从未停止过其发展,它主要通过德国各个法院的实践,特别是最高法院的长期判例而形成。[44]我国自2011年以来建立案例指导制度,且最高人民法院推行的专题性的典型案例、各地高级人民法院发布的参考案例(22)这种参考性案例旨在实现高级人民法院对下级人民法院工作的指导,相对于指导性案例,这种案例的约束力较弱。可见最高人民法院《关于规范上下级人民法院审判业务关系的若干意见》第9条:“高级人民法院通过审理案件、制定审判业务文件、发布参考性案例、召开审判业务会议、组织法官培训等形式,对辖区内各级人民法院和专门人民法院的审判业务工作进行指导。”等也已成规模。无论是参考案例、典型案例还是指导案例制度,均已被实践证明是行之有效的。既然如此,在处理人工智能引发的纠纷情形,虽然人工智能发展的不确定性使得暂不宜动辄通过立法确定统一的适用标准,那不妨通过我国的指导案例、典型案例、参考案例制度,在一定时间和地域范围内形成稳定或者惯常的做法,同时,也可以此作为随人工智能技术的发展在时机成熟时创制规则和制定专门立法的基础。

猜你喜欢

民法典规制人工智能
无信不立 无诚不久——民法典中关于合同的那些规定
民法典诞生
主动退市规制的德国经验与启示
民法典来了
中国民法典,诞生!
2019:人工智能
人工智能与就业
保护与规制:关于文学的刑法
数读人工智能
论《反不正当竞争法》的规制范畴