人工智能法律规制的价值取向与逻辑前提
——在替代人类与增强人类之间
2019-03-28于海防
●于海防
目前,人工智能法律研究的核心在于如何科学、合理地规制人工智能。学界现阶段的研究多针对具体问题,但研究难以协同,观点纷纭,动辄否定传统法。〔1〕现有的相关研究多针对人工智能在劳动、交通、电子商务、医疗、金融、武器、生物与机器人等领域的具体问题,一般性的基础研究相对较少,且多围绕算法、代码与法律的关系展开。各方在观点、研究工具、分析逻辑等方面相去甚远,远未达成共识。有些研究以猜测代替推导,以想象超越技术发展,甚至将科幻作品作为支撑论点的论据,进而激进地否定传统法,其中又以基于强人工智能或人工智能“意识”论证人工智能具有主体资格的研究为典型。而且,人工智能依托于计算机,但现有的人工智能法律研究却与之前有关计算机、网络、电子商务的法律研究差别极大。〔2〕人工智能法律问题与计算机、网络、电子商务法律问题存在重合,而且一些问题的形成逻辑差别不大,但许多人工智能法律研究无视已经成型的计算机、网络、电子商务法律规制,另起炉灶,重设规制,其中的典型是意思表示、电子代理与电子合同等问题。在相当程度上,人工智能研究的纷乱现状源于其法律规制的基点未得到确立,而这又可归因于人工智能基础法律问题研究的不足。〔3〕人工智能法律问题复杂性的根源在于,人工智能的目标是替代人类,其背离了以人为中心的传统法律理念与规范逻辑。对人工智能基础问题的回答决定了人工智能法律规制的基点或者说出发点。基础问题研究不足、基点未得到确定,上层具体问题的研究自然会存在纷乱与不足,传统法频频被否定便在情理之中。从技术背景来看,人工智能领域内部仍存巨大分歧,至今尚未形成统一的理论与技术范式,甚至连人工智能概念的内涵与外延都是不确定的,〔4〕对人工智能进行准确定义是非常困难的,我国人工智能科学家蔡自兴教授在《人工智能及其应用》(清华大学出版社2016年版)中对人工智能下了4种定义,还列举了其他科学家所提出的13种定义。符号主义、联结主义与行为主义三大人工智能技术范式虽均以创造“智能”为目标,但分别立基于不同的甚至是对立的认知科学与哲学基础,各有其假设前提,采取不同的技术进路。本文基于人工智能的核心理念与技术共性展开论述,即便不对人工智能进行定义,也不妨碍本文对人工智能基础问题的研究。致使新兴的人工智能法律研究缺乏共认的研究前提,这不利于顺利开展对人工智能基础法律问题的研究。笔者不揣浅陋,在人工智能技术、认知科学、哲学、伦理学、法学等多学科结合的视角下,梳理机器智能两大技术阵营的理念纷争及对法律所生影响,并以此为基础分析人工智能法律问题的根源、症结与解决思路,进而尝试确立人工智能法律规制的两个核心基点,以解决人工智能因去人类化属性而与法律产生的根本性冲突,将人工智能法律规制融入既定法律体系。
一、机器智能技术的理念纷争及对法律的影响
计算机、网络、电子商务与人工智能法律问题的产生均源于数字化计算机器的应用。计算机、网络、电子商务法律问题的产生已有三十余年,相关法律规制基本定型且已融入传统法律体系,人工智能发展六十余年,却于近年才产生法律问题。此外,虽然在技术、领域与应用上存在耦合与重叠,但人工智能法律研究与计算机、网络、电子商务等法律研究却相割裂,国内外均是如此。在笔者看来,这种割裂映射了人工智能与智能增强两大技术阵营在机器智能领域的长久对立。然而,人工智能与智能增强其实具有一定程度上的辩证统一关系,二者在法律问题上也具有这一特点。回溯梳理这两种机器智能技术的发展、分歧及对法律的影响,有助于人工智能法律问题的分析与解决,对于厘清人工智能立法与既定法的关系以避免体系龃龉也具有重要意义。
(一)机器智能框架下人工智能与智能增强的理念对立与统一
虽然哲学家、科学家与大众对人工智能的理解存在系统性差异,〔5〕参见梅剑华:《理解与理论:人工智能基础问题的悲观与乐观》,《自然辩证法通讯》2018年第1期。但可以肯定的是,人工智能是一种机器智能,依存于以计算机为代表的数字化计算机器,而计算机从产生时起便是具有区别于以往任何机器的、可发展的机器智能的。〔6〕参见周永林、潘云鹤:《从智能模拟到智能工程——论人工智能研究范式的转变》,《计算机科学》1999年第7期。计算机从第一代发展到第四代,推动机器智能水平持续提升,计算机、网络、虚拟现实、大数据、云计算、物联网、区块链、人工智能等数字计算技术可以在机器智能的宏观维度上得到统一。〔7〕本文在广义上使用“机器智能”的概念,指的是包括计算机、人工智能在内的数字化计算机器所拥有的区别于其他机器的计算能力、机器能力。计算机器不能通过图灵测试只是说明其达不到人类的“智能”水平,而非不具有机器智能。计算机器的根本能力在于数字化自动计算,不论是计算机简单的自动计算,还是人工智能复杂的自动计算,均是对任务进行的数字化计算,本质实无差异,均是机器智能的体现。机器智能具有多样性、发展性,智能程度也有强弱之分,目前的人工智能拥有的是弱智能,通常的计算机拥有的是极弱智能。各式数字化计算机器、技术的发展史就是机器智能的发展史,反之亦然。拥有机器智能的计算机器的出现改变了自工业革命以来的人机关系,并使人类与计算机器之间的关系成为人机关系的核心。〔8〕在计算机出现后,无法再简单地以工具论、奴役论的思想理解人类与机器的关系,人与机器之间出现了依赖、渗透、嵌入等之前未曾有的复杂关系。(参见于雪、王前:《人机关系:基于中国文化的机体哲学分析》,《科学技术哲学研究》2017年第1期。)随着计算技术的发展,人机关系成为计算机科学、控制科学、机械科学、工程学、哲学与伦理学等共同的研究对象。人机关系因计算技术的进步、机器智能的提升而不断发展、变化,并向人际关系、社会关系传递,迫使法律不断作出调整,在此过程中产生的法律问题可以统称为机器智能法律问题。机器智能法律问题的实质是数字化时代的人机关系在法律上的投射,发轫于计算机,兴盛于网络。近年来,机器智能因人工智能技术的发展而进一步提升,对人机关系、人际关系、社会关系以及法律的影响更加激烈,所形成的人工智能法律问题系机器智能法律问题的进一步发展。需要注意的是,在机器智能与人机关系上,在整体上始终存在人工智能的“替代人类”与智能增强的“增强人类”的理念对立,这种对立投射于技术、社会与法律,对计算机、网络、电子商务等法律问题与人工智能法律问题的形成与解决具有直接影响,但当前的研究对此少有关注。
1950年,图灵在《计算机器与智能》中分析了基于计算机创造出具有智能的机器(学习机)的可能性,期待“机器能够在所有纯智能领域同人类竞争”。〔9〕[英]A.M.图灵:《计算机器与智能》,《心灵》1950年第10期。转引自[英]玛格丽特•A•博登:《人工智能哲学》,刘西瑞、王汉琦译,上海译文出版社2006年版,第72页。1956年,麦卡锡等科学家在达特茅斯会议上提出了“人工智能”(Artificial Intelligence,以下简称AI)的概念与设想,这是一种后来被称为GOFAI(Good Old Fashioned AI)的采取符号主义范式的“老派AI”,通过使用计算机模拟人类智能创造类人机器智能,〔10〕参见徐英瑾:《心智、语言和机器——维特根斯坦哲学和人工智能科学的对话》,人民出版社2013年版,第14页、第33页。目的是通过提升机器智能使机器能够代替人类从事相关活动,而这同样也是后来被称为NFAI(New Fangled AI)的采取联接主义范式与行为主义范式的“新派AI”的目标。〔11〕至今,GOFAI与NFAI并存,甚至混合集成。在AI内部,对AI是否必须是类人智能有着不同观点,但以人类智能为蓝本实现类人智能更为现实。AI的发展过程便是机器替代人类的过程,〔12〕从劳动的角度来看,马克思指出,“机器的生产率是由它代替人类劳动力的程度来衡量的”。(《马克思恩格斯文集》第5卷,人民出版社2009年版,第449页。)与前两次工业革命以机器替代工人的体力劳动为核心不同,第三次工业革命的核心是以AI替代人类的脑力劳动。(参见贾根良:《第三次工业革命与工业智能化》,《中国社会科学》2016年第6期。)AI的目标始终是达到甚至超越人类智能,发展AI就是为了制造智能化的机器替代人类从事各种活动。虽然有观点认为以往因机器替代人类体力劳动而生成大量其他岗位,在AI上也会如此,但是,AI替代的是人类最引以为傲的脑力劳动,目前难以确定可以由此生成大量其他人类岗位。其间牵涉了诸如主客二分还是主客一体、身心二元还是身心一体、非身认知还是具身认知、唯理论还是经验论、科学主义还是人文主义等复杂问题,长期受到哲学与伦理学的关注。AI从GOFAI发展到NFAI,现今在替代人类上更进一步,甚至开始替代律师、医生等复杂脑力劳动岗位,这导致人机关系发生了重大变化,催生出一系列的伦理与法律难题。
1962年,恩格尔巴特(Douglas C.Engelbart)提出了“智能增强”(Intelligence Augmentation,以下简称IA)的概念与设想。〔13〕恩格尔巴特在1962年的报告《人类智能增强:一个概念性框架》(Augmenting Human Intellect: A Conceptual Framework)中完整表达了“智能增强”的观念。此前,Ashby在1956年提出了“智能放大”,Licklider在1960年提出了“人机共生”。IA不认同AI通过计算机模拟人类智能、替代人类的理念,认为计算机应用于改善和增强人类的智慧、能力,强调以人为本,主张人机交互、人机共存,〔14〕参见[美]约翰•马尔科夫:《人工智能简史》,郭雪译,浙江人民出版社2017年版,第2页。这种理念可以追溯到皮尔士(Peirce)的符号学与实用主义哲学。〔15〕See Joseph Ransdell,The Relevance of Peircean Semiotic to Computational Intelligence Augmentation,3 Semiotics,Evolution,Energy,and Development,5(2002),p.18.由于IA遵循主客二分,以人类为中心,〔16〕参见[美]S.巴恩斯:《社会理论和技术创新在人机界面设计中的融合》,《国外社会科学》2001年第1期。因此受到的哲学、伦理学关注远较AI为少。〔17〕See Peter Skagestad,Thinking with Machines: Intelligence Augmentation,Evolutionary Epistemology,and Semiotic,2 The Journal of Social and Evolutionary Systems 157(1993),p.163.在几十年间,IA连续推动了计算机、操作系统、应用软件、用户界面的进步,提升了人机交互水平,开发了超文本系统(至今仍是网络的根基),推进了阿帕网(因特网的前身)的形成,虚拟现实、智能网络搜索及电子商务的发展也与IA有着密切关系,〔18〕IA技术还包括图像显示、电话会议、资源共享、编程、软件工程、自动化、集体智商、增强现实、网络等用于增强人类能力的技术。“从恩格尔巴特的观念到现今的技术有着明确的因果链条”。〔19〕同前注〔17〕,Peter Skagestad文,第160页。
AI与IA在替代人类与增强人类上的理念对立导致二者具有不同的技术思想与设计进路:AI以机器为中心,更关心机器本身,会淡化甚至排除人的参与;IA以人为中心,更关心人与机器的互动,会保证人的参与和控制。现今的无人驾驶与辅助自动驾驶的设计差异便呈现出这种差别。〔20〕例如,特斯拉发展辅助驾驶系统(IA),谷歌则发展无人驾驶系统(AI)。在前者,人为驾驶员,拥有驾驶决策权。在后者,机器为驾驶员,人基本没有驾驶决策权。在谷歌的无人驾驶汽车中,甚至连供人使用的油门和刹车都没有。AI追求的是可以达到甚至超越人类智能的类人机器智能,可以令机器广泛替代人类。IA追求的是可增强人类甚至与人类协作的机器智能,这不是类人智能,而是人类智能在机器领域的延展。自20世纪60年代起,AI阵营与IA阵营在理念与研发上便是对立的。〔21〕参见李真真、齐昆鹏:《人工智能——“以人为本”的设计和创造》,《科技中国》2018年第3期。然而辩证地看,机器智能技术发展至今,AI与IA既有对立性,也有统一性。在技术上,AI与IA具有一定的共通性,相互促进,〔22〕例如,在IA最为核心的人机交互领域,在交互界面技术从WIMP向Post-WIMP发展的过程中,AI起到了推动作用,而自然用户界面IA技术的进步也推动了AI的发展。“计算机技术的发展正在消解 AI 和 IA 的边界”,〔23〕同前注〔21〕,李真真、齐昆鹏文。各种技术交融集成,有时甚至难以判断某项技术究竟是AI还是IA。〔24〕虽然IBM的AI产品“Watson”应用较为广泛,但是IBM首席执行官Ginni Rometty曾在《华尔街日报》发表文章“The Natural Side of A.I.”指出,“Watson”既不自主,也不能感知,实属IA。不过,IBM却在推广中仍然使用AI的概念。苹果公司的“Siri”、微软公司的“Cortana”经常被例举为AI,“Siri”“Cortana”从软件助手发展成为智能助理,虽使用了自然语言处理等AI技术,但主要还是IA人机交互工具。在自动驾驶、大数据、云计算、物联网与区块链等领域,AI与IA也经常呈现出这种交融的特点。在理念上,AI虽秉持替代人类,但其在替代人类的同时也在增强人类;〔25〕事实上,包括计算机器在内,人类所创造的绝大多数机器都是在增强人类的同时替代人类,在替代人类的同时增强人类。例如,汽车的出现增强了人类的运输能力,但使得人力运输岗位减少;无人驾驶可能会导致人力运输岗位全部消失,但将进一步增强人类的运输能力。再如,目前的AI手术设备替代了部分手术岗位,但这种替代本身便是对人类医生的增强。AI对人类岗位的替代规模与程度可能远超以往,但若AI无法实现意向性,在整体上无法与人类智能相比拟,那么这种替代便会维持在一定限度之内。IA虽秉持增强人类,但其在增强人类的同时也在替代人类。〔26〕例如,计算机与网络技术已令打字员、接线员等职业消失,自动化技术令许多工业岗位消失,电子商务令大量商业环节、岗位消失。AI与IA在理念与技术上的迥异及辩证统一关系对法律问题的形成与发展产生了重要影响。
(二)人工智能法律问题与智能增强法律问题的分离与交融
IA融入了计算机技术的发展,IA法律问题随着计算机、网络、电子商务的发展而逐步显现。大约在20世纪80年代,个人计算机技术的成熟催生出计算机法律问题,网络与电子商务在20世纪90年代的兴起催生出网络与电子商务法律问题,大数据、云计算与区块链等技术在21世纪初的发展也促生出诸多法律问题。这些领域的机器智能均为极弱智能,均奉行增强人类的理念,法律问题的产生逻辑相似,也正是在此意义上这些法律问题可以统归为IA法律问题(即智能增强法律问题),包括意思表示、电子合同、数据、广告、侵权、虚拟财产、金融、知识产品、不正当竞争、医疗、消费者保护、大数据、云计算、区块链、物联网、电子证据、网络管辖与犯罪等各部门法问题。
AI虽然也与计算机技术协同发展,但它的目标、方法、进路与计算机技术不同,并高度融合了哲学、神经科学、心理学、工程学等学科,独立性较强。AI经历了从符号主义范式到联接主义范式、行为主义范式的不断自我否定的发展历程,数次陷入寒冬期。21世纪之前的AI智能水平较低,应用范围较为狭窄,对一般意义上的人际关系、社会关系影响极弱,基本未对法律产生影响。在进入21世纪后,随着网络、大数据、云计算等技术的成熟,AI获得了新的驱动力,各技术范式得以集成、混合,进一步推升机器智能。尤其是在2012年之后,AI类人智能水平提升迅速,甚至在人类传统智能优势领域多次击败了人类智能,并向各领域渗透,AI开始替代人类岗位,AI法律问题由此而生。目前AI法律问题涉及主体资格、意思表示、电子合同、数据、广告、侵权、金融、知识产品、不正当竞争、医疗、消费者保护、大数据、云计算、区块链、无人驾驶、机器人、物联网、机器决策、犯罪、行政管理、法律服务、司法审判等,与IA法律问题存在大量重合。
AI与IA的对立性具化于计算机技术,显现于人机关系,传递于人际关系与社会关系,以至于AI法律问题有别于IA法律问题。AI法律问题既与IA法律问题存在重合,也包括大量新问题。在重合问题上,由于两种法律问题系不同理念与技术的具现,除部分问题外,AI法律问题通常无法套用IA法律规制。例如,以AI为主导的全自动无人驾驶与以人为主导的辅助自动驾驶在责任分配上会存在明显差异,自主机器人侵权问题的解决也明显不同于通常的计算机、网络侵权问题。不过,AI与IA的统一性也使得AI法律问题与IA法律问题相互交融。首先,AI法律问题与IA法律问题均因数字化机器智能的进步而引发。其次,意思表示、电子合同、数据、消费者保护、广告与不正当竞争等重合问题的形成逻辑通常不与所使用的技术是增强人类还是替代人类相关,在AI之上大致可以使用既定的IA规制模式。〔27〕以AI意思表示为例,AI意思表示相对于IA意思表示的特殊性主要表现在意思表示可否归属于机器之上,事实上网络法早已解决这一问题(即电子代理问题)。这两种意思表示在分类、形式、生效时间、生效地点与效力等方面基本无差别。最后,AI与IA混用于各种场景,AI法律问题与IA法律问题在诸多领域具有桥接关系或混同关系,例如大数据、云计算、自动驾驶、证券算法交易等法律问题具有AI与IA的双重属性。〔28〕大数据、云计算本为典型的IA技术,但目前AI技术已经附加其上。在低级别的辅助驾驶与部分自动驾驶中,机器智能用于增强人类,而在高级别的自动驾驶中,机器智能替代了人类,成为无人驾驶。证券算法交易由美国纽约证券交易所于20世纪70年代率先使用,混用AI技术与IA技术,从之前方便人类交易的半自动发展到现今替代人类交易的全自动。AI法律问题在承继部分IA法律问题的基础上进一步发展,二者既有区别,又有联系,这意味着二者的法律规制应当具有一定意义上的协同性。〔29〕例如在个人数据保护上,不宜切割不同场景,而应集成网络、大数据、物联网、AI等技术以及电子商务、医疗、生物等不同领域的需求,进行整体性规定。当然,协同并非意味着一致。
二、人工智能法律问题的根源、归纳与解决思路
鉴于AI法律问题具有特殊性、复杂性,并与IA法律问题存在分离与交融,研究AI的法律规制应首先分析AI法律问题的根源与症结,进而对AI法律问题进行归纳,在此基础上分析其解决思路。
(一)人工智能法律问题的根源与症结
虽然AI尚无公认的统一概念、理论与范式,应用繁乱,但从根本上说,AI为替代人类劳动而生,〔30〕参见何云峰:《挑战与机遇:人工智能对劳动的影响》,《探索与争鸣》2017年第10期。以替代人类从事活动为目标。〔31〕人工智能创始人纽厄尔与西蒙提出:“我们试图让计算机作我们的代理者,能够独自处理自然界中的全部偶发事件。”[美]A•纽厄尔、H•A•西蒙:《作为经验探索的计算机科学:符号和搜索》,《计算机协会通讯》1976年第3期。转引自前注〔9〕, 玛格丽特•A•博登书,第245页。法律为人类而设计,以人与人之间的关系为调整对象,而替代人类的AI是(智能)机器,其在决策逻辑、行为模式以及社会性、可预见性等方面与人类有差异,会超出人类经验或期望的限制,〔32〕See Jonathan Tapson,Google’s Go Victory Shows AI Thinking Can Be Unpredictable,https://phys.org/news/2016-03-googlevictory-ai-unpredictable.html,last visited on May 20,2018.这导致面向人类的法律难以简单适用于AI。笔者认为,AI法律问题的产生根源便在于AI对人的替代,无人驾驶、智能投顾、作品定性、责任分担等系列问题的产生均是因AI替代人类实施本来由人类实施的行为,导致原本适用于人类的法律应对困难。
IA法律问题也有诸多疑难,但大多可以通过对传统理论、既定规则的解释与适度修正得以解决。之所以如此是因为IA奉行增强人类的价值取向,机器的设计是为了改善、提高人类能力,在IA式人机关系中,人处于中心地位,人为主体,机器为客体,这契合法律以人为中心的理念与主客二分的观念,将IA融入法律便不会存在体系性障碍。〔33〕以功能等同法为代表的法律解释的方法广泛运用于IA法律规制,借助于此,IA法律规制融入了传统法律体系。然而,在AI替代人类的理念之下,机器会采取独立于人类的设计,人的因素会被淡化甚至被消除,在AI式人机关系中,机器处于(技术)中心地位,人类甚至要服从于机器作出的决策,这在根本上与法律以人为中心的理念与主客二分的观念相悖,将AI融入法律便会存在巨大障碍。因此,AI替代人类的理念、以机器为中心的去人类化观念与法律以人为中心的理念、主客二分的观念之间的冲突便是AI法律疑难的症结所在,在未就如何解决这一根本性冲突达成共识、无法确立AI法律规制的基点时,针对具体问题的研究便会显得纷乱。
(二)人工智能框架性法律问题的归纳
从与IA相区别的角度而言,各式AI的共性在于贯彻替代人类的理念,在技术上以机器为中心,在应用上以(全部或部分地)替代人类劳动为目标,而这也正是AI法律问题产生的根源。在此基础上,可以从与IA法律问题相区别的角度归纳AI的框架性法律问题,以便于探讨其整体法律规制。
首先,AI法律规制应当遵循何种价值取向,此系其法律规制的价值基础。鉴于替代人类的AI与以人为中心的法律在价值理念上存在巨大冲突,AI法律规制必然伴随价值取向问题,即AI法律规制在替代人类与增强人类之间应如何权衡、取舍,是顺应AI替代人类的理念与技术,还是予以矫正。
其次,AI可以替代人类,那么应否赋予AI主体资格,此系AI法律规制的逻辑前提。AI应否拥有主体资格直接决定其法律地位与规制路径,也直接影响对AI系列问题的分析逻辑。〔34〕以责任问题为例,若AI不拥有主体资格,则人仍为责任主体,存在通过解释的方法适用传统规则的余地。若AI拥有主体资格,则AI可以成为责任主体,由此将导致大量的传统责任规则失去适用的可能,开创出完全不同于既定法的规制路径。大多数AI法律问题都会涉及这一前提性问题。诸多学者基于强人工智能已经或将要产生,甚至超级人工智能将来也会出现的趋势,动辄提出法律死亡论,否定传统法,〔35〕参见吴允锋:《人工智能时代侵财犯罪刑法适用的困境与出路》,《法学》2018年第5期;李俊丰、姚志伟:《论人工智能的法律人格:一种法哲学思考》,《华侨大学学报》(哲学社会科学版)2018年第6期;张玉洁:《论人工智能时代的机器人权利及其风险规制》,《东方法学》2017年第6期;刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期;高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,《华中科技大学学报》2018年第1期;张长丹:《法律人格理论下人工智能对民事主体理论的影响研究》,《科技与法律》2018年第2期;陈吉栋:《论机器人的法律人格——基于法释义学的讨论》,《上海大学学报》(社会科学版)2018年第3期。在主张AI拥有主体资格的前提下进行制度设计。但事实上,当前的AI技术条件以及哲学、认知科学上的研究却根本不足以支撑强人工智能必会出现的假设,遑论超级人工智能。
再次,使用AI替代人类从事各种活动是否正当、适法,应遵循何种规则,此系AI法律规制的具体手段。AI的适法性问题表现为其安全性、伦理正当性、敏感领域应用准入与使用规则等问题。例如,AI在武器领域的运用是否应受限制?无人驾驶中的伤害选择应如何确定?在何种领域可使用AI进行机器决策以及应遵循何种程序?AI使得马克思•韦伯提出的自动售货机式的现代法官的设想成为可能,是否允许实现这种可能?对AI适法性问题的回答决定了各领域AI使用规则的制定。
最后,AI替代人类实施行为而产生的责任如何认定,此系AI法律规制的最终落实。AI责任问题的难点主要体现在责任主体、归责与因果关系的认定疑难上。第一,应当如何确定责任主体以及如何划定多主体间的责任分担比例?第二,在归责上,对不同类型的AI、不同应用场景应采取何种归责原则?若需考虑过错,如何确定相关主体的注意义务?在判定过错的有无与大小时,机器能否成为判断的对象,应在多大程度上考量AI开发流程、算法、应用方式与外部环境等因素的影响?第三,AI使得原本极为复杂的因果关系问题变得更为复杂,是该套用还是突破传统因果关系理论?如何合理切断过长的因果关系链条?在个案中应当如何进行因果关系认定,可否使用AI代替专家辅助人对标的AI进行逻辑回溯?在法律上如何破解AI固有的不可预见性所造成的难题?在行政法、刑法等领域讨论AI法律责任时也会遇到类似疑难。
(三)人工智能法律问题的解决思路
基于对AI法律问题根源与症结的分析,AI法律规制的关键在于解决AI与法律的根本性冲突并通过法律规范AI对人类的替代。从法律体系与立法成本的角度来看,基于前文对AI与IA的辩证统一关系、AI法律问题与IA法律问题承继关系的分析,对AI法律规制的探讨宜在IA法律规制的基础上,围绕AI替代人类的特性进一步展开。〔36〕在现阶段,一些AI的应用只是加载到IA技术之上(典型便是电子交易技术),进一步简化流程、减少人工介入、提升自动化程度,仍未超出增强人类的范畴,或者说一些AI法律问题的形成逻辑与技术属性关联不大。对于此种情形,AI法律规制与IA法律规制并无不同。需要进一步展开的AI法律规制指向的主要是因AI替代人类而产生的不同于IA法律问题形成逻辑的问题。前文所提炼的AI四项框架性法律问题正是从AI法律问题的产生根源出发,从与IA法律问题相区别的角度围绕AI替代人类而归纳得出。AI法律规制的基本思路应当是分析与解决此四项框架性法律问题,并向各领域延伸。
AI四项框架性法律问题涵盖了一般问题与具体问题,较为庞杂。其中,AI法律规制的价值取向与AI是否具有主体资格属于极为关键的一般性基础问题,关涉AI与法律之间根本性冲突的解决,指向AI法律规制核心基点的确立。前者回答了应当如何解决AI替代人类的理念与法律以人为中心的理念之间冲突的问题,确定了AI法律规制的价值基础。后者回答了应当如何解决AI以机器为中心的去人类化观念与法律上主客二分的观念之间冲突的问题,确定了AI法律规制的逻辑前提。诸多AI法律问题的研究便以这两项一般性基础问题为基础,在对这两项问题未达成基本共识、规制基点无法确立的背景下,对包括AI的适法性问题、责任问题以及AI作品、金融、交通与医疗等问题在内的具体问题的研究便难以深入。受限于问题性质及篇幅,下文仅探讨AI法律规制的价值取向问题与AI的主体资格问题。需要注意的是,AI本身便是多学科交融的产物,除自然科学外,AI与哲学、伦理学等人文科学也存在先天的紧密联系,在研究方法上,AI法律研究应当结合其他学科的研究,在许多问题上甚至需要以其他学科研究为基础,AI的这两项一般性法律问题便属此类。
三、人工智能法律规制应贯彻局部替代人类、整体增强人类的价值取向
AI与法律的理念冲突决定了从法律上规制AI首先需要对AI替代人类的理念进行评价,从整体上确定AI法律规制的价值取向,而不是如IA法律规制一样,仅需跟随技术的发展而作出调整。科学、技术具有双重价值性(正价值与负价值),〔37〕参见肖峰:《作为价值论对象的信息文明》,《中共宁波市委党校学报》2016年第3期。“AI将造福人类”的乐观论与“AI将毁灭人类”的悲观论分别指出了AI因替代人类而产生的双重价值。在替代人类与增强人类之间,法律不得不进行权衡、选择。有学者指出,要从人机协作和人机共生而不是人机对立的角度探寻发展“基于负责任的态度的可接受的AI”的可能性,应当意识到发展AI旨在增强人类而非替代人类。〔38〕参见段伟文:《人工智能时代的价值审度与伦理调适》,《中国人民大学学报》2017年第6期。笔者赞同这种观点。
AI的正价值在于机器智能的再次提升能够让人类的工作与生活更加便利,进一步改造产业模式、提升效率、推动经济发展、扩展对未知世界的探索。随之而来的问题却是AI可能会造成社会结构的巨大变革,冲击劳动力市场,引发严重的伦理困境。AI的本性便是去人类化的,以无人参与的闭环自动化为技术指向,甚至“将自动化本身予以自动化”,〔39〕[美]佩德罗•多明戈斯:《终极算法:机器学习和人工智能如何重塑世界》,黄芳萍译,中信出版社2017年版,第13页。在其技术架构中可以没有人类的存在。AI势必继续发展并发挥更大作用,若其以机器为中心、以替代人类为目标的特性不受约束,那么以人类为中心的社会将走向何方?目前已经出现了将人类事务交由AI进行机器决策的情形,若AI智能水平进一步提升,机器决策大规模扩张,将可能产生何种后果?人类连现今的非“智能”网络技术都无法保证安全,何以可能保证具有去人类属性的、强大的“智能”机器是安全的?哲学上的研究多是从认识论的角度研究AI能否以及如何创造出“智能”等问题,价值论的研究相对较少,但已有的价值论研究基本上都是遵循人文主义。〔40〕参见文祥、易显飞:《论人本视角下的人工智能技术哲学研究》,《湖南人文科技学院学报》2018年第1期。人文主义强调个人尊严、价值,坚持以人为本。〔41〕参见李醒民:《迈向科学的人文主义和人文的科学主义》,《中国政法大学学报》2013年第4期。人工智能伦理学研究也遵循了人文主义,认为应保证AI设计者的伦理性,将符合人类价值的伦理规范嵌入AI,将AI用于增强人类,〔42〕参见和鸿鹏:《人工智能:在效率和安全中寻求统一——“2017科技伦理研讨会”纪要》,《科学与社会》2017年第4期。避免制造出不符合人类价值和利益需求的AI。〔43〕参见于雪、王前:《“机器伦理”思想的价值与局限性》,《伦理学研究》2016年第4期。其中,机器伦理学主要研究如何使AI、机器人在行为上具有伦理性,机器人伦理学主要研究如何对人类设计者进行约束。〔44〕参见徐英瑾:《具身性、认知语言学与人工智能伦理学》,《上海师范大学学报》(哲学社会科学版)2017年第6期。2017年,电气和电子工程师协会(IEEE)发布的《以伦理为基准的设计:利用人工智能和自主系统最大化人类福祉的愿景》指出以人类价值观为导向的方法论是AI设计的核心。同年,由全球数千名科学家联名签署的“阿西洛马人工智能 23 条伦理原则”第1条原则便指出“人工智能的研究目标应当是创造有益(于人类)而不是不受(人类)控制的智能”。2018年,欧洲政治战略研究中心发布的《人工智能时代:实施以人为中心的人工智能战略》明确提出应将AI用于增强而不是替代人类。可以看出,价值哲学与伦理学并不是简单地跟随与顺应AI技术的发展,而是坚持以人为本,认为应对AI施加必要限制。在面对人类整体族群利益时,AI法律规制的价值理念并非一个特别复杂的问题,在以机器为中心与以人为中心的冲突之间应当选择后者。在法律上,如果只是基于AI的正价值而顺应与促进AI的发展,对AI的负价值却不予限制,无疑是违背人类整体利益与人文主义精神的。
需要注意的是,“替代人类”“增强人类”在技术语境中多为微观意义上的,在价值哲学与伦理学语境中则多为宏观意义上的。从法律上看,坚持AI在宏观上、整体上用于增强人类,并不是要否定AI在微观上、局部上对人的技术性替代,AI对人类的贡献也正在于此。法律应当肯定AI局部性替代人类的积极意义,并预防和避免人类整体性利益被损害。因此,从法律上规制AI,应当采取局部替代人类、整体增强人类的价值取向,〔45〕局部替代并非仅指AI部分替代人类(如AI辅助自动驾驶),也包括AI在某些岗位上全部替代人类(如AI无人驾驶)。AI对某些人类岗位的替代无损于人类(如交通、医疗等),但总体而言,在整体增强人类的原则之下,AI在某些领域的应用应当受到限制(如AI不能成为法官)。局部替代、整体增强意味着法律应对AI的领域准入、替代限度、使用规则等问题作出规定。适度矫正AI替代人类的理念与技术,对AI前置性地施加以人为本的整体价值负载,提前研判与化解AI对社会结构的冲击。鉴于AI在技术上具有去人类化的属性,其应用具有一定程度上的不可预见性、难以理解性,而且没有任何机构能够保证AI可以被人完全控制,〔46〕See Christelle Didier etc.,Acknowledging AI’s Dark Side,349 Science 1064 (2015).法律在保障AI整体上不偏离增强人类的方向之外,还需要根据AI以机器为中心的技术特性制定相应的规则,从源头上保证人对AI的控制及其可归责性,以弱化复杂的伦理困境与责任认定疑难,尽量消解因AI替代人类而产生的不利影响。笔者认为,局部替代人类、整体增强人类的价值取向应当贯彻于AI其他三项框架性法律问题的解决。第一,AI不具有主体资格(容后详述)。第二,在AI的适法性方面,首先,法律应当确立AI研发规则,要求研发者将伦理代码写入AI,尽量预防伦理风险;其次,在AI使用方面,法律尤其需要确立立法、行政管理、司法审判等敏感领域中的AI准入规则与使用规则,以保障人类安全、服务人类与防范系统性风险,保证人类的最高决策权;最后,AI法律规制应采取主动的事前、事中监管措施,保障技术安全、可控。第三,在AI责任方面,首先,法律应当要求研发者尽可能保障AI的技术可回溯性,在代码层面对AI添加限制,以降低将来认定责任的难度;其次,法律应当强化研发者责任,迫使研发者适度矫正AI,在算法上保证AI行为可归责于相应的人,使AI不偏离整体增强人类的方向;最后,AI责任规则需要在以机器为中心的技术与以人为中心的责任之间建立合理连接,确定归责基础。AI法律规制在立法技术上面临的一般性挑战是,法律规则需要将以AI为基础的法律事实与人关联起来,将以机器为中心的AI置于以人为中心的法律关系之内。
需要指出的是,机器智能技术是会聚技术(NBIC)中的重要技术,可与纳米、生物等技术结合用于改善、增强人类的基因、身体,由此所产生的超(后)人类主义问题超出了本文讨论范围。〔47〕会聚技术的概念在2001年被明确提出,起初由纳米技术、生物医学技术、信息技术、认知科学四大前沿科技融合而成(简称NBIC),后泛指既有的科学技术融合成新的技术系统。NBIC因直接作用于人类自身、试图改变人类的生物限制而引发剧烈争议。以福山、哈贝马斯为代表的保守主义者强调“自然”与“人性”的神圣性,担忧技术的滥用,但主张技术进步的超(后)人类主义占据了上风。超人类主义承袭人文主义,但允许通过技术超越健康的水平改善并增强人类(包括基因改良),并倡导通过民主机制对技术的发展予以监管。后人类主义基于科技发展的必然性与人的自由,倡导生殖性克隆,产生在智力与生物两方面大大超越人类的后人类,甚至考虑将人类与机器结合产生新物种,完全与人文主义背道而驰。相关问题参见[法]吕克•费希:《超人类革命》,周行译,湖南科学技术出版社2017年版。本文所阐述的增强人类,并不包括将机器智能技术直接融入人类身体而增强人类。从对会聚技术的讨论中可以看出,应当通过制度防范高新技术的滥用,在AI与IA上亦是如此,即便用于增强人类,也存在限度。法律对此必须加强监管,防范技术风险,在必要时应如禁止克隆人一样设置技术禁区。在以人为本、增强人类的理念之下,虽然法律需要在短期内作出调整以适应AI的发展趋势,但长远来看,不应当是法律如何迎合AI、而是AI如何迎合法律的问题。
四、人工智能不具有主体资格应作为法律规制的逻辑前提
目前法学界有种代表性观点提出以智能机器人为代表的AI应被赋予主体资格。笔者认为,在现有的科技、哲学、伦理学、社会学与法学背景下,这种观点只是一种过度超前的想象,AI法律规制应在AI不具有主体资格的前提下进行设计。
(一)人工智能难以产生类人的自主性与意识
认为应赋予AI以主体资格的观点大多认同在技术层面AI已经产生或必会产生自主性与意识等类人属性。例如,认为AI、机器人已经逐步具有一定程度的自我意识和自我表达能力;〔48〕参见王利明:《人工智能时代提出的法学新课题》,《中国法律评论》2018年第2期。认为智能机器人具有精神,应当享有权利;〔49〕参见许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。认为AI具有自主性,非为纯受支配的客体;〔50〕参见郭少飞:《“电子人”法律主体论》,《东方法学》2018年第3期。认为AI会发展到超越工具型的强人工智能阶段;〔51〕同前注〔35〕,陈吉栋文。认为智能机器人能够辨认自己行为的性质、意义与后果,人类创造机器人的技术达到了无与伦比的程度,智能机器人可能产生自主的意识和意志。〔52〕参见刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。在笔者看来,这些观点往往是基于无依据的断言与假定,对AI技术的理解出现了严重偏差。AI主流技术包括符号主义范式、联接主义范式、行为主义范式及贝叶斯网络、类脑计算等,可以肯定的是,这些技术路径均未令AI产生类人的自主性、意识或者说“智能”,并且在相当长的将来可能也无法实现这一点。基于AI具有意识、自主性等类人属性而主张赋予AI主体资格的法律研究在出发点上可能就是错误的。
符号主义范式立基于长久以来的理性主义、形式逻辑传统以及身心二元论,深受笛卡尔、莱布尼茨、霍布斯等哲学家、数学家思想的影响,〔53〕例如,霍布斯在《利维坦》中将人的生命看作一种机械的运动,将理性推理活动看作机械模型,对符号主义范式的“物理符号系统假设”形成直接支持。(参见前注〔10〕,徐英瑾书,第83页。)巴贝奇发明的差分机、乔治•布尔设计的逻辑运算布尔系统、弗雷格提出的思维符号语言、罗素和怀特海开发的逻辑语法与形式推理规则、图灵提出的图灵机与学习机等理性主义思想与符号观念对人工智能具有基础意义。将智能理解为物理符号系统,并通过创造符号系统自上而下地模仿人类思维,〔54〕同前注〔4〕,蔡自兴书,第10页。专长是专家系统、定理证明、棋类博弈等,至今仍是重要的AI技术范式。自20世纪70年代起,符号主义范式受到现象学学者的严厉批判。德雷弗斯认为,这是一种为海德格尔和梅洛-庞蒂所批判的理性主义,不可能取得成功,因为人类智能包含有不可形式化的成分,人的躯体在智能行为中的作用更是无法形式化的,AI无法形成人类主体性意义上的智能。〔55〕参见[美]休伯特•德雷福斯:《计算机不能做什么:人工智能的极限》,宁春岩、马希文译,三联书店1986年版,第243~244页。转引自前注〔40〕,文祥、易显飞文。不过德雷弗斯并未否定AI的整体前景,其提出了AI的具身(embodiment)进路。〔56〕参见徐献军:《论德雷福斯、现象学与人工智能》,《哲学分析》2017年第6期。塞尔提出的中文屋思想实验对符号主义范式以及图灵测试进行了批判,认为形式化的符号系统不可能产生“智能”。〔57〕参见[美]J•R•塞尔:《心灵、大脑与程序》,《行为和大脑科学》1980年第3期。转引自前注〔9〕,玛格丽特•A•博登书,第73~95页。AI科学家麦克德莫特批评符号主义范式的支持者“对哲学家们昔日的失败一无所知”。〔58〕参见[美]D•麦克德莫特:《纯粹理性批判》,《计算智能》1987年第3期。转引自前注〔9〕,玛格丽特•A•博登书,第245页。符号主义范式在创造“智能”上遭遇了无法解决的困难,其无法将人类知识全部表征,难以具备背景知识与常识,无法处理非线性、非结构的复杂问题。
符号主义范式的假设被联接主义范式与行为主义范式所否定。联接主义范式受益于认知神经科学的进步,立基于身心二元论,将智能理解为众多并行分布的神经元相互作用的结果,〔59〕参见周永林、潘云鹤:《从智能模拟到智能工程——论人工智能研究范式的转变》,《计算机科学》1999年第7期。通过数学方法模拟人脑神经网络及其联结机制,采取神经网络算法。行为主义范式受生物进化与遗传的启示,立基于身心一体论,认为智能取决于感知和行为,〔60〕参见高华、余嘉元:《人工智能中知识获取面临的哲学困境及其未来走向》,《哲学动态》2006年第4期。存在于人与世界的交互,因此采取进化算法,使用包含传感器与执行器的“机器身体”令AI直接与真实世界交互,产生“感知—行为”的反馈,以模拟生物进化的方式产生智能。〔61〕参见徐心和、么健石:《有关行为主义人工智能研究综述》,《控制与决策》2004年第3期。联结主义范式与行为主义范式突破了传统的冯•诺伊曼计算结构,在21世纪初开始与数据驱动的机器学习相结合,近年来在提升机器智能方面取得了令人瞩目的成就。例如,使用深度神经网络算法的AlphaGo等AI技术获得了巨大成功,BigDog、Atlas、iCub、ASIMO等机器人在智能方面也取得了重大进展。不过,AI的成就仅限于形式化领域,在意向性领域依然一无所获。联接主义范式与符号主义范式一样,无法跨越知识表征的障碍,计算机仍然难以将人类所拥有的背景知识、形象思维等以符号方式予以形式化表征。被誉为“神经网络之父”的科学家杰弗里•欣顿(Geoffrey Everest Hinton)近两年否定了当下大行其道的深度神经网络算法对于类人智能的意义。行为主义范式所模拟的其实并非人类智能,而是低等生物智能。采取行为主义范式的机器人在欠缺主体意向驱动或外界命令驱动的情况下,无法实施有意义的行为,这使得行为主义范式局限于对工业应用领域低层次智能的模拟。〔62〕参见董佳蓉:《语境论视野下人工智能范式发展趋势研究》,科学出版社2017年版,第24页。基于概率进行非确定性推理的贝叶斯网络算法高度依赖符号表征,虽可在非确定性推理、模糊计算方面取得一定成功,但高度依赖设计者对问题框架的提前设定,距自主性、意向性的实现十分遥远。“贝叶斯网络之父”朱迪亚•珀尔(Judea Pearl)在2018年否定了贝叶斯网络算法对实现类人智能的意义,认为“因果推理”才是通往类人智能的路线。〔63〕See Pear & Mackenzie,The Book of Why: The New Science of Cause and Effect,http://bayes.cs.ucla.edu/WHY/why-ch1.pdf,last visited on June 17,2018.一些科学家认为类脑计算(神经形态计算)将是从弱人工智能到强人工智能的主要进路,类脑智能将是人工智能的终极目标。〔64〕参见陈自富:《强人工智能和超级智能:技术合理性及其批判》,《科学与文化》2016年第5期。类脑计算技术从硬件上突破冯•诺伊曼计算结构,借鉴人脑神经元信息处理机制发展类脑神经芯片与计算平台,〔65〕参见曾毅、刘成林、谭铁牛:《类脑智能研究的回顾与展望》,《计算机学报》2016年第1期。试图实现低能耗、容错性与无须编程的三大人脑特性。〔66〕参见邢东、潘纲:《神经拟态计算》,《中国计算机学会通讯》2015年第10期。类脑计算已发展二十余年,其不是如联接主义范式一样对人脑进行局部模拟,而是对人脑的整体运行机制进行研究、模拟,极可能大幅推动AI的进步,但人类至今仍不清楚人脑的整体运行机制,也不清楚“意识”在智能活动中的作用,更无法确定这种机制可以通过机器实现。〔67〕参见徐英瑾:《人工智能技术的未来通途刍议》,《新疆师范大学学报》(哲学社会科学版)2019年第1期。对于能否创造出真正的“智能”,哲学家即便不予彻底否定,也多持悲观态度,〔68〕有哲学家持类似于未来学家的乐观态度,但往往只是予以断言,却未进行分析,或者是在将“智能”理解为机器对人类的模拟能力的前提下,基于机器智能在部分领域超过人类智能的事实,预言机器“智能”将来会产生,但他们未曾分析通往“智能”的道路究竟在何处。AI科学家、未来学家却多持乐观态度,但也有AI科学家指出,“主流人工智能学界的努力从来就不是朝向强人工智能,现有技术的发展也不会自动地使强人工智能成为可能”。〔69〕周志华:《关于强人工智能》,《中国计算机学会通讯》2018年第1期。
在法律的向度上,AI是否拥有自主性、意向性与意识,是应否赋予AI自然人格的基础。AI始终依托计算机,图灵机是所有计算机的理论模型,但“丘奇—图灵”论题本身便承认图灵机并非对所有对象均可计算,存在算法不可解。计算机与AI的出发点一直建立在“认知可计算”的计算主义基础上,计算主义建基于一个假定:无法直接观察人脑中智能的运作,而只能借助于对人智能行为的间接观察。〔70〕参见任晓明、桂起权:《计算机科学哲学研究——认知、计算与目的性的哲学思考》,人民出版社2010年版,第217~219页。只有观察出真正的人脑运作原理并成功模拟,才有可能创造出类人智能,但这两项条件的满足困难重重。从最初的符号主义范式到联结主义范式、行为主义范式的转换,已经显现了计算主义的局限性,计算机器在知识获取、表达与处理上具有先天局限,人类心智的复杂性机制给机器模拟带来了极大困难,在通过机器模拟人类自适应、自学习以及与环境作用时,人类意识的意向性、自指性等重要特征是超越逻辑与算法的,〔71〕参见刘晓力:《计算主义质疑》,《哲学研究》2003年第4期。非形式的、不可表征的智能活动是AI无法达到的极限。〔72〕参见徐献军:《人工智能的极限与未来》,《自然辩证法通讯》2018年第1期。AI虽快速发展,但在难以进行形式化计算的认知活动中始终未获任何成功便印证了这一点。AI发展至今只有技术意义上的有限自主性,没有类人自主性、意向性与意识,将来可能也很难产生这些类人特性,欠缺类比自然人从而被赋予人格的根本基础。
(二)法律不应赋予人工智能主体资格
塞尔按照AI的智能程度提出的弱人工智能、强人工智能的分类得到普遍赞同,但塞尔当初提出的心智性区分标准却被替换成对人的局部模仿、全部模仿的技术性区分标准,〔73〕弱人工智能与强人工智能的区分是塞尔在《心灵、大脑与程序》(1980年)中提出来的。弱人工智能只是对认知过程的模拟,程序本身并不具有理解、认知的能力,并无“心智”。强人工智能则是一个“心智”,其具有智力、理解、感知、信念和其他通常归属于人类的认知状态。但此区分标准后来被代替以新的标准:弱人工智能就是对人的局部模仿,强人工智能就是对人的全部模仿,脱离了心智之判断标准。参见前注〔5〕,梅剑华文。这对于判断AI是否是“智能”的、应否拥有主体资格产生了极强的混淆性。事实上,目前的AI仍是“无心”的弱人工智能,并无“智能”,〔74〕路卫华:《跨学科视域下的机器智能与人》,《科学技术哲学研究》2017年第3期。不具备赋予主体资格的基础。如前所述,在相当长的将来,AI可能也只是在不“智能”的弱人工智能的框架内提升机器能力。AI法律研究若过度受到激进观念与无依据断言的影响,会出现危言耸听的情形。例如,认为AI技术已经发展到可以作出独立意思表示的阶段;〔75〕参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。认为只有承认AI的主体地位,才能进而分析其所缔结法律关系的效力问题、举证问题、责任问题;〔76〕参见徐文:《反思与优化:人工智能时代法律人格赋予标准论》,《西南民族大学学报》(人文社会科学版)2018年第7期。认为AI对民法更深层次的挑战在于对拥有与自然人同等甚至更高智力水平的机器人法律地位的认定;〔77〕同前注〔35〕,张长丹文。认为智能技术的便捷性和适用性会使传统法律变得没有用武之地,一系列算法机制会不断催生出各种类型“私人订制”的法律,民主机制也会伴随现实法律空间的瓦解失去用武之地;〔78〕参见余成峰:《法律的“死亡”:人工智能时代的法律功能危机》,《华东政法大学学报》2018年第2期。认为应当参照动物保护、法人拟制以及欧盟议会法律事务委员会《关于机器人的民法规则》提出的“电子人”,将AI确立为法律主体;〔79〕同前注〔50〕,郭少飞文。甚至还有观点考虑从机器人的角度来看,若不赋予其公民权,将来可能会出现弥赛亚式的人物对机器人进行救赎。〔80〕同前注〔35〕,高奇琦、张鹏文。
笔者认为,第一,非人工智能的技术与机器早就可以在无人工介入的情况下作出所谓的独立意思表示、缔结电子合同、形成证据,电子商务法已经解决了意思表示的归属、效力、责任与证据等问题,但未赋予机器主体资格。〔81〕例如,自动售货机早就可以作出独立的意思表示,但自动售货机明显与人工智能无关。在电子商务中,自动电文系统早就可以作出独立的意思表示(如联合国贸法会《电子商务示范法》《国际合同使用电子通信公约》的规定)。再如犯罪问题,非人工智能的自动技术也可以实施犯罪行为,如木马病毒。许多与自动化有关的智能增强法律问题在之前的电子商务法研究中已有讨论且已解决,并不与人工智能必然相关,却被一些研究纳入人工智能范畴,这体现了当前的人工智能研究与网络法、电子商务法研究的割裂。第二,认为AI已达到或超越人类智能的观点是错误的,因为目前的AI仍然局限于“大数据、小任务”,即便可以局部超越人类智能,但在整体上仍然无法达到人类的智能水平,无法与人类“小数据、大任务”的能力相比拟。第三,参照对克隆人的禁止,人类社会根本就不应允许具有危险性的AI技术不受限制地向替代人类的方向发展,民主机制不仅不应瓦解,而且应当成为限制AI的掣肘。法律的代码化、算法化也是有限度的,因为自然语义的符号化已经是算法难以跨越的障碍,更何况法律不仅是逻辑的,还是经验的。第四,动物保护、法人拟制无法与AI主体资格问题相类比,因为所处环境、背景、价值理念、出发点以及在人类社会所引发的后果与连锁反应是完全不同的。欧盟议会法律事务委员会《关于机器人的民法规则》第59(f)条声称,赋予机器人电子人的地位是为了解决所谓的最先进机器人造成的损害问题及外部互动问题。〔82〕欧盟议会法律事务委员会在《关于机器人的民法规则》中将先进机器人的自主性界定为“在外部世界中,独立于外部控制或影响下作出决定并实施的能力”,并指出这种自主性是纯粹的技术性质。《关于机器人的民法规则》中的机器人自主性主要是指机器人为完成指令而自动实施行为,并不是指具有意向性的自主。如前所述,目前的机器人在无主体意向驱动或外界命令驱动时,无法实施有意义的行为,当然不具有自主性。需要注意的是,《关于机器人的民法规则》中的“电子人”与NBIC会聚技术中的“电子人”不同,前者指的是机器人,后者指的是经过大幅技术改造的人类,如植入芯片等电子设备的人、人机一体化的人。但是,不赋予机器人电子人地位也可以解决这些问题,赋予电子人地位只会使问题变得无谓的复杂。欧盟议会法律事务委员会的这种提议只是一种不成熟的、不成体系的设想,并无坚实的哲学、伦理与法律支撑。在赋予AI主体资格的观点中,机器人索菲亚被沙特宣布为具有公民身份的事例被广泛援引,人们普遍对索菲亚的“我将毁灭人类”等言论感到担忧与恐惧。但明显的是,目前的技术水平根本不可能使索菲亚作出此种自主性的回答,此事件完全是由商业利益推动的。索菲亚的公民身份根本不能成为支撑AI应具有主体资格的论据。AI远超常人吟诗能力的例子也常被援引,但与其说其在创作,不如说其在制造。可以肯定的是,AI无法理解其所吟之诗。主张赋予AI主体资格的观点基本上完全跟随了AI替代人类的理念,很少顾及AI技术的负价值。
应当承认的是,AI在一定程度上突破了主客二分、人物二分的传统观念,较其他人工物更符合“行动者网络理论”中的非人行动者的特点。拉图尔提出的“行动者网络理论”在社会学、人类学、伦理学、科学技术学等学科有着广泛影响,按照该种理论,主体、客体不是严格二分的,环境、人工物等非人因素与人均为具有能动性的、平权的行动者(actant),组成了相互交织的行动者网络。在社会学中,拉图尔“行动者网络理论”因认为非人行动者拥有与人类行动者完全对等的能动性而被批评为一厢情愿,因为其只能在文本中而不是在实践中实现非人行动者的能动性。〔83〕参见贺建芹:《非人行动者的能动性质疑——反思拉图尔的行动者能动性观念》,《自然辩证法通讯》2012年第3期。AI与人类行动者具有更加密切的交织关系,但其不具备意识与意向性能动,在行动者网络中不可能与人类行动者对等、平权。从伦理学角度来看,“行动者网络理论”突破了人工物与道德不相干的传统伦理学观念,由此产生了人工物是否为道德行动者的问题。伦理学上大致包括认为人工物是道德行动者、认为人工物不是道德行动者以及折中的三种观点。折中论是主流观点,其承认人工物的道德能动性,但认为这种道德能动性只是调节性的,而人的道德能动性是原发性的,因此,在行动者网络中不能将人工物看作像人一样的道德行动者,而应将其看作对社会信息、关系具有能动调节作用的“道德调节者”。〔84〕参见张卫:《伦理空间的“暗物质”》,《伦理学研究》2018年第2期。这种观点能够较好地解释人类与AI之间的伦理关系以及AI的伦理性,即AI与人并不对等,但具有道德调节的能动性,AI不具有主体资格并不意味着其不承担道德负载。认为AI为道德主体(或者说道德行动者)的观点与认为动物、大自然为道德主体的动物中心主义、生态保护主义相似,表达的其实是对动物、自然与人工物的尊重,其共同点在于重塑伦理关护对象的道德地位,仍然是立基于以人类为中心的思想。〔85〕参见王绍源、任晓明:《从机器(人)伦理学视角看“物伦理学”的核心问题》,《伦理学研究》2018年第2期。“无论审视动物的权利,还是审视人工智能和机器人的人格,仍然是一种人类中心的视角,一种基于对人自身的反射式关怀。”〔86〕蓝江:《人工智能与伦理挑战》,《社会科学战线》2018年第1期。若法律赋予AI主体资格,无疑会偏离以人类为中心的思想。
在笔者看来,讨论AI主体资格问题的前提是出现了或极可能出现强人工智能,但哲学上多对强人工智能的出现持悲观态度,在无法确定人脑运行原理能否被准确认识的背景下,即便是乐观的AI科学家也不能确定通往强人工智能的突破口究竟在哪里。当然,我们也不能断言AI绝对不会产生意识、强人工智能一定不会出现,但从计算机结构、AI技术范式以及心智哲学的研究来看,机器从当前的“识别”走向“理解”,从逻辑走向思维甚至产生意识,即便人类上下求索,也是长路漫漫,就连看起来最容易突破的、不以“智能”为目标的无人驾驶也需要经过很长时间的完善。〔87〕在2017年12月由中国自动化学会主办的“中国智能车大会”上,中国工程院郑南宁院士提出了这种观点。详见《郑南宁院士:完全自主无人驾驶依然面临艰难挑战》,http://news.sciencenet.cn/htmlnews/2017/12/396929.shtm,2018年6月15日访问。此外,即便技术具备内在的发展逻辑,也不能自主地展开,而是要受到社会的制约和规范的,〔88〕参见胡明艳、曹南燕:《人类进化的新阶段——浅述关于NBIC会聚技术增强人类的争论》,《自然辩证法研究》 2009年第6期。尤其是具有危险性的技术,AI便属此列。若法律研究不加思辨地在人类社会允许出现拥有自主意识的AI、广泛的强人工智能的立场上讨论赋予AI主体资格,无疑是过度偏离了人文主义,追随了技术决定论,毫不顾及制约技术的必要性。试想克隆人是可能的,却为何被普遍禁止?AI冲击人类法律,研究AI法律规制是十分必要的,但提出将AI从客体提升为主体,在AI具有主体资格的前提下进行法律制度设计,脱离技术现状,过于激进,并无现实意义。况且,AI主体资格问题在更大程度上是哲学、人类学、政治学、伦理学与社会学层面的问题,牵涉极为广泛,并不是一个单纯的法律问题,即便将来出现了强人工智能,也不能简单地在法律范畴内讨论其主体资格问题。笔者认为,对AI系列法律问题应当在AI不具有主体资格的前提下进行研究、解决,这意味着在局部替代人类、整体增强人类的价值取向下,主客二分的传统法律体系完全可以容纳AI。
五、结语
人工智能的崛起、机器的类人化催生出一系列法律难题,技术的进一步发展、会聚将对法律产生更深的影响。人工智能的正价值、负价值及法律问题的产生均源于人工智能替代人类的特质,人工智能法律规制应坚持以人为本,发挥技术的正价值,规避技术的负价值,在促进人工智能发展的同时,又予以矫正、限制。这主要体现为法律应秉持人工智能局部替代人类、整体增强人类的价值理念,保障人工智能符合人类伦理,在人工智能不拥有主体资格的前提下进行制度设计,则可消除人工智能与法律的根本性冲突,将人工智能法律规制融入既定法律体系。人工智能正处于快速发展之中,其对人机关系的技术性改造、变革会传递至社会关系并引发连锁反应,大量法律问题的涌现是可以预见的,但一旦人工智能法律规制的两大基点得以确定,立基于其上的具体法律问题研究便不至于纷乱无章。