论缔约过程中人工智能表示行为之法律效果归属
2020-02-20马俊骥
马俊骥
人类社会发展至今,数字化时代的革命性意义愈发显现。数字化以前所未有的速度、深度、广度进入我们的日常生活,并深刻影响着我们所有的生活领域,以社会关系为调整对象的法律,亦面临数字化时代的挑战,[1]人工智能不仅将引发技术和社会领域的改变,而且将使法律面临巨大挑战。Vgl.Sven Hetmank/Anne Lauber-Rönsberg,Künstliche Intelligenz -Herausforderungen für das Immaterialgüterrecht,GRUR 2018,S.574.人工智能逐渐介入法律生活所产生的问题[2]例如,机器人法律资格的民事主体问题、人工智能生成作品的著作权问题、智能系统致人损害的侵权法问题、人类隐私保护的人格权问题、智能驾驶系统的交通法问题、机器“工人群体”的劳动法问题。参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学(西北政法大学学报)》2017 年第5 期,第130-133 页。需要在法律上予以回应。既有法律本身具有适应能力(Anpassungsfähigkeit),[3]Vgl.Josef Mehrings,Vertragsabschluß im Internet -Eine neue Herausforderung für das “alte” BGB,MMR 1998,S.30.许多由人工智能引发的法律问题可以通过对现行法进行解释加以解决。但是,如何解释适用现行法以适应人工智能时代的要求,仍有许多问题需要澄清。如果通过现行法的解释适用无法有效应对人工智能带来的新变化,那么,对既有法律制度的调整或者进行新的立法则有其必要。
一、问题的提出
不同于以计算、推理和定理证明为代表的第一代人工智能和以专家系统为代表的第二代人工智能,新一代人工智能在信息感知、信息处理、判断决策等方面已经有了让人自叹不如的出色表现。[4]参见黄欣荣:《新一代人工智能研究的回顾与展望》,载《新疆师范大学学报(哲学社会科学版)》2019年第4 期,第70-80 页。随着技术的发展,未来的人工智能或许能够独立于人类预先设置的条件自主地作出决定,甚至合同谈判以及合同签订亦可能由人工智能接管。[5]Vgl.Justin Grapentin,Die Erosion der Vertragsgestaltungsmacht durch das Internet und den einsatz künstlicher Intelligent,NJW 2019,S.181 ff.届时,法律行为中的表示越来越多地通过软件实体发出和接收,机器与机器的表示(Machine-to-Machine(M2M)-Erklärungen)可以决定合同的缔结和撤销。[6]Vgl.Christiane Wendehorst,Die Digitalisierung und das BGB,NJW 2016,S.2609.虽然从人工智能的发展现状来看,上述情形仍然带有科幻色彩,但是,留心观察即可发现,这些情形在现实生活中已经有了预兆。如果表示行为由人工智能自主作出,如何确定其法律效果归属以及现行法关于意思表示、代理等相关规定是否仍可适用则成为问题。
即便尚不具备完全或高度的自主性,人工智能亦可介入缔约过程并对合同法律关系产生重大影响。例如,在一档新闻节目中新闻播音员谈到,一个小女孩与亚马逊公司的语音助手Alexa 交流并通过该语音助手无意间订购了一个价值170 美元的玩具屋和几千克丹麦黄油饼干。新闻播音员对这一事实的描述,导致在使用Alexa 并收听新闻广播的家庭里,他们的Alexa 也试图订购玩具屋。[7]Vgl.Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Ein beziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.在此情形下,表示行为并非由智能助理软件完全自主作出,客观上存在由人类发出的指令:“Alexa,请给我订购一个玩具屋。”[8]在新闻节目中,新闻播音员说“我喜欢这个小女孩,当她说‘Alexa,给我订购一个玩具屋’”,新闻播音员的这句话被很多家庭中使用的Alexa 听到,这些Alexa 都试图订购玩具屋。Vgl.Thomas Kaltschmidt,Amazon Ec ho:Nachrichtensprecher löst Massenbestellung aus,URL:https://www.heise.de/newsticker/meldung/Amazon-Echo-Nach richtensprecher-loest-Massenbestellung-aus-3591039.html.(abgerufen am 8.Januar 2017)如果出卖人收到该订购信息,并按照订购信息送货上门,这个合同是有效的吗?假如小女孩并不是通过智能助理软件而是亲自购买这些货物,新闻播音员的描述并未被智能助理软件识别为指令而发出订购货物的表示,那么,现行法中关于行为能力或者意思表示的规定可以用于处理相关问题。[9]小女孩的行为,因其欠缺相应的行为能力而归于无效或效力未定。虽然表示意识和法效意思并非意思表示的必要组成部分(Vgl.Hans Brox/Wolf-Dietrich Walker,Allgemeiner Teil des BGB,Verlag Franz 2015,S.44 f.),但是,除非满足特定条件,否则欠缺表示意识和法效意思一般情形下仍会导致意思表示的不成立。但是,在智能助理软件介入的情况下,适用此类规定则未必适当。因为,智能助理软件并非只是传达小女孩或新闻播音员的意思表示,而是带有一定的自主性,即:小女孩或新闻播音员只是提到订购玩具屋,并未指定出卖人、价格、型号等具体信息。并且,在智能助理软件向出卖人发出订购表示的时间点,客观上不存在人类作出的意思表示,出卖人亦无法识别出其背后是一个小女孩或是属于新闻播音员那样无意识的情形。如此,智能助理软件客观上作出的表示行为之法律效果应由谁来承受?是小女孩或新闻播音员还是智能助理软件的所有人?甚至将其视为智能助理软件自己的意思表示,进而承认机器人[10]机器人是一种物理机器,它必须应对物理世界的动态(dynamics)、不确定性(uncertainties)和复杂性(c omplexity)。感知(perception)、推理(reasoning)、行动(action)、学习(learning)以及与其他系统的交互能力(interaction capabilities)通常集成于机器人系统的控制体系结构,人工智能在其中扮演重要角色。See High-Level E xpert Group on Artificial Intelligence,A definition of AI:Main capabilities and scientific disciplines,p.4,Europea n Commission (Apr.8,2019),https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-ca pabilities-and-scientific-disciplines.可以成为合同当事人?抑或否定该表示行为的效力而由合同相对方承担此种交易风险?
近年来,随着人工智能的迅速发展,国家对于这一领域高度重视,[11]2017 年7 月8 日,国务院印发《新一代人工智能发展规划》,要求制定促进人工智能发展的法律法规和伦理规范,开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究,明确人工智能法律主体以及相关权利、义务和责任等。关于人工智能的理论研究渐成热点。目前,国内有关人工智能法律问题的研究,主要集中在人工智能的法律主体地位、产品侵权责任、生成物著作权保护以及刑事责任承担等几个方面,从合同法角度对人工智能进行讨论仍然处于初始阶段,对于人工智能介入缔约过程作出表示行为的效力以及人工智能可否作为合同主体等问题缺乏专门研究。本文旨在探讨如下问题:在人工智能介入缔约过程的情况下,客观上由人工智能作出的表示行为之法律效果归属,这一问题因涉及合同主体的确定、意思表示的解释等方面而具有重要性。
二、人工智能介入缔约过程的特征——差异化的自主性
以工具(包括机器)替代或强化人类的某种能力,贯穿于人类社会发展的整个历程。与工业化时代的机器只是取代“人的一部分体力劳动”不同,人工智能“旨在取代人的一部分脑力劳动”,[12]郑戈:《人工智能与法律的未来》,载《探索与争鸣》2017 年第10 期,第79 页。因而具有与以往人类制造的产品不同的本质特征。
(一)自主性是人工智能的本质特征
尽管人工智能的术语早在20 世纪50 年代即已提出,[13]通常认为,“人工智能”这一术语诞生于1955 年8 月31 日由J.麦卡锡(J.McCarthy)、M.L.明斯基(M.L.Minsky)、N.罗切斯特(N.Rochester)和C.E.香农(C.E.Shannon)签署的“人工智能达特茅斯夏季研究项目动议”,See A Proposal for The Dartmouth Summer Research Project on Artificial Intelligence,Formal Reasoning Group(Apr.3,1996),www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html.但是,关于“何为人工智能”这一最基本的概念性问题至今依然难以形成统一认识。[14]参见梅立润:《国内社会科学范畴中人工智能研究的学术版图》,载《内蒙古社会科学(汉文版)》2019年第3 期,第208 页。这主要是因为,自人工智能的概念诞生以来,人工智能已经发展成为跨学科的研究对象,对于人工智能的解释总是适应于技术的可能性,[15]Vgl.Bitkom/DFKI,Künstliche Intelligenz,2017,S.29.人工智能的各种定义更多是反映不同学科的研究视角。因而,如何定义人工智能并不重要,关键是把握人工智能的本质特征。
有的学者认为,自主性与学习能力是人工智能的两项核心特征。[16]参见冯珏:《自动驾驶汽车致损的民事侵权责任》,载《中国法学》2018 年第6 期,第111 页。但是,相较而言更为本质的是人工智能的自主性。诚然,学习能力是人工智能区别于传统机器的显著特征,使人工智能不再依赖于僵硬且事先在程序代码中确定的行为指示,即可为完全未知且不可预见的事情制定解决方案,[17]Vgl.Justin Grapentin,Die Erosion der Vertragsgestaltungsmacht durch das Internet und den einsatz künstlicher Intelligent,NJW 2019,S.181 ff..但是,学习能力是为了实现人工智能的自主性,是让人工智能可以自主完成任务的方法。诸如机器学习、神经网络、深度学习、决策树以及许多其他学习技术的运用,[18]See High-Level Expert Group on Artificial Intelligence,A definition of AI:Main capabilities and scientifi c disciplines,p.3-4 (https://ec.europa.eu/digital-single-market/en/news/definition-artificial-intelligence-main-capabilities-a nd-scientific-disciplines).使人工智能可以借助丰富而大量的数据自己学习以获得想要的结果。由此,深度学习是实现人工智能自主性的技术手段,学习能力是人工智能自主性的重要体现,自主性是人工智能软件区别于传统软件的标志。[19]由独立自主学习和决策所产生的“自主(Autonomie)”是AI 的核心(Kern)。Vgl.Heinz-Uwe Dettling/Stefan Krüger,Erste Schritte im Recht der Künstlichen Intelligenz-Entwurf der „Ethik-Leitlinien für eine vertrauenswürdige KI”,MMR 2019,S.211 f.
然而,人工智能的自主性与人类的自主性并不相同。“自主”是一个哲学概念,原本是指人类为自己立法并为自己制定、思考和选择所遵循的规范、规则和法律的能力,具有自我意识、自我认知和自我决定的典型特征。[20]Vgl.Europäische Gruppe für Ethik der Naturwissenschaften und der neuen Technologien,Erklärung zu künstlicher Intelligenz,Robotik und „autonomen” Systemen,Brüssel,9.März 2018,S.10.在此意义上,将“自主”的概念用于人工智能并不恰当。即使高度发展、具有适应能力甚至拥有类似于人类的“智能”,人工智能与人类终究存在本质区别。不过,机器的自主性问题已被广泛讨论,“自主”这一概念的适用范围显然已经不再局限于人类。但是,与人类的“自主”承载伦理价值不同,机器的“自主”通常被用来描述最高程度的自动化和最大限度地不依赖于人类。由此,人工智能的“自主”并不涉及伦理意义上人类尊严的价值,而是强调“作出决定并在外部世界不依赖于外部控制或影响地实施这些决定的能力”。[21]Vgl.Georg Borges,Rechtliche Rahmenbedingungen für autonome Systeme,NJW 2018,S.977 f.
与人类的“自主”不同,人工智能的“自主”是一种技术上的实现,这一点集中体现于人工智能的自主学习机制。例如,旨在让人工智能实现自主学习的人工神经网络,受到人类大脑的启发而具有一个中间存在许多加权链接(weighted connections)的小型处理单元(类似于我们的神经元)组成的网络,[22]See High-Level Expert Group on Artificial Intelligence,A definition of AI:Main capabilities and scientifi c disciplines,p.1,European Commission (Apr.8,2019),https://ec.europa.eu/digital-single-market/en/news/definition-a rtificial-intelligence-main-capabilities-and-scientific-disciplines.新一代学习算法通过这种神经网络结构被“喂食”或“训练”并可以包含数字、文本、图像、口头或者其他信息,自动识别模型,进行信息分类,以这种方式“学习”并在此基础上再进行选择,即决定。[23]Vgl.Heinz-Uwe Dettling/Stefan Krüger,Digitalisierung,Algorithmisierung und Künstliche Intelligenz im Pharmarecht,PharmR 2018,S.513 f.由此,人工智能作出决定的过程乃是通过技术手段实现,与人类对事物的认知、判断、决定过程存在本质区别。
(二)人工智能的自主性存在差异化
基于人工智能的自主性之技术本质,其自主性程度取决于相关技术的发展水平,强人工智能的自主性程度高于弱人工智能。[24]机器可以像它们是智能的那样行动的看法,被称为“弱人工智能假设(schwache KI -Hypothese)”,机器除了像它们是智能的那样行动还真正地思考(并且不是简单地模仿思考)的看法,被称为“强人工智能假设(starke KI -Hypothese)”。Vgl.Fritz-Ulli Pieper,Wenn Maschinen Verträge schließen:Willenserklärungen beim Einsatz von Künstlicher Intelligenz,GRUR-Prax 2019,S.298.通常认为,人工智能“就是让计算机完成人类心智能做的各种事情”。[25][英]玛格丽特·博登:《AI:人工智能的本质与未来》,孙诗惠译,中国人民大学出版社2017 年版,第1页。然而,这一目标的实现不可能一蹴而就。与技术的发展水平相应,机器的自主性经历了从无到有、从弱到强的发展过程。作为其中一个发展阶段,人工智能的自主性亦存在由技术水平导致的差异。
根据自主性程度,可以将人工智能划分为不同阶段。但是,不同自主性程度的界分本身需要依据一定标准,以便认定人工智能的自主性之高低。对此,学者在进行讨论时普遍区分自动系统和自主系统,[26]由于人工智能这一概念本身具有模糊性,自动系统和自主系统均可归入人工智能,人工智能和机器学习是让系统实现自动化或自主化的技术基础。Vgl.Jürgen Taeger,Die Entwicklung des IT-Rechts im Jahr 2016,NJW 2016,3764(3765).本文以为,部分自动系统并未显示出自主化而主要属于自动化,与人工智能具有的自主性特征并不相符,不宜纳入人工智能范畴。区分标准即系统所需人类预先设置的程度。具言之,自动系统根据人类预先设定的条件可预见地行动,自主系统基于一种自我学习算法作出决定而无需具体的预先设置。根据人类预先设定的条件之抽象程度,自动系统又可分为部分自动系统和完全自动系统:部分自动系统在到达预先设定的时间或符合预先设定的具体条件时,触发程序并作出表示;完全自动系统无需设定具体条件,而是按照非常抽象的预先设定行为。[27]Vgl.Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.
由此,机器的自主性程度之区分,核心在于人类对系统运行的干预和控制,可以考虑系统运行对人类预先设置的依赖程度(具体指令、抽象指令抑或无需人类指令)。然而,正如学者所言,在完全自动化的合同签订和自主的合同签订之间存在不易分清的过渡。[28]Vgl.Malte Grützmacher/Jörn Heckmann,Autonome Systeme und KI -vom vollautomatisierten zum autonomen Vertragsschluss? -Die Grenzen der Willenserklärung,CR 2019,S.553 f.即使在自主系统内部,仍可根据不同的自主程度(表现为人类在多大程度上不再参与决策)作出进一步区分。[29]Vgl.Reichwald/Pfisterer,Autonomie und Intelligenz im Internet der Dinge,CR 2016,S.208 ff.从整体发展趋势来看,人工智能的自主性越来越强,与之相应的则是人类作用的逐渐减弱,人与机器关系的这种动态变化,引发人与机器的法律地位问题,进而影响权利义务关系的配置。
(三)差异化的自主性影响缔约过程
众所周知,缔结契约是意思表示达成一致的结果,人工智能通过影响意思表示介入缔约过程,这种影响在意思表示的两个组成部分(即内心意思与表示行为)[30]Vgl.Werner Flume,Allgeneiner Teil des Bürgerlichen Rechts,Bd.2.Das Rechtsgeschäft,1992,S.45 f.均有体现。从表示行为方面来看,人工智能介入缔约过程外在表现为意思表示与人类的分离,即意思表示并非由人类作出而是通过特定设备表达。然而,这种现象并非新生事物,通过特定设备作出意思表示在日常生活中比较普遍,例如自动售货机、自助打印机等皆属于意思表示与人类相互分离的范畴。由此,自主性的差异在表示行为层面表现得并不明显,虽然强人工智能和弱人工智能的自主性存在差异,但是可能同样表现为通过特定设备作出表示行为。自主性的差异更多体现在表示内容层面,即人工智能对于形成特定表示内容的参与作用不同。人工系统作为意思表示的媒介,经历了由单纯的工具向自动化再向自主化的发展过程,在意思形成过程中发挥的作用越来越大。与之相应的,则是人类施加的影响被逐渐削弱。
在缔约过程中,部分自动系统、完全自动系统和自主系统具有不同的自主性,主要体现为表示内容的形成对于人类预先设置的依赖程度,即意思表示的内容完全由人类确定抑或某些要素可由系统自主产生。例如,当冰箱里的牛奶消耗殆尽并满足了相应设置的条件,冰箱会启动订购程序。如果这些设置中包含订购的种类、数量、价格以及出卖人等具体信息,那么,冰箱实际上只是在一步一步地执行人类预先设置的具体条件,触发特定条件时冰箱应该作出什么反应完全是在设置中预先规定。在这种情况下,冰箱并未作出任何自主决定,真正决定订购环节各要素的是人类。[31]在此情形下,由人类承担意思表示的法律效果更容易被接受,因为人类能够预见到指令执行所产生的效果,并且往往追求这种结果的实现。由于是人类设定了具体条件,有的观点将人类视为意思表示的发起者(initiator)。Vgl.Nink,Rechtliche Rahmenbedingungen von Serviceorientierten Architekturen mit Web Services,Göttingen 2010,60.但是,如果冰箱并没有这些预先设置的具体条件,而只存在抽象条件(例如,当冰箱里没有牛奶了),在满足此类抽象条件后,冰箱的后续操作基于算法的控制,通过算法的运作自己决定以何种价格、向哪一个出卖人订购等具体事项,那么这种冰箱就属于完全自动系统。如果发展到自主系统阶段,冰箱不再需要人类对于某一特定事项预先设置条件而只需要人类提供概括的技术框架,冰箱可以自主决定是否需要补充食物并根据使用人的生活习惯进行自主选择并向自己选定的出卖人发出订购信息。可见,差异化的自主性意味着,人工智能在不同程度上替代人类作出意思表示,对意思表示的内容产生不同程度的影响。
三、人工智能介入缔约过程的定位——法律效果归属
一项客观上由人工智能作出的表示行为,人类与人工智能在意思形成过程中各自发挥的作用,决定该项表示行为的法律效果归属。如果特定设备表达的内容最终可以溯及于人类的意思,法律效果归属于人类则具有正当性。[32]参见[德]迪特尔·梅迪库斯:《德国民法总论》,邵建东译,法律出版社2000 年版,第199 页。但是,随着人工智能自主性的不断增强,意思表示的内容可以越来越多地由人工智能决定,人工智能对外作出的表示内容是否仍然可以追溯到人的意思成为问题。[33]由于系统的自主性和智能不断增强,将意思表示归责于系统背后的人类这种方式在未来是否合理存在疑问。Vgl.Fritz-Ulli Pieper,Wenn Maschinen Verträge schließen:Willenserklärungen beim Einsatz von Künstlicher Intelligenz,GRUR-Prax 2019,S.298 ff.
(一)具有部分自主性的人工智能:以自动系统为典型
在机器自动作出表示行为的情况下,自动系统反映出人与机器的不同分工。虽然人类通过预先设置对表示行为的作出施加影响,但是在自动系统作出表示行为的时间点,客观上没有任何人类作出意思表示。但是,自动系统只具有部分自主性,尚不能完全脱离人类预先指令的控制,其作出表示行为的过程仍然存在明显的人类作用。这一事实,成为确定自动系统作出表示行为之法律效果归属的关键因素。
1.解决问题的方法
由于自动系统仍然依赖人类的预先设置,首先需要考虑的是将自动系统作出的表示行为之法律效果归属于人类。在现有法律制度框架内,主要存在如下可能的解释路径:
(1)代理规则的适用
有的观点主张适用代理规则,将自动系统视为使用人的代理人。但是,在迄今为止的法律规范体系项下,这种观点并无充分的说服力。首先,自动系统不具有权利能力和必要的行为能力,不具备作为代理人的法律资格。[34]代理人应当具备权利能力且至少具有限制行为能力。Vgl.MüKoBGB/Schubert,8.Aufl.,2018,BGB § 164 Rn.109.其次,代理人是自己作出意思表示,[35]代理人自己作出意思表示是代理人与使者的本质区别。Vgl.HK-BGB/Heinrich Dörner,10.Aufl.,2019,BGB § 164 Rn.4.而自动系统并非作出自己的意思表示。通说认为,意思表示包括客观构成要件(表示行为)和主观构成要件(行为意思、表示意识、交易意思)。[36]参见[德]本德·吕特斯、阿斯特丽德·施塔德勒:《德国民法总论》,于鑫淼、张姝译,法律出版社2017年版,第152-158 页。虽然客观上由自动系统作出表示行为,但是行为意思、表示意识、交易意思并非完全由自动系统产生,这些主观构成要件要素更多来源于人类,自动系统无法形成真正的内心意思,谈不上自动系统作出自己的意思表示。只不过随着自主性的增强,这种来源于人类的要素不断减少。当系统作出表示行为不再需要人类提供构成“意思”的要素,系统将会获得完全的自主性,届时基于算法形成的“意思”是否可以在法律上等同于人类的内心意思,是自主系统将会面临的问题。
正因如此,有的观点主张类推适用代理规则。[37]Vgl.Oliver Keßler,Intelligente Roboter -neue Technologien im Einsatz,MMR 2017,S.589 ff.然而,类推适用代理规则亦有不妥,集中体现为无权代理的责任承担问题。在代理法律关系中,出于保护交易的利益考量,代理人应当承担欠缺代理权的风险,即代理人在无权代理的情形下需要承担相应责任。[38]《中华人民共和国民法典》第171 条第3 款亦规定,行为人无权代理实施的行为未被追认的,善意相对人有权请求行为人履行债务或者就其受到的损害请求行为人赔偿。对于没有权利能力的自动系统而言,无法适用有关无权代理责任的规定。因为自动系统既不是权利的享有者亦非责任的承担者,它本身不能对错误的表示承担责任。由于自动系统无法自己承担责任,类推适用代理规则对合同相对人极为不利。在自动系统欠缺代理权的情况下,作为被代理人的使用人无需承受自动系统所为意思表示的法律后果,[39]除非构成表见代理。但是,表见代理之构成需要满足特定要件,例如某人多次或者在很长一段时间内担任代理人等可以使他人相信其有代理权的“权利外观”。Vgl.MüKoBGB/Schubert,8.Aufl.,2018,BGB § 167 Rn.111.而自动系统本身亦无法对此承担责任,最终只能由合同相对人自己承受不利后果。此外,使用人可能恶意主张自动系统欠缺代理权,从而利用自动系统无法承担责任的特点损害合同相对人的合法权益。为了避免由此产生的不公平,可以考虑排除或者限制无权代理的适用,即自动系统所为的意思表示均视为有权代理、限制无权代理的成立或放宽表见代理之构成,从而将法律效果归属于使用人。但是,这种做法的合理性不无疑问,自动系统适用代理规则将产生诸多相对于一般情形的例外,对既有代理规范体系形成冲击。主张适用或类推适用代理规则,却仅利用法律效果归属于被代理人的规则,而代理规则的其他内容却并不适用,无异于对适用代理规则之合理性的自我否定。所以,在既有法律制度下,对自动系统作出的表示行为,适用或类推适用代理规则均难以获致令人满意的解释。
(2)使者规则的适用
在自动系统不能作为代理人的情况下,转而适用使者规则亦是一种解决思路。因为,使者“只是以他人意思表示的传达人身份出现”,[40][德]迪特尔·梅迪库斯:《德国民法总论》,邵建东译,法律出版社2001 年版,第673 页。对于意思表示的内容没有施加影响,[41]Vgl.Riehm,Von Drohnen,Google-Cars und Software-Agenten-Rechtliche Herausforderungen autonomer Systeme,ITRB 2014,S.113.只是对于已经作出的意思表示的接收方式产生影响,符合自动系统并非作出自己的意思表示这一特征。因而,传达是事实行为而非法律行为,不要求使者具有行为能力。[42]Vgl.MüKoBGB/Schubert,8.Aufl.,2018,BGB § 164 Rn.71.但是,使者只是没有变更地传达一个他人既已作出的意思表示,以致于表示人也可以向接收人发送一封载有其表示内容的信件以代替传达人,[43]Vgl.Hans Brox/Wolf-Dietrich Walker,Allgemeiner Teil des BGB,2015,S.225.这一点又与自动系统作出表示行为的特征不符。申言之,使者所传达的是一个业已存在的具体意思表示,而自动系统并不是仅仅传达其使用人的意思表示,而是对意思表示内容的确定产生影响。
对于部分自动系统而言,虽然其在特定时间执行预先设置的具体条件,但是,人类只是预先设置了具体条件而已,相当于确定了组成意思表示内容的各个“意思”要素,尚不存在一个具体、完整的意思表示,与使者传达他人已经形成的意思表示在结构上不同,这些要素结合产生具有法律意义的意思表示是在系统内部完成。至于完全自动系统,人类只是设定了抽象指令,系统可以自己确定意思表示的某些具体内容(例如,智能助理软件收到人类指令之后基于算法而向某个出卖人发出订购的表示),决定意思表示内容的各个“意思”要素并非全部来源于人类。虽然完全自动系统并未排除人类的控制,但是对于意思表示的内容所施加的影响客观存在。可见,自动系统对于意思表示而言,显然不是一封信可以代替,与使者的特征不相符合。因此,将使者规则适用于自动系统,亦缺乏说服力。
(3)面向不特定人的意思表示
还有一种观点认为,自动系统作出表示行为与自动售货机面向不特定人的意思表示具有相似性。[44]Vgl.Müller-Hengstenberg/Stefan Kirn,Intelligente (Software-)Agenten:Eine neue Herausforderung unseres Rechtssystems -Rechtliche Konsequenzen der “Verselbstständigung” technischer Systeme,MMR 2014,S.307 f.诚然,在自动售货机发出意思表示之时,客观上没有人类的直接参与。但是,自动售货机的法律构造与自动系统存在差别。自动售货机作为一种辅助订约的手段,对意思表示的参与仅仅是改变了表示行为的方式。与自动系统相比,自动售货机具有更加明显的工具属性。从法律关系的角度来看,可以将自动售货机视为意思表示的表达工具,只是将所有人或使用人预先设定并储存在其中的“意思”表示于外。[45]类似于纯粹的电子订购工具(elektronische Bestellhilfen)。Vgl.Dienst/Falke (o.Fußn.7),14.Teil,Rn.11.因此,自动售货机提供货物或服务应当被视为其所有人或使用人的意思表示。与之不同,自动系统并非只是单纯的工具,而是具有更多的自主性,可以对意思表示内容的形成施加影响。与自动售货机储存所有人或使用人的具体意思表示不同,自动系统往往没有人类预先确定具体的产品种类和数量,因而事先不存在足够确定的意思表示。[46]Vgl.Patrick C.Leyens/Henning Böttcher,Anfängerhausarbeit -Zivilrecht:Computergenerierte Willenserklä rungen,Anfechtbarkeit und Erklärungsrisiken -Der smarte Kühlschrank,JuS 2019,S.133 ff.此外,自动系统与自动售货机的不同之处还表现在,自动系统作出表示行为并非面向不特定人,往往是向具体、特定的合同相对人作出表示行为。这种面向特定人作出的表示行为,更容易受到表示受领人的信赖。对于法律效果归属的确定而言,受领人的信赖保护亦属重要考量因素。鉴于自动系统与自动售货机的差异性,这种将自动系统类比自动售货机的方案亦无法解决问题。
上述几种方案具有共同目的,将自动系统作出的表示行为之法律效果归属于使用人。但是,这些方案存在以下不足:(1)类推适用现行法中的某项具体制度,具体制度的适用需要满足特定要件且适用范围有限,难以与自动系统的特点契合,类推适用将产生大量的法律解释问题(例如,自动系统没有权利能力却可以作为代理人的正当性)。(2)对于自动系统的特殊性缺乏充分认识,通过技术手段实现的自主性,在自动系统阶段表现出既不同于人类以往制造的工具亦不同于人类“自主”的特征,简单地将自动系统视为“人”或“工具”难言适当,而既有制度恰是建立在这种主体和客体明确区分的基础上,并没有充分考虑机器自主性的特殊之处,类推适用现有制度难免产生问题。(3)虽然自动系统在很多方面具有不同于传统机器的特点,但是,“自主性”才是影响表示行为法律效果归属的核心要素。上述方案过于注重表示行为的法律效果归属于使用人,关注点在于现有制度中是否存在可以实现这种结果的制度安排,自动系统的自主性对法律效果归属的影响未获应有重视。
2.计算机表示理论
本文认为,应当从自主性角度出发确定表示行为的法律效果归属。正如前文所述,机器的自主性从无到有、从弱到强。在机器不具有自主性的时代,机器充其量作为人类意思表示的表达工具,意思表示的法律效果由人类承担并无任何问题。机器逐渐具有自主性的事实导致在意思表示过程中人类与机器所起作用的改变,原本由人类承受意思表示法律效果的制度安排出现问题。随着机器自主性的实现,在意思表示形成和发出的过程中出现了人类与机器的分工。并且,机器的自主性越强,其在意思表示中的参与度越高,与之相应,人类所发挥的作用越小。在这种情况下,意思表示是由人类作出还是由机器作出则产生疑问。由于人类在意思表示中作用减弱,将意思表示的法律效果归属于人类变得并非理所当然。如果未来机器能够代替人类作出意思表示,问题将会更加突出。
既然自主性是影响表示行为法律效果归属的核心要素,那么,如何通过自主性确定法律效果归属?一种方法是,划分不同程度的自主性并分别适用不同的规则。然而,机器的自主性是渐进发展的。虽然人工智能的自主性存在差异,但是,差异化的自主性很难依据某一标准进行精确区分。因此,在区分不同程度的自主性基础上分别确定表示行为之法律效果归属的实现难度很大。根据自主性确定法律效果归属,应当注意如下方面:第一,系统的自主性对应着人类对系统的干预和控制,二者呈现一种负相关关系。第二,自主性的差异并非一定导致不同的法律效果归属规则,系统的自主性在某个区间内可以适用相同规则,因为在此区间内存在相对稳定的因素,即人类对系统作出表示行为的干预和控制。因此,本文主张在自主性问题上进行视角转换,从人类的干预和控制角度确定表示行为的法律效果归属,自动系统和自主系统的大致划分实际也是以是否存在人类干预和控制为标准。在自动系统阶段,尚不能脱离人类的干预和控制。在此情况下,德国法上的计算机表示(Computererklärung)理论可资借鉴,因为这一理论实质上即是从人类干预和控制的角度分析将表示行为的法律效果归属于人类的正当性。
计算机表示通常被理解为,计算机基于程序自动生成且随后通过电子方式传输给接收者的表示行为。[47]Vgl.JOSEF MEHRINGS,Vertragsabschluß im Internet -Eine neue Herausforderung für das “alte” BGB,MMR 1998,S.30 f.与传统的意思表示相比,计算机表示的特殊性在于,在表示行为生成和传输的时间点上均不存在人类行为的积极参与。根据迄今为止关于意思表示的法教义学,此类计算机表示仍被归于自主性系统的使用人。[48]Vgl.Reinhard Singer,Staudinger/Singer (2017) Vorbem zu §§ 116-144 Rn.57.申言之,计算机表示理论的前提是自主性系统不具备法律主体资格,通过对意思表示进行解释的方法将表示行为的法律效果归属于自主性系统的使用人。虽然在表示行为作出的时间点上欠缺行为意思、表示意识和法效意思,但是系统的投入使用是基于使用人的意思。在这里,表示行为的法律效果归属于系统的使用人,要求系统的使用人存在“概括的既已存在的意思”(generell vorhandene Wille)和“一般的表示意识”(allgemeine Erklärungsbewusstsein)。[49]Vgl.Spindler/Schuster,Recht der elektronischen Medien,4.Auflage,2019,Vorbemerkung zu §§116 ff.Rn.6.简言之,使用人使用计算机系统的目的是为了让该系统在特定情况下启动相应程序并完成一系列操作,这种主观意思在使用计算机系统之初即已存在或者按照通常理解可以推知,其中就包含接受计算机系统完成相应操作后之法律效果的意思。如果使用人已经做好准备接受计算机系统执行操作后的法律效果,那么,计算机操作所引起的对其有利抑或不利的后果,均由使用人承受则具有合理性。所以,按照计算机表示理论,系统运行后相应预设的完成即已足够,计算机产生的表示可以作为使用人自己的意思表示而归责于使用人。
据上所述,计算机表示理论适用于在特定时间执行人类预先设置之具体条件的部分自动系统当无疑问,此类系统作出的表示行为之法律效果应当由其使用人承担。问题是,计算机表示理论是否适用于完全自动系统?根据前述计算机表示理论的内容,决定意思表示法律效果归属的关键在于人类对计算机系统的控制,即从系统的使用到执行操作均可追溯到人类的概括意思。即使表示行为的作出并非基于使用人具体的行为意思、表示意识和法效意思,计算机系统亦是在使用人概括的行为意思及表示意识基础上工作。所以,必要的人类参与对于一个计算机表示是否可以被视为意思表示至关重要,是将意思表示的法律效果归属于系统使用人的基础。本文认为,由于完全自动系统并未完全脱离人类预先设置,人类在此类系统作出决定并执行的过程中仍然起到重要作用,因而计算机表示理论仍可用以解释完全自动系统作出表示行为的相关问题。因此,根据计算机表示理论,自动系统作出的表示行为之法律效果原则上归属于使用人。并且,由于使用人的概括意思具有较大解释空间,计算机表示理论能够广泛适用于因机器自主性而产生的表示行为之法律效果归属问题。
3.使用人的概括意思
计算机表示理论要求使用人具有概括意思,表明使用人对于计算机系统作出表示行为存在控制或者至少存在控制可能。对于计算机表示而言,一项意思表示的存在是必需的,即系统客观作出的表示行为可能基于一项包含表示意识在内的人类意思。[50]Vgl.Dennis-Kenji Kipker/Piet Birreck/Mario Niewöhner/Timm Schnorr,Rechtliche und technische Rahmen bedingungen der „Smart Contracts“ -Eine zivilrechtliche Betrachtung,MMR 2020,S.509 f.由此,使用人对于计算机系统在某些情况下可能作出表示行为在一定程度上可以预见。根据计算机表示理论确定表示行为的法律效果归属,关键在于认定由计算机系统作出的表示行为是否可以溯及到一项人类的概括意思。
如前所述,人类对于自动系统可以施加干预和控制。但是,可以施加干预和控制的主体并不限于所有人,还包括处于控制地位的其他主体。由此,可以形成概括意思的主体应理解为实际使用人,包括所有人以及所有人以外的其他第三人。在第三人介入的情况下,计算机表示理论的适用具有特殊性。以本文前述Alexa 订购货物的情形为例,Alexa 作出的表示行为一般情况下可以归属于所有人,因为购买和使用Alexa 是基于所有人的概括意思,Alexa 作出的表示行为可以溯及至所有人的概括意思。然而,如果Alexa 接受第三人的指令作出表示行为,并且所有人对此并未参与或者并不知情,情况则大有不同。此时,不能以存在使用Alexa 的概括意思为由将法律效果归属于所有人,因为所有人的概括意思并不包含接受Alexa 并非基于自己的指令而作出表示行为的法律效果。[51]使用人的意识是必需的,存在物理强制或无意识行为的情况下,使用计算机系统不能认为存在操作者的行为意思,即使有时只需打开计算机即为已足。Vgl.Christoph Sorge,Softwareagenten -Vertragsschluss,Vertragsstrafe und Reugeld,Karlsruhe 2006,S.27.因此,不能径自认为购买使用自动系统即包含使用人的概括意思,而应就具体的意思表示进行考察。由此,在第三人介入的情况下,如何确定表示行为的法律效果归属成为问题。
本文认为,在第三人介入的情况下,确定表示行为的法律效果归属,需要从以下两个方面进行分析:一是,从意思表示层面出发,以计算机表示理论为基础分析系统作出的表示行为可以视为哪一主体的意思表示,从而将表示行为的法律效果归属于这一主体;二是,从交易安全角度考虑,交易相对人的合理信赖应当受到保护,相对人的信赖保护不仅影响表示行为的法律效果归属,而且涉及通过其他途径保护相对人合法利益的问题。
(1)归属于实际使用的第三人?
在第三人介入的情况下,第三人对自动系统作出表示行为施加干预和控制,自动系统作出的表示行为可以溯及至第三人的概括意思。因此,根据计算机表示理论,表示行为的法律效果原则上可以归属于第三人。
但是,存在第三人实际使用却无法依据计算机表示理论确定法律效果归属的情形,即不存在有效的第三人概括意思。例如,在前述Alexa 订购玩具屋的例子中,小女孩行为能力欠缺和新闻播音员缺乏表示意识,他们对于自动系统作出表示行为是否存在有效的概括意思即存在疑问。如前所述,不管表现形式如何(如提供操作说明、使用智能电子代理),[52]Vgl.Reinhard Singer,Staudinger/Singer (2017) Vorbem zu §§ 116-144 Rn.57.计算机表示理论终究要求使用人具有概括意思。这一概括意思属于人的意思表示,虽然概括但亦须包含行为意思和表示意识。需要注意的是,不具备有效的概括意思,导致仅有系统作出的表示行为而欠缺构成意思表示的意思要素,因而意思表示不能有效成立。在此情形下,涉及如何保护相对人合理信赖利益的问题。对于第三人概括意思,欠缺行为能力和欠缺表示意识导致的法律后果存在差异。
行为能力是指“理智地形成意思的能力”,[53][德]迪特尔·梅迪库斯:《德国民法总论》,邵建东译,法律出版社2001 年版,第409 页。主要指向对自己所为表示具有法律意义的认识,对于是否存在表示意识和法效意思产生影响。在表意人无行为能力的情况下,意思表示无效且不能予以补正;在表意人具有限制行为能力的情况下,除纯获法律上利益或者与其年龄、智力水平相适应的情形以外,意思表示效力待定并且可以由法定代理人通过追认予以补正。[54]参见[德]哈里·韦斯特曼:《德国民法基本概念》,张定军、葛平亮、唐晓琳译,中国人民大学出版社2013年版,第21 页。因此,如果小女孩无行为能力,则不存在有效的概括意思,自动系统作出的表示行为之法律效果不能由小女孩承受。如果小女孩具有限制行为能力,是否存在有效的概括意思则取决于法定代理人是否追认:如果法定代理人予以追认,则由小女孩承受上述表示行为的法律效果;如果法定代理人不予追认,则因不存在有效的意思表示而不能由小女孩承受表示行为的法律效果。此外,民法对于行为能力欠缺者的保护优先于交易安全,[55]参见王泽鉴:《民法总则》,北京大学出版社2009 年版,第251-252 页。相对人的信赖不能成为行为能力欠缺者承受表示行为法律效果的原因。
表示意识并非构成意思表示的必备要素,在表意人欠缺表示意识时,表示行为的法律意义与交易安全的保护和法律交往的风险分配相关。通常认为,如果满足以下两个要件,即使欠缺表示意识亦存在有效的意思表示:①通过运用交易中需要的谨慎,表意人本来能够认识和避免,根据诚实信用原则和交易习惯其表示可以被理解为意思表示;②受领人实际上也是这么理解的。[56]Vgl.Kitz,Hoeren/Sieber/Holznagel,Multimedia-Recht Werkstand:52.EL April 2020,Rn.63.可见,两个要件分别考量表意人的谨慎义务和受领人的信赖保护。在前述Alexa 订购玩具屋的情形,新闻播音员欠缺表示意识,表示行为的法律效果是否可以归属于新闻播音员,需要检视是否符合上述两个要件。首先,新闻播音员没有违反谨慎义务。新闻播音员并未实际使用Alexa,并且只是进行新闻报道而非处于订约过程,不负有交易过程中的谨慎义务,只需承担从事新闻报道活动通常应尽的注意义务。因此,在进行新闻报道的情况下,新闻播音员难以预见自己说话的内容被Alexa 接收并错误地作为指令予以执行,并不负有防止其谈话内容发生任何误解的谨慎义务,并不存在违反其本应负担的谨慎义务之情形。其次,相对人不存在对新闻播音员表示行为的合理信赖。相对人收到的信息是由Alexa 发出,相对人可以合理信赖Alexa 执行所有人的指令,但是无法形成Alexa 执行新闻播音员指令的合理信赖。因为新闻播音员并非Alexa 的实际使用人,只是他说话的内容偶然被Alexa 接收并予以执行,相对人正常情况下根本不知道Alexa 发出订购信息的背后还有新闻播音员的存在,不存在信赖新闻播音员表示行为的问题。诚然,相对人的合理信赖应受保护,但是需以存在合理信赖前提。至少在本文所举例子的情形中,由于欠缺表示意识且不属于例外成立有效意思表示的情形,表示行为的法律效果不能归属于新闻播音员。
以上分析体现了确定自动系统作出表示行为的法律效果归属的思考步骤:(1)溯及确定使用人的概括意思,根据计算机表示理论将法律效果归属于使用人;(2)因无法确定或不存在有效的概括意思导致不能适用计算机表示理论确定法律效果归属,需要检视对交易相对人的利益予以保护的其他途径。其中,前者属于表示行为的法律效果归属问题,后者实际上是通过相关主体承担责任的方式维护合同相对人的合法利益。
(2)交易相对人的利益保护
如果自动系统的表示行为之法律效果无法归属于实际使用人,交易相对人将会面临独自承担自动系统投入使用所产生法律风险的不利境地。基于合同的相对性,意思表示只发生在缔约当事人之间,对于自动系统作出表示行为的情形亦是如此,即只有自动系统背后的实际使用人才会形成概括意思,没有参与缔约的主体并未作出意思表示。但是,即使没有作出意思表示并不意味着不能实现表示行为的法律效果归属。此外,有关主体可能基于其他原因需要承担相应责任。
除了实际使用人以外,与自动系统关系最为密切的是所有人。如前所述,Alexa 执行第三人指令的情形不在所有人概括意思范围内,Alexa 作出的表示行为之法律效果归属于所有人似乎并不适当。然而,不容忽视的是,交易相对人通常会对Alexa 执行所有人的指令产生合理信赖。如果交易相对人的合理信赖可以归因于所有人,表示行为的法律效果归属于所有人则具有合理性。例如,所有人主动告知他人密码、将设备开机并交给小孩使用等导致第三人利用自动系统作出表示行为。但是,由于所有人并非实际使用人,其承担责任应当限定在一定范围,否则对于所有人而言并不公平。[57]Vgl.Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.如果所有人一旦购买和使用自动系统即需要对此类系统的一切表示行为承担责任,那么,是否购买和使用此类智能产品将成为消费者不得不考虑的风险进而降低消费者的购买欲望,最终不利于新型产品研发和相关产业发展。本文认为,只有在所有人明知第三人使用自动系统作出表示行为且有义务避免此种情形发生而违反有关注意义务的情况下,所有人才需对表示行为承担责任。因此,在所有人将自动系统出租或出借给第三人的情况下,虽然所有人知道第三人使用自动系统作出表示行为,但是出租或出借属于法律允许的范畴,所有人没有义务避免第三人使用自动系统作出表示行为,因而所有人无需负担表示行为的法律效果。
此外,在自动系统作出表示行为的情况下,合同相对人面临的主要风险是无法知晓究竟是与谁订立合同。为了保障合同相对人决定是否参与缔约的自由,应当通过某种手段使其能够知悉与其缔约的主体。在此,对自动系统进行预先设置是一种实现方法。例如,可以将自动系统作出表示行为设置为必须经过所有人同意或授权,自动系统作出某项表示行为之前应当询问所有人是否确认,[58]Vgl.Dominique Ziegelmayer,Einkaufen mit “Alexa” -einfach,aber nicht ganz unproblematisch,URL:https://www.focus.de/finanzen/experten/amazon-einkaufen-mit-alexa-einfach-aber-nicht-ganz-unproblematisch_id_7072494.html.(abgerufen am 12.September 2017)具体的确认方式可以是输入密码、面部识别、指纹识别、声音识别等,经过所有人确认发出的意思表示,即可视为所有人自己的意思表示,进而表示行为的法律效果归属于所有人。这种方式既可以使合同相对人信赖其是与所有人订立合同,又可以保证法律效果归属于所有人的表示行为均经过自己认可同意。然而,这种方式的实现离不开技术支持,需要自动系统的生产者采用合理的技术设计方案并采取措施保障有关功能可以正常使用。如果自动系统的设计、制造或者使用说明存在错误,导致自动系统存在故障而未经所有人确认同意即作出表示行为,考虑合同相对人的合理信赖可以让所有人承担表示行为的法律效果,所有人在承担责任后有权要求生产者、销售者承担责任。
(二)具有完全自主性的人工智能:以自主系统为示例
与自动系统不同,自主系统无需预先的参数输入即可独立自主地作出法律决定,通过机器学习、深度学习等技术手段从大数据中学习新的行为方式,甚至可以在人工神经网络的帮助下独立自主地学会新的决定模式。显然,计算机表示理论中体现使用人概括意思的干预和控制(如相关技术设置)在自主系统中并不明显甚至已不存在。由此产生如下疑问:计算机表示理论是否仍可用于确定自主系统所为表示行为的法律效果归属?如果计算机表示理论不堪为用,应当采用何种方法解决这一问题?
1.计算机表示理论无法适用
由于自动系统作出表示行为仍然需要人类的预先设置,法律效果归属于自动系统的使用人具有合理性。与此不同,自主系统是自主作出表示行为,并不存在足够的人类贡献。不同于自动系统作出的自动的(automatisierten)意思表示,自主系统不再根据事先准确定义或者至少概括的条件作出意思表示,而应称为自主的(autonomen)意思表示。[59]Vgl.David Paulus/Robin Matzke,Smart Contracts und das BGB,ZfPW 2018,S.431 ff.当自主性到达特定程度时,自主系统的行为不再可以预先确定,对于人类而言亦非可以完全预见。在这种情况下,不再能够确定地说,通过自主系统产生的表示行为是否源自使用人以及是否可以归责于使用人。[60]Vgl.Peter Bräutigam/Thomas Klindt,Industrie 4.0,das Internet der Dinge und das Recht,NJW 2015,S.1137.正是由于自主系统具有高度或完全的自主性,大多数观点认为计算机表示理论无法适用于自主系统。随着智能和学习能力的增强,系统的决定过程越来越独立并且对于系统的使用人而言越来越不可预见,以致于是否存在计算机表示理论中作为归责基础的使用人概括意思并不确定。[61]Vgl.Spindler/Schuster,Recht der elektronischen Medien,4.Aufl,2019,Vorbemerkung zu §§ 116 ff.Rn.7.在人工智能技术的加持下,自主系统作出表示行为乃是基于算法的实现,由于缺少对数据处理结果的可预见性,使得将自主系统作出的表示行为归责于自然人的方法在法律上受到强有力的怀疑。[62]Vgl.Malte Grützmacher/Jörn Heckmann,Autonome Systeme und KI -vom vollautomatisierten zum autonomen Vertragsschluss? -Die Grenzen der Willenserklärung,CR 2019,S.553 ff.如果人工智能的自主性达到可以完全脱离人类控制的程度,那么,通过计算机表示理论将法律效果归属于使用人将会面临问题,因为表示行为的作出并未体现使用人的概括意思,表示行为的内容系完全自主地形成。因此,之所以自主系统不适用计算机表示理论,是因为人类在表示过程没有实质贡献,缺乏可以追溯至人类意思的具体客观事实。但是,亦有观点主张自动的意思表示与自主的意思表示适用同样的处理原则,将自主的意思表示作为各自使用人或操作者自己的意思表示进行归责,使用自主系统参与法律交易在各种情况下均可追溯至人类的意思。[63]Vgl.David Paulus,Die automatisierte Willenserklärung,JuS 2019,S.960 ff.
由此可见,问题的关键在于对计算机表示理论中所谓人类之“概括意思”的理解,即“概括意思”的涵摄范围到底有多大?是否人类使用自动系统或自主系统的意思即可涵摄之后的自动系统或自主系统作出的具体表示?本文认为,计算机表示理论并非对传统意思表示理论的否定,恰恰是考虑到意思表示所需的主观要件而对机器自动作出表示行为进行的解释,其基本的逻辑进路为:虽然在意思表示作出的时间点上不存在使用人具体的行为意思、表示意识和法效意思,但是,如果不再局限于意思表示作出的时间点,作为意思表示组成部分的行为意思、表示意识和法效意思已经存在于使用人对人工系统的使用之中。可见,在计算机表示理论中,计算机表示的法律效果归属于使用人,是将表示过程在时间上拉长进行观察,落脚点仍在于使用人的意思表示。因此,计算机表示理论的基础在于,存在可以视为使用人意思表示的事实。正如前文所述,虽然使用人的意思比较概括,但是依据计算机表示理论确定法律效果归属要求必须存在该项概括意思。
由于自动系统只有部分自主性,使用人对系统作出表示行为仍有不同程度的控制,决定意思表示内容的各个要素仍然可以追溯至人类,人类对自动系统的使用(例如打开设备开关、通过语音唤醒)可以视为基于使用人的意思使系统处于运行状态,这种控制可以作为将表示行为之法律效果归属于使用人的基础。但是,在自主系统中并非如此。自主系统所具有的自主性,使系统作出表示行为并不依赖于人类预先设置,并且人类对此缺乏理解或者根本不可预见。虽然将自主系统投入使用源于人类的意思,但是,具体情形下自主系统所为的表示行为却不能追溯到人类,甚至人类完全无法预知自主系统将会作出什么样的表示行为。也即,不能将“概括意思”仅理解为使用计算机系统的意思,仍然应当存在体现使用人行为意思和表示意识的事实,或者使用行为可以被评价为包含“概括意思”。具体而言,必要的意思存在于设备的使用操作或者相应的程序设定之中,虽然使用人在具体情况下并不确定意思表示的内容,但是确定所有内容确定的要素。[64]Vgl.Helmut Redeker,Geschäftsabwicklung mit externen Rechnern im Bildschirmtextdienst,NJW 1984,S.2390 ff.所以,由于缺少人类概括的行为意思和表示意识,计算机表示理论无法适用于自主系统。
2.法律效果归属的其他路径
鉴于计算机表示理论适用于自主系统存在上述障碍,不少研究试图在法律上寻找新的解决方案。如前所述,对于自动系统的表示行为之法律效果归属,存在主张适用代理规则进行解释的观点。由于自动系统没有权利能力,不具备作为代理人的资格,因而这种解释方案不如计算机表示理论合理。但是,自主系统的情况与之不同。计算机表示理论无法适用于自主系统,主要原因之一在于自主系统具有高度或完全的自主性,表示行为的作出与人类的相关性越来越弱,以人类概括意思为法律效果归属基础自然存在问题。人类作用的减弱以及系统自主性的增强,与承认人工智能法律主体地位的观点具有一致性。因此,不少学者试图通过承认自主系统具有权利能力解决法律效果归属问题。相对于自动系统,承认自主系统的权利能力更具合理性。但是,自主系统具有何种程度的权利能力存在不同认识:一种观点承认自主系统具有完全权利能力,另一种观点则认为自主系统只具有部分权利能力。
关于自主系统是否具有权利能力的问题,理论上多在“电子人”(E-Person)这一概念项下进行讨论。2017 年2 月16 日,欧洲议会表决通过《就机器人领域的民事法律规则向欧盟委员会的立法建议(2015/2103(INL))》,其中第59.f 指出,“从长期来看,应当为机器人设立一个特殊的法律地位,在这一点上,至少对于精致的自主机器人可以被确认为具有电子人的地位,对由其引发的全部损害负责赔偿以及在机器人作出独立自主决定或者在其他方面与第三人以独立方式交互的情形下可能有电子人格的适用”。[65]Vgl.Europäisches Parlament 2014-2019,P8_TA-PROV(2017)0051,Zivilrechtliche Regelungen im Bereich Robotik,Entschließung des Europäischen Parlaments v.16.2.2017 mit Empfehlungen an die Kommission zu zivilrec htlichen Regelungen im Bereich Robotik (2015/2103[INL]),http://www.europarl.europa.eu/sides/getDoc.do?type=REPO RT&mode=XML&reference=A8-2017-0005&language=DE#title1由此,对于电子人格的承认意在解决如下问题:损害赔偿责任的承担、确认独立自主的法律主体地位以及作为法律主体与第三人交往。可见,这种观点实质上将“电子人”视为与自然人、法人并列的另一类法律主体,并且具有完全的权利能力。在承认自主系统具有电子人格的情况下,自主系统不仅可以作为代理人而且可以自己为意思表示并承受相应的法律效果。但是,承认自主系统具有完全的权利能力存在问题:(1)自主系统没有责任财产,而没有责任财产意味着自主系统无法独立承担责任,这一点在一定程度上是对法律人格的否定,因为独立承担责任是法律人格独立的基本内容。如果没有责任财产却可以独立为法律行为并与他人成立法律关系,当存在需要自主系统承担责任的情形,有关责任的承担注定无法实现。(2)自主系统的自主性是一种技术上的实现,与人类作为理性主体存在本质区别,既不具有人类成为法律主体时的伦理性考量,又无法完全像人类那样认识事物。这种通过技术实现的自主性,更多强调相对于人类的独立性,实际上很难达到与人类同等的思维水平。特别是在道德方面,自主系统在可预见的时间内无法进行道德判断,法律领域的价值判断亦无法实现。因此,承认自主系统具有等同于自然人、法人的完全权利能力难言妥当。
另外一种观点通过类比未成年人(Minderjährigen)的权利,承认自主系统具有部分权利能力(Teilrechtsfähigkeit)。[66]Vgl.Malte Grützmacher/Jörn Heckmann,Autonome Systeme und KI -vom vollautomatisierten zum autonomen Vertragsschluss? -Die Grenzen der Willenserklärung,CR 2019,553 (559);Louisa Specht/Sophie Herold,Roboter als Vertragspartner? Gedanken zu Vertragsabschlüssen unter Einbeziehung automatisiert und autonom agierender Systeme,MMR 2018,S.40 ff.具有部分权利能力的主体,可以“作为特定的一种或几种多种法律关系参与者”。[67]刘召成:《部分权利能力制度的构建》,载《法学研究》2012 年第5 期,第132 页。这种观点有其合理性:(1)部分权利能力符合自主系统的特征。自主系统可以独立于人类自己作出决定并执行,从而可以替代人类完成特定任务,在思维方式和实际效果方面与人类具有相似性。但是,自主系统与人类存在本质区别,承认其具有完全权利能力并不合理。考虑自主系统的特征以及在特定法律关系中的作用,部分权利能力的定位更加适当。(2)可以实现确定法律效果归属之目的。承认自主系统具有部分权利能力,自主系统在交易活动中可以享有主体地位,并且可以将其权利能力限于作为代理法律关系中的代理人等特定情形,主体地位的获得使其作为代理人作出和受领意思表示不存在障碍,从而依据代理规则将表示行为的法律效果归属于作为被代理人的使用人。但是,将自主系统与未成年人进行类比并不合理。对于意思表示形成和发出的过程而言,自主系统与未成年人具有相似性,即意思表示真正源于“表意人”(即自主系统与未成年人)背后的主体(即使用人和父母)。尽管如此,二者存在以下不同:(1)是否具有权利能力。未成年人的权利能力是固有的,因而可以作出归属于自身的意思表示,而自主系统在不具备法律人格的情况下只能作出归属于第三人的表示行为。(2)相对人利益之保护。为了对相对人予以必要保护,通过自主系统缔约负有公示自主系统及其背后自然人的义务,以便合同相对人自己决定是否同作为自然人代理人的自主系统订立契约,未成年人为意思表示则不存在此类要求。(3)是否保护善意信赖。在无权代理的情况下,如果相对人不知道意思表示由自主系统作出,则基于保护善意信赖可以认定法律行为有效。但是,在未成年人作出意思表示的情况下,即使相对人不知道未成年人行为能力欠缺,法律行为仍属效力待定。
就目前的技术发展水平而言,需要赋予权利能力的自主系统尚未实现。未来随着人工智能的发展,是否会出现具有完全自主性的系统以及人类对于此类系统施加何种影响很大程度上仍然具有不确定性。本文认为,基于技术手段实现的自主性具有渐进性,即使承认自主系统具有权利能力,采用逐步渐进的方案更为合理。在某种程度上,这是一种实用主义的问题处理方法。具言之,在技术发展相对成熟、自主性实现程度高、具备其他必要条件的特定领域内,为了满足实际需要可以先行承认自主系统具有部分权利能力。在承认自主系统具有权利能力的情况下,一方面,自主系统作出表示行为的法律效果归属可以适用代理规则归属于被代理人抑或由自主系统自己承担相应法律效果,另一方面,无论自主系统具备完全权利能力还是部分权利能力,均涉及其是否独立承担责任、是否具有责任财产抑或通过其他制度设计将法律效果归于人类承担等问题。例如,即使承认自主系统具有部分权利能力,仍然涉及因为无权代理而向相对人承担责任的情形。
四、结论
自主性是人工智能的本质特征,这种自主性是一种技术上的实现。因此,与技术发展水平相应,人工智能的自主性程度具有渐进性。根据自主性程度对人工智能进行区分,目的在于明确不同自主性程度下人类对人工智能的干预和控制程度存在差异性。人类的干预和控制程度,影响人工智能作出的表示行为之法律效果归属。在尚未脱离人类预先设置的自动系统阶段,系统作出的表示行为通过解释归属于人类具有合理性,德国法上的计算机表示理论是一种有效的解释方案。但是,如果人工智能发展到无需人类预先设置而自主作出决定的自主系统阶段,人类无法事先确定或预见自主系统作出何种表示行为,那么,计算机表示理论等既有规则将面临无法适用的问题。在这种情况下,承认自主系统具有权利能力是确定表示行为法律效果归属的一种方法。鉴于人工智能的自主性是渐进的,如有需要亦应采用逐步承认自主系统权利能力的方案,即在特定领域承认自主系统具有部分权利能力,并在此基础上根据代理等相关制度认定表示行为的法律效果归属。