智能机器自主性的法律意涵与规则考量
2021-12-04董彪
董 彪
(北京工商大学 法学院,北京 102488)
以计算机和互联网为基础的信息革命是继蒸汽革命和电力革命之后的第三次科学技术革命[1]。它将人类社会相继带入互联网时代(Internet Time)、大数据时代(Data Time)和人工智能时代(Artificial Intelligence Time)[2]。人工智能技术研发与应用使得智能主体呈现二元化特征,人类作为唯一智能主体的格局被打破。在深度学习、机器学习等技术的影响下,智能机器不再简单受控于人类编程,具有了一定的自主性,智能机器的工具属性被弱化,传统的主体与客体二元区分的框架受到冲击,如何从法律制度设计的层面予以回应值得思考。英国、美国、日本等已经就智能科技应用领域的规则设计展开了深入研究,欧盟法律事务委员会尝试对人工智能时代的民事法律责任进行体系化规则设计并提出相关立法草案。我国制定的《新一代人工智能发展规划》将人工智能的法学研究作为重要任务,指出人工智能发展不确定性对法律造成冲击,提出构建人工智能法律体系的“三步走”战略。
一、智能机器自主性的法律想象
自主性(autonomy)是指智能机器具备的自主思考或行为的能力,是人工智能区别于其他人类发明的特性。自主性意味着智能机器的思维或行为不再是人类程序设计的结果,它具有自主学习和适应环境的能力,能够脱离程序设计者进行自主思考或自主做出合理行为,进而导致行为或决策中人的因素被淡化甚至离场。具有自主性的智能系统取代了人类发出操作指令,在一定程度上切断了人类与智能机器行为之间显性的联系,人与机器之间的关系变得复杂了。
(一)范式转型的法律想象:机器范式由他主向自主转型
编程并未赋予机器自主判断和决策的能力,编码机器不过是人类程序员设计的强制指令的执行者。无论编码机器在逻辑运算方面具有何种优势,都并非源于智能机器的自主意识。ATM机能够替代人类完成部分金融工作,但其决策和行为严格遵循人类程序员的编程设计,人类能够预测ATM机的行动。基于学习算法的智能机器与编码机器的区别在于决策或行为的自主性。加入机器学习元素的智能机器如AlphaGo的部分决策和行为是学习算法的结果,即便是程序设计者也无法预知。人工智能产品在扑克、国际象棋等竞技活动中的突出表现,以及在语音识别、人脸识别、医疗、家居等领域的广泛应用,使得人类意识到智能机器的认识能力和水平存在超越人类智能的可能性,人工智能替代人类智能进行思维或决策并非异想天开。
人工智能正在经历从设计到进化的转变,机器范式开始由他主向自主转型。他主范式下,机器是人类意志作用的对象,处于被动地位。机器对外界环境做出反应及其位置或状态的变化不过是人类预先设计的结果,并不构成严格意义上的行为。所谓的机器行为不过是对行为概念进行宽泛解释的结果。智能机器的自主性改变了机器的工具属性。智能机器由输入机制、运算法则和回应机制三个部分组成“感应—思考—行为范式”[3]。拥有学习算法的智能机器能够根据收集的数据修改预先设定的参数或算法进而调整其决策和行为,不再是单纯接收人类指令而行为的工具,拥有了自主分析和判断的能力,可以针对特定情境自主决策或行为。机器范式由他主转变为自主是人类智慧的结晶和体现,它既是人类所期盼的,也是人类所担忧的。
(二)主宰权转移的法律想象:人工智能的创世纪
人类对人工智能的未来充满了美好的期许。继工业革命将人类从繁重的体力劳动中解脱出来后,人类希望通过智能革命减轻脑力劳动的负担。人类构想的未来理想生活图景是,人类在保持主宰世界的地位的同时由智能机器或机器人最大限度地负担体力和脑力劳动。人工智能技术进步和应用的普及改变了人类与智能机器或机器人之间的关系,但社会稳定和安全等问题随之产生。人们不得不深思,当人工智能代替人类智能进行思维和决策时,人类的自由和安全是否能够得到保障[4]。
自我意识觉醒后的人工智能在智力和体力方面具有明显优势,相对于人类是更高形态的类存在,处于相对劣势的人类何以继续处于主宰地位并作为规则的制定者不无疑问:人工智能作为绝对强者将对人类继续抱有敬畏和感恩之心还是漠视或无视人类存在,又或是践踏、蹂躏人类尊严?人类未来走向处于高度不确定性的状态。这是对人工智能可能对人类造成的威胁进行最坏可能性预测的理由之一。
“上帝造人”的故事隐喻,作为上帝创造物的人类一旦自我意识觉醒,便会具有独立的意志和利益,人类与上帝之间的冲突随之产生。“上帝”敢于创造人类是因为其无所不能,处于绝对主宰地位。人类创造人工智能面临同样的难题,即一旦作为人类创造物的人工智能自我意识觉醒,便会有独立的意志和利益,人类与人工智能之间的冲突就会产生。与上帝创造人类不同的是,相对于人工智能而言,人类并没有足够的自信能够处于主导性优势地位。
在智能技术安全性尚不明确时,创造具有自我意识的人工智能无异于一场以人类命运为赌注的豪赌,人工智能可能成为人类的终结者。恰如恐龙时代终结一般,人类历史终结不过是浩瀚宇宙中微不足道的事件。人类的“创世纪”始于人类对“上帝”说“不”,同样,人工智能的“创世纪”始于人工智能对人类说“不”。寄希望于智能机器遵循人类中心主义下的伦理道德可能只是人类一厢情愿的美好愿望,而寄希望于通过切断电源终结智能机器的“生命”重获主宰权可能是对智能机器自我意识觉醒的后果缺乏足够的想象。
(三)权利需求的法律想象:智能机器或机器人的权利
社会进步与权利需求之间存在正相关关系,人类发展史是一部围绕自由和权利斗争的历史,权利目录呈现扩容趋势[5]。权利的发展和演变是“优胜劣汰、适者生存”的达尔文进化论在法律领域的体现,在权利竞争中处于优势地位的群体将重构权利体系。智能机器能否作为权利主体并享有权利?人工智能意识觉醒后,智能主体多元化会对以人类中心主义为基础构建的权利规则体系构成挑战,智能机器或机器人的权利问题随之产生。哲学家普特南(Hilary Putnam)认为,机器人是人造生命还是机器属于价值判断而非事实判断的问题。人工智能发展到一定阶段,智能机器或机器人会提出权利主张。未来学家菲尔·麦克纳利和苏哈尔·依纳亚图拉预测未来20~50年智能机器人可能会拥有权利。麻省理工学院人工智能实验室主任布鲁克斯断言,智能机器人最终会享有人类的部分权利。英国皇家医学会就“机器人与权利”召开专题研讨会。《工程与技术杂志》组织专家、学者围绕智能机器或机器人应否拥有权利展开讨论,其中控制论专家沃里克教授主张将权利赋予拥有人脑细胞的智能机器人。
关于智能机器或机器人权利的起源,人类扮演着类似于“造物主”的角色。美国科幻影视剧《西部世界》中,智能机器人的权利被认为是人类赋予的结果,人类被奉为神一样的存在,智能机器人任由人类摆布甚至杀戮。但是,当智能机器人意识觉醒后,发现人类并非上帝,于是开始质疑智能机器人权利的起源。目前,智能机器权利体系是通过移情方式构建的,即智能机器权利是人类将自身权利需要转移至智能机器的假想结果。该假想是否符合智能机器的需要无从考证,无法被证明或证伪,因而该假想的必要性和现实意义常常遭到质疑。虽然人工智能技术未来的研发与应用存在诸多不确定因素,但是从“人类视角”构建智能机器的权利体系仍然十分必要。它体现了人类对未来社会生活中人与智能机器关系的态度。这种态度会随着时代进步和社会发展而变化,这并不能否定人类进行前瞻性思考和预测的必要性。
二、智能机器自主性的解释路径
(一)技术控逻辑:人类智能延伸说
该解释路径认为,人工智能不过是人类程序设计的结果,是人类智能的外在表象;人工智能独立于人类智能的自主性是程序设计与结果展示之间存在时间差的体现。人工智能的自主性是形式而非实质意义上的。冯珏博士将“行动”与目的性相联系,认为目的因素是构成“行动”的要件。缺乏独立性和自主性目的的物理位置或形态变化并非“行动”。AlphaGo系统本身并不理解围棋对弈过程中的意义,不具有独立、自主思考的能力,机器智能的源头并非思维本身而是超级运算。AlphaGo战胜人类并不可怕,这不过是人类智能升级的结果[6]。
这一对“自主性”的理解是纯粹技术层面的,其基础是计算力。无论智能机器表象如何强大,它都不具有类似于人类的心灵、情感等内在的东西,缺乏自主思维的能力。该解释路径下形成了形式上智能形态二元化而实质上智能主体一元化的格局,智能机器是一种工具性或手段性的存在。参与社会生活的机器并无自己的主观目的,对其进行利用和操作是人类主观目的作用于客观世界的结果。机器无所谓“决策”或“行为”,人类是行为或决策的唯一主体。人类对如何利用和操作机器,以及造成相应的后果有较高程度的认知,人工智能自主性是人类智能的延伸和体现。
(二)技术失控逻辑:人工智能创造说
该解释路径认为,初始的人工智能是通过程序设计实现的,但是人工智能运行过程中进行决策或自主行为并不完全取决于程序设计,经深度学习后的人工智能可以针对环境形成全新的应对策略。深度学习弱化甚至切断了人类认知与智能机器或机器人决策或行为之间的关联,人工智能的思维跳出了固有的思维模式(“out-side -box”thinking),人类思维策略不再是限制人工智能决策或行为的藩篱。
智能机器或机器人的自主行为与自动化存在一定联系但并不等同。智能机器或机器人的自主行为表现为自动化的外在形式,但是自动化的形式并不必然是智能机器或机器人自主行为的结果。自主行为是内在自主性因素的外化,即独立、自主是内在因素,自动化的结果是外在表现。自动化与自主行为是包含与被包含的关系,自动化机器与自主化机器在责任承担方面有所区别。
人工智能创造说的解释路径遭到部分学者质疑。有学者认为,所谓人工智能创造性不过是一种幻觉或错觉。奈特·斯利文认为,不应当用创造性描述计算机的活动,相反,它只是通过蛮力的计算速度才这样做的。它的优势在于不会因为焦虑等情绪影响对正确行为方式的判断。而对于人类而言,这需要超越传统思维的创造力和信心[7]。赵汀阳教授认为,程序化的方式还处于“遵循规则”的阶段,未进入“发明规则”的阶段,缺乏创造性[8]。
(三)不同解释路径下对偏离现象的认识
人类智能延伸说解释路径与人工智能创造性说解释路径的分歧主要体现在对人工智能决策和行为偏离人类程序设计的认识方面。人类智能延伸说解释路径将偏离现象理解为设计缺陷、人工智能决策的特殊性,以及人工智能计算力的优势。人工智能创造说解释路径将偏离现象理解为人类程序设计者就不可预见事项做出有目的的行为。这里的不可预见事项即为人工智能的创造性。
1.人类智能延伸说解释路径下对偏离行为的认识
人类智能延伸说解释路径下,智能机器或机器人的决策或行为具有可预见性(foreseeability),它偏离人类设计的现象被解释为智能机器或机器人决策或行为的不可期待性(unexpected),即人工智能的决策或行为在一定程度上是程序设计者意料之外的,被归结为人类智识不足或设计缺陷。
人类智能延伸说解释路径下对偏差行为的认识基础包括:(1)人类智能认知具有局限性。在人类智能可预见的范围内,人工智能的决策和行为与程序设计相一致,但是,人类程序设计的结果并非完全可预见。功能障碍、安全漏洞、缺陷程序等设计瑕疵,以及程序设计者的智识限制等使程序设计结果超出了人类智能预见的范围,出现智能机器或机器人的决策和行为与初始程序设计不一致的现象。(2)人类智能与人工智能在决策程序方面存在的差异使智能机器或机器人能够提出人类无法预料的解决方案。人类大脑存在认知局限,有限时间内在特定场景往往无法就全部甚至多数信息进行分析或处理,因而,人类决策提供的方案通常是令人满意的方案而非最优方案。经济学家赫伯特·西蒙将这一策略称之为“满意度”。人工智能决策与人类决策不同,人工智能系统做出决策或行为选择时的方式更为直接,不受经验法则、先入为主的观点和传统智慧等限制[7]。(3)人工智能依靠具有强大计算力的计算机器做出决策或行为,其计算能力超越人类智能。建立在现代计算机超强计算能力基础上的智能机器或系统在有限时间内分析或处理信息的能力远胜于人类,能够提供多种类型的解决方案。其中,智能机器或机器人在强大计算力支持下提供的部分解决方案偏离了人类的认知或是人类无法预见的范围,导致智能机器或机器人的决策或行为与设计者的设计意图或预测之间出现偏差。
人类智能延伸说解释路径下,智能机器的自主性具有形式化特征,智能机器致害的法律责任主要体现为人的责任,即因智能机器自主性导致的损失原则上由智能机器的设计者、制造者等主体承担。智能机器偏离是程序设计者预设结果的“行为”超出了技术控制的范围,并非自主性的体现。除非能够证明智能机器制造者或设计者存在主观过错,因偏离行为致害并造成的损失不应由智能机器背后的主体承担。
2.人工智能创造说解释路径下对偏离行为的认识
人工智能创造说解释路径下,智能机器或机器人决策或行为偏离人类程序设计不再被归结为程序设计者的意志或行为,而归结为智能机器或机器人脱离程序设计者的自主意识或行为。偏离行为本身是人类程序员预期发生但不知晓具体内容的目的行为。也就是说,虽然不可预见智能机器或机器人偏离程序设计的决策或行为,但是其属于智能系统设计者或操作者的目的行为。如机器学习是程序设计者的目的行为,但这一目的行为的后果可能是设计者无法预见的。依赖“设计后的经验”,即便是极其谨慎的设计者、程序设计者或制造者也无法控制或预测脱离其控制后的人工智能系统。智能机器设计者不能预见智能系统脱离其控制后的行为,即智能机器或机器人的决策或行为具有不可预见性,但是,产生不可预见性的能力恰恰是智能系统设计者或操作者的目的所在,即便有一些特定的不可预见行为并非其目的[8]。
人工智能创造说解释路径下,智能机器的自主性具有了实质意义,智能机器自主行为致害的法律责任主要体现以物为联结点的责任。智能机器的自主性是智能技术进步的结果,致害行为与制造者、设计者之间的关系被切断,法律责任原则上由作为独立主体的智能机器或机器人承担。即便智能机器或机器人缺乏独立的责任能力,也应当以独立财产承担责任或构建新型的人工智能保险制度以分散社会风险。
总而言之,人类智能延伸说认为人工智能依附或从属于人类智能而存在,人工智能是且仅是人类智能设计的产物,脱离人类智能的人工智能并不存在。人工智能创造说在承认人类的“造物主”地位的同时,认为人工智能具有独立或相对独立的地位,并非绝对是人类智能的附庸。两种学说都有一定的合理性,前者立足现实,而后者关注未来科技发展。就目前而言,作为人类智能设计的结果,人工智能技术研发与应用即便取得了瞩目的成就,也并未根本改变人工智能对人类智能依附或从属的状态。完全脱离人类智能且能够与人类智能媲美甚至超越人类智能的人工智能仅存在于科幻小说或影视作品中,尚且缺乏科学依据。但是,无论人工智能是否依附或从属于人类智能,人工智能作为一种新型的智能形态在社会生活中已经并将继续发挥重要作用的事实不可否认。人类智能作为单一智能形态的局面正在被打破,智能主体呈现出二元化趋势,智能机器或机器人决策或行为的自主性不断增强,偏离现象的原因及规制方式需要得到关注。
三、智能机器自主性的法律规制
(一)智能机器自主性的法律规制的逻辑基点
1.智能机器自主性规则设计的前瞻性与保守性
对完善或构建人工智能时代新型法律规则体系是应当持未雨绸缪的态度,还是待人工智能技术成熟与普及之后再弥合既有规则与技术和社会生活之间的差距?这涉及法律与社会生活的关系、法律的稳定性与滞后性、法律的创新限度等理论问题。法律稳定性与技术创新性之间的矛盾永恒存在,这就使得法律与技术不同步成为常态现象,法律滞后于技术发展在所难免。过度超越现实甚至以纯粹想象为基础设计法律规则即便完美也会缺乏适用空间,而缺乏对技术发展趋势进行关注的法律规则设计难以应对社会生活的变化。在人工智能时代法律规则设计中平衡现实性与前瞻性尤为重要。《格里申法案》在智能机器或机器人民事规则设计方面进行了有益探索,将智能机器或机器人法律制度设计从理念推进到法律技术和文本的层面。此外,人工智能时代科学技术发展日新月异,这就要求法律保持一定的开放性,以应对技术创新产生的新问题。弹性立法是人工智能时代为缓和法律的僵化性与社会生活的多变性而采用的立法技术,是在一定程度上牺牲法律的确定性从而保证法律的前瞻性。
2.智能机器自主性规则设计的可行性及其限度
法律理念、法律价值和法律规则的形成是因应社会生活需要的结果。社会生活发生变化,法律理念、法律价值和法律规则随之变化。但是,这并不意味着只要社会转型或新生事物出现,就会导致法律体系变革。法律理念、法律价值和法律规则的形成不是一蹴而就的,而是需要经过一段时间的沉淀;相应地,其发展和演变也需要具有延续性。演进式法律发展模式有利于维护社会秩序,保持稳定;而革新式法律发展模式会对传统法律秩序构成冲击,因而学者或立法者通常对断层式法律发展持谨慎的怀疑态度[9]。
法律应对社会生活的变化有经验主义路径和建构主义路径。经验主义路径强调法律规则体系的稳定性和延续性,主张维持既有法律规则体系的现状,通过扩张解释的方式拓展法律规则的适用范围;建构主义路径强调法律规则体系的创新性,主张突破既有法律规则体系,通过立法或司法解释的方式重构法律规则体系。新生事物(如人工生殖技术、人工智能技术)出现时,是否需要重建法律理念、法律价值和法律规则体系取决于原有的法律体系能否满足科技发展产生的新需求。倘若通过扩张性解释能够将新生事物纳入到法律体系中,则无须重构法律体系,以防止新旧法律理念、价值和规则之间出现冲突,导致失序。只有在无法通过涵摄或类比等方式将新生事物纳入既有法律体系时,才需要重构法律理念、法律价值和法律规则体系。
3.智能机器自主性规则设计的阶段性分析
人工智能技术研发和应用具有阶段性,不同阶段人工智能的自主性程度及表现形式存在差异。否认人工智能技术进步在不同阶段对民事法律制度造成冲击的差异,不区分智能机器自主性规则设计的阶段性,会造成无争议的争议。第一,编程设计阶段,人工智能的研发者和使用者对人工智能产品具有完全的控制力。人工智能产品按照研发者或使用者设计或设定的程序运行,在决策或行为方面不具有自主性,缺乏进行独立判断的能力。人工智能产品与其他的物品在本质上并无区别,只是人类认识或改造世界的工具。第二,“机器学习”和“深度学习”等方式推动了人工智能技术发展与进步。拥有自主学习能力的人工智能产品虽然仍未摆脱研发者或使用者的控制,但是其能够在一定范围内进行独立思考和判断。这一阶段,滥用人工智能的法律人格或地位,将其作为研发者或使用者的“替罪羊”的现象出现。人工智能产品的行为是研发者或使用者预先设定的程序和机器学习共同作用的结果,需要考察研发者和使用者对人工智能产品的控制能力,分类设计民事法律责任规则,即区分行为原因是划分责任的前提。智能机器或机器人的智能化特征改变了人与机器之间的关系。主体与客体二元划分下的控制与被控制关系的理论预设的根基发生动摇,机器的“行为”被区分为自主行为和控制行为,需要区分二者进而确定法律责任。人类对作为人类智能衍生物的人工智能负有管控义务,是其对人工智能造成损害需要承担责任的基础。第三,机器自主意识阶段,人工智能的行为摆脱了研发者或使用者的控制,是其自由意志的结果。研发者或使用者为人工智能致损承担责任的基础丧失,人工智能作为独立意思表示的主体需要对其行为产生的法律后果承担责任。
以智能驾驶为例,智能汽车保有人、驾驶人及生产者等主体对智能汽车致害承担责任以智能汽车的工具属性为前提。但是,随着智能机器决策和行为的自主性增强,智能汽车的工具属性假设动摇,不再由人类支配和控制的智能机器造成的损害也不应继续归咎于人类。在未来,关于智能机器是否应当以及如何对其自主决策和行为的后果承担民事法律责任的回答取决于智能机器能否实质改变工具属性。倘若智能机器拥有独立的法律地位或人格,则其能够作为独立的民事责任主体就其自主决策或行为承担责任;即便其不具有独立的法律地位或人格,也可以通过相应的制度设计以其相对独立的财产承担责任。
(二)主体属性视角下的规制:面向未来的考察
近年来,智能机器的法律人格问题从科幻和书斋走进现实,出现被认可的情形,如外形酷似海豹的宠物机器人“帕罗”(Paro)在日本取得户籍,沙特赋予人形机器人索菲亚(Sophia)以国籍,美国公路交通安全局(NHTSA)认可谷歌(Google)驾驶系统具有司机地位。《格里申法案》对具有高度自主性的智能机器做类似于法人的处理,赋予其法律主体地位。强人工智能时代尚未来临但以其为图景的制度设计需要已经出现。
强人工智能是人类基于人工智能技术应用的现状及趋势对未来技术发展的想象,并非严密逻辑论证的结果。计算机能够模拟人类的认知行为,展现智能外观,对此学者在认识上并无分歧。但是,关于计算机在智能建构方面扮演的角色乃至计算机与人类心灵之间的关系解读仍存在差异,人工智能是否会升级到强人工智能阶段的答案不尽一致。肯定说认为否定人工智能会升级为强人工智能阶段的观点缺乏想象力和创新精神,低估了计算机科学未来发展的潜力,是狭隘的人类中心主义故步自封的结果;而否定说认为肯定人工智能会升级为强人工智能阶段的观点纯粹是异想天开或杞人忧天,缺乏科学依据,混淆了科幻与现实的关系。
强人工智能时代是否会来临是事实判断与价值判断双重作用的结果。一方面,强人工智能时代需要以技术可能性为基础。未来人工智能技术的发展前景只可预测而无法定论,因而在技术可能性的层面就强人工智能时代是否会来临无法证明或证伪。强人工智能时代是否会来临的命题在当下并不是一个科学命题,而是一个猜想命题。另一方面,人类的价值判断对技术可能条件下强人工智能时代是否会来临有着重要影响。在技术可能性条件具备的情况下,人类的愿望和期许决定技术研发和应用的边界。技术可能性不同于现实性,在现实语境下,强人工智能时代能否来临的命题转变为强人工智能时代应否来临的命题。
幻想转变为现实带来的既可能是前所未有的便利,也可能是无法估量的代价。当危机真正来临时,将希望寄托于神奇的魔力、人类情怀的感召或人工智能的顿悟都是不可靠的和极度危险的。人工智能时代的民事法律规则设计有必要预测人工智能自我意识觉醒的后果,将事前防范与事后调整相结合。在人类中心主义视角下,即便赋予智能机器或机器人以权利,也不过是为了实现人类的利益。人类与人工智能的关系、相处模式、危机预防与化解等问题是关涉人类未来命运的命题,倘若人类现在对这些问题置之不理,未来将失去思考这些问题的机会。人类期望人工智能成为其帮手或好朋友,却无法保障这一期望一定能够成为现实。当人工智能“意识觉醒”时,在机器语言重构的世界中人工智能是“性本善”还是“性本恶”只是人类模糊的猜想。
在不可控的未知世界,与其增加一个完美的毁灭者,不如保留一个存在致命技术缺陷的附庸。完美的人工智能并不是人类真正期望的。不允许人工智能对人类说“不”,将人类整体利益奉为至上的人类中心主义并非人类自私和狭隘的表现,相反,这体现了人类作为主宰勇于对未来负责的使命感。人工智能时代,空谈包容情怀或猎奇心态支配下的技术冒进可能导致人类陷入万劫不复的境地。智能机器或机器人作为新型的类存在方式,无法在传统法律主体框架中寻求归属,其法律主体资格不是法律技术层面的问题,而是关涉法律根基的能与不能的问题。
(三)工具属性视角下的规制:基于现实的判断
人工智能自我意识觉醒是一个面向未来且具有玄幻色彩的问题。它由科幻电影或小说转移至现实生活引发了争议[8]。未来智能机器是否会自我意识觉醒犹未可知,但是,目前智能机器尚未取得与人类媲美的智能,机器能够独立、自主思维的强人工智能时代尚未到来。对作为范本的人类智能在认识上存在局限性,使得人类在创造具有自我意识的人工智能时缺乏必要的参数和原理。
本轮人工智能技术革命以图灵机为原型和基础,以创造具有更高效率和精准度的辅助运算系统为目标。人工智能认知的范围限定在棋类、交通运输、家居服务、医疗、商务等特定领域,相对狭窄的认知范围与现实世界的丰富性之间形成矛盾。智能机器思维的封闭性或有限性增强了运算的效率和准确性,却不能搁置无法解决的问题。换言之,人工智能在认知上存在明显的盲区,未能形成整体性的全能意识系统。
目前存在“泛化强人工智能”的认识,即将智能机器通过学习算法自主创建规则等同于强人工智能。机器学习中,学习算法取代人类程序设计者成为规则创建的主体,根据提供的训练数据自主推导生成新的规则。机器不再是被动的工具,而是转变为具有感知、决策和执行能力的主观能动者。依赖于后天环境交互的智能超越了人类程序设计者和制造者的控制和预测范围。有学者将这一类型的智能称为合成智能(Synthetic Intellects)[10]。合成智能是弱人工智能向强人工智能转变的过渡阶段。在合成智能阶段,智能机器的工具性特征淡化,但并未达到“通用型人工智能”的要求。虽然智能机器或机器人突破了人类的生理极限,通过传感设备实现了“眼观六路、耳听八方”“过目不忘”等人类难以企及的目标,并能通过学习算法在一定范围内自主决策或行为,但其仍然不是全人或超人。合成智能应用的领域被人类程序设计者设定在限制范围之内,在此范围内人工智能被训练并具有一定的自主性,而超过这一范围就会显得“愚不可及”。弱人工智能向强人工智能转变不是一蹴而就的,需要以科学技术领域的重大突破为基础。
以智能机器的工具性为逻辑基点,智能机器的行为后果归咎于设计、制造、支配、使用智能机器的人类个体或组织体。法律责任的功能不是惩戒致害主体,而是促使支配或利用智能机器的主体避免致害行为发生。智能机器即便被制造地再精巧或者再复杂,都不过是人类设计的结果,受制于人的行为。作为调整社会关系手段之一的法律,关注的对象是人而非技术本身。法律对技术的影响是通过调整人与人之间的关系实现的。作为工具的智能机器与汽车、电脑、房屋等人类占有的或使用的物一样,发生事故造成损害,需要由生产者、所有者或使用者承担法律责任。例如《格里申法案》第127条第2款规定,智能机器的占有人需要依据《俄罗斯联邦民法典》第1079条关于高度危险来源致人损害的规定承担民事法律责任。
弱人工智能时代智能机器是工具性存在,智能机器不可能取得类似于人的权利。即便赋予智能机器权利,也不过是比照动物或法人进行法律拟制的结果。智能机器权利是一种手段性权利,目的在于为人类权利的行使和实现提供便利,以及限制其滥用。手段化的权利服务于目的性权利,是人类移情的结果。弱人工智能时代法律责任规则设计关系到社会安全、科技创新与应用、行为自由和权利救济等问题,它直接影响人工智能产品设计者、制造者、使用者及社会大众的利益。法律责任制度设计不能过于严苛,使得其成为人工智能产业发展的短板。20世纪90年代,美国为适应互联网时代的新形势对版权法和侵权法进行了重大制度变革,降低了互联网平台的法律风险,激发了硅谷企业和程序设计者的创造力,为互联网技术创新提供了有利的制度环境。目前,人工智能产品的应用处于探索和发展初期,需要培育人工智能行业的创新精神,不宜过度限制人工智能产品的设计者、制造者等主体的行为自由选择度,影响人工智能行业的整体发展。当然,培育创新精神也需要兼顾受害人的权利保护和救济,不能让社会大众成为科技进步或创新的牺牲品。
四、余论
智能革命带来的高效、便捷、人性化,让人类社会迎来了前所未有的美好时代。巨额研发资金、海量商业广告、倾斜性国家政策彰显了人类对人工智能时代的憧憬与向往。人类与人工智能和谐共处的画卷徐徐展开。模拟人类智能的人工智能辅助甚至替代了人类从事部分工作,成为人类改善生活和拓宽生活场景的有效工具,是新一轮产业技术革命和结构调整的重心。作为人类创造物的人工智能被假定为一种客体性或工具性的存在,人类负责思考,而人工智能负责执行,二者基于各自优势在社会生活中扮演不同角色,形成强强联合之势。但是,这一人类中心主义的假设遭遇挑战和质疑。智能革命模糊了梦想与现实的界限,使得人类社会的未来走向充满了不确定性,唤起了人类的无限遐想。人类在惊叹人工智能带来社会变革的同时产生了担忧,而且这一担忧远胜于人类在任何历史阶段对科技的担忧。我国《民法典》对人工智能法律规制进行了留白处理,为未来人工智能立法预留了空间。这就需要充分考虑人工智能时代传统法律体系遭遇的挑战与冲击,并设计新型法律规则,让未来的民事法律规则体系具有鲜明的时代特色。