APP下载

人工智能对法律价值的挑战与应对

2022-11-23

关键词:正义秩序算法

金 欣

(陕西师范大学 “一带一路”建设与中亚研究协同创新中心,陕西 西安 710119)

随着人工智能(artificial intelligence)在科技领域和人们日常生活中的广泛应用,人类社会已经步入人工智能时代。新科技的出现必然推动法律制度的变革,人工智能是一种对人类智能造成挑战的新科技,因此更需要法律变革来应对[1]。自2017年国家《新一代人工智能发展规划》等指导性文件发布后,法律与人工智能的研究成为热门的法学研究议题,许多学者相继讨论了人工智能对法律本身和司法等方面的挑战[2-6],一些部门法学者讨论了人工智能的法律主体地位、人工智能作品的知识产权问题以及人工智能的刑事责任能力等具体的法律问题[7-9]。当然,也有一些学者对人工智能对法律的挑战提出质疑[10],认为“人工智能并未对法律基础理论、法学基本教义提出挑战,受到挑战的只是如何将传统知识适用于新的场景”[11]。

这些研究或着眼人工智能对现有法律规范的挑战,或关注人工智能对现有法律规范的基础理论的冲击。但法律不仅是“一套规则的体系”,更是“一套意义的体系”[12],作为意义体系的法律意味着其规则中包含着一些特定的价值诉求和价值判断[13],或者说蕴含、提倡和追求着一些价值,这些价值在立法、法律解释和司法中都起着重要的作用[14-15],表现了“在人(主体)与法(客体)的关系中体现出来的法律的积极意义或有用性”[16]。这些价值被称为法律价值(legal values),一般包括秩序(order)、正义(justice)和自由(freedom)(1)相关研究参见张文显:《法哲学范畴研究》(修订版),中国政法大学出版社2001年版,第187-223页;张恒山:《“法的价值”概念辨析》,《中外法学》1999年第5期;[英]彼得·斯坦,约翰·香德:《西方社会的法律价值》,王献平译,中国法制出版社2004年版;周永坤:《法理学——全球视野》(第四版),法律出版社2016年版,第176-201页。秩序、正义和自由并不是法律价值的全部,本文仅以这3个具有代表性的价值来讨论人工智能对法律价值的挑战。。现代科技首先对人类社会的价值和理念带来挑战[17],法律是社会的主要规则,因此研究人工智能对法律的挑战,更应该从法律价值入手。

当代人类社会的生产力已经高度发达,但发展中也面临着众多风险,而且与工业社会相比,这些新的风险“完全脱离人类感知能力”[18]8,存在于科技发展的内部,人类日常经验通常无法感知。同时,虽然不断有对技术和工业的批判之声,但技术统治和自然主义在当代社会中仍处于核心地位,而科技发展“无意间把人仅仅视作有机体”,其掩盖了许多科技带来的“现代化风险在社会、文化和政治上的内涵及后果”[18]11。人工智能作为一种新科技,在对现有法律价值有促进作用的同时,更多的是带来了前所未有的风险和挑战。

一、人工智能对法律秩序的解构

法律是国家给人和公权力提供的一套具有可预期性的规则体系,所以秩序是法律保护和体现的首要价值。法律为国家和社会提供秩序,同时法律也维护现有的秩序,因此法律在追求安定性的同时,还具有一定的保守性。亚里士多德在《政治学》中曾言:“法律就是某种秩序,良好的法律必然就是良好的秩序。”[19]这说明了秩序对良好法律的重要性。法律体现、维持和保护的秩序主要有两类,即“关于财产和人身安全的秩序”“与公权力的设立、运行有关的秩序”[20]。人工智能的出现和发展对法律所维系的这两种基本秩序都造成了挑战。

人工智能的产生得益于数据量的增加和计算机运算能力的提升,这两个条件的发展与互联网的发展相伴随。互联网的发展激发了一个不同于以往社会和地理空间的网络空间(cyberspace)的产生。人工智能的活动空间不局限在传统的社会和地理空间,更多的是在网络空间。网络空间虽然具有虚拟性,但却实实在在影响着人类社会秩序,比如网络虚拟财产已成为一种重要的新型财产,在我国受到《中华人民共和国民法典》等相关法律保护。网络本身也是人类原有秩序的延伸,但因为网络空间的虚拟性并缺乏严格的国家性界限,因此在给人类带来新活动空间的同时,也增加了人类的生存风险。

而对主权国家来说,网络主权与领土主权相比具有一定的模糊性,所以网络空间在法律规制上跟领土空间相比更难,人工智能在网络空间的活动不仅可能破坏网络原有的社会秩序,侵害民族国家的网络主权,挑战国家权力的权威,还可能通过网络空间扰乱人类的现实秩序。同时,决定人工智能活动的是算法(algorithm),设计和掌握算法的多是像谷歌、微软之类的大型科技公司,对人工智能和网络空间来说,因为在技术上摆脱了纯粹的工具性,在不透明性之上具有了自主性,随之也产生了“算法权力”[21]。因此,掌握或开发算法的大公司在人工智能领域和网络空间中的影响力会超越民族国家法律的规制能力,算法权力通过网络空间和人工智能影响社会秩序和法律秩序。因为算法本身是一个“黑箱”,法律对算法的开发和运作无法进行有效的规制,而且算法的结果具有不确定性和不可预测性,所以法律对算法权力的行为和结果也缺乏有效的制约手段。

人工智能是对人类智能的模拟,这是对人作为法律秩序中主体的双重解构,一方面人不再垄断高级智能,另一方面基于机器和人的结合,人工智能可以增强人的智能,还可能产生人工智能与人脑结合的“合成人”。除了模拟能力之外,人工智能更具有独特的机器学习(machine learning)能力,机器学习是人工智能不同于其他科技的自我发展方式,其独特之处在于算法可以在没有特定程序的基础上以数学模型进行预测并做出决定[22],同时产生新的算法。艺术曾是人类的专属,但现在已经出现了大量人工智能创作的音乐专辑和油画等艺术作品。所以有学者指出:“所有知识,无论是过去的、现在的还是未来的,都可以通过单个通用学习算法来从数据中获得。”[23]也就是说,在知识获取上,人工智能可能远远超过人,具有代表性的是较多应用于医学和技术领域的人工智能专家系统(expert system),它们在很多方面已经超过了单个的人类专家。

如果人工智能发展到高级阶段,以强人工智能为基础的机器人可以深度学习,并具有了自主行为能力,自然会成为法律关系的新主体。这意味着在自然人和团体人之外(团体人的实际运作者也是人),机器人会成为新的法律关系主体[24],因此需要具有法律权利并承担法律责任,而在机器人与人的关系上会从传统的人机交互发展到人机共存,形成新的法律关系,这在现有的法律体系中都很难解决,需要法律秩序的重构。这是对现有以自然人和团体人为主体的法律秩序的解构,相应的社会和政治秩序也将被打破。现阶段,在基于人工智能的自动驾驶交通事故的责任分配上,已经出现了不少争议[25]。

一直以来,科技的发展都会给人类社会带来一定的次生风险,但往往在生产力提升和财富增长的表象中被许可或故意忽视[18]63-68,但这些次生风险极可能会危害人类的社会秩序和人类的发展。就人工智能而言,首先,人工智能可以促进常态的社会控制,但也潜藏了许多新的风险,而且在例外状态之时人工智能不仅不能促进社会秩序的维持,还可能加速社会失序[26]。其次,人工智能基于数据的运算,可以达到效率最高和利益最大化,但会侵犯社会固有秩序中的公序良俗。比如现在普遍出现的大数据杀熟现象,就是通过数据运算和信息不对称达到利益的最大化,这种行为是算法对社会伦理和公序良俗的侵害,在事实上也侵犯了消费者的权益,但现有法律很难对之进行规制[27-28]。再次,人工智能会替代许多产业,导致很多人失业,甚至可能代替一切人类劳动。劳动在人类社会发展中有极为重要的作用,约翰·洛克把劳动看成是财产权的根源;而亚当·斯密认为劳动是财富的来源;马克思则把劳动看成生产力的来源,他还认为劳动创造了人,“人与其他动物不同的地方在于劳动”[29]151,更重要的是在这些经典思想家看来,“劳动是人至高无上的建构世界的能力”[29]164-165。当人们因人工智能而放弃劳动,人自身和社会本身都会发生根本性改变,法律对秩序的维持变得困难。

最后,因为计算机的成本在不断降低,而数据量和运算速度每年至少以50%的速度在增长,新的算法也会让人工智能的学习能力不断提高,当可以深度学习的人工智能机器人成为法律主体,就会挑战启蒙运动以来形成的以人为基础、兼顾自然和社会可持续发展的现代法律秩序。而且随着生物科技的不断发展,人的大脑中可能会植入智能芯片,其运算速度和数据存储量是一般人的几何倍数,这种人加上人工智能功能的“新人”会进一步挑战以人类为基础的现代法律,法律所维护的秩序也会发生翻天覆地的变化。而且开发人工智能和生产机器人的速度远远超过人类繁衍的速度,如果人工智能机器人数量不断增加,超过人类的总数,社会秩序可能不再以人为基础,而是以人工智能为基础。

阿西莫夫“机器人三定律”所针对的是工具性机器人,但随着人工智能技术(特别是强人工智能)的不断发展,机器人已经从工具性角色转变为拥有自主行为能力,它们不再仅仅是人类的助手,而是会有自己独立的行为能力,甚至利益。政治社会学家斯科克波在讨论国家时提出了国家的“潜在自主性”问题[30],也就是说国家不仅会维护公共利益,国家自身也有其逻辑和利益,且不一定与社会支配阶级和全部成员团体的利益一致。如上文所述,人工智能的快速发展,经过不断的学习,可能产生机器人和人工智能的自主性,并有了自身的利益。此时机器人和人工智能已经不仅仅是工具,也很难遵守阿西莫夫“机器人三定律”。从运算能力和对利益最大化的计算来说,人可能完全不是人工智能的对手(比如阿尔法狗等机器人战胜人类棋手),因此一旦人工智能发展到具有完全自主性的阶段,人工智能就会从现在的帮助人或替代人的工作,变成威胁人的主体地位,甚至与人类争夺和竞争生存空间,这不仅会打破现代法律秩序,还会对原来人类社会秩序产生沉重打击。

总之,网络空间拓展了人类的活动范围,同时也增加人工智能的活动范围,但网络空间中的主权具有模糊性,因此人工智能可能在网络空间中挑战国家的权威。更重要的是人工智能挑战了以人基础的法律秩序,还可能产生自主性,动摇现有的法律秩序。

二、人工智能侵蚀下的法律正义

正义是维持社会健康发展的基础,是法律中蕴含的最重要的价值,也是人们评判和认同法律的重要标准,“人们期待法服务于正义,并实现正义”[31]153。拉德布鲁赫认为“实在法的价值标准和立法的目标是正义”[32]28,而正义的本质和核心是平等思想。法律之下的正义意味着法律需要维持人们之间负担和利益的平等,同时维护和重建社会的平衡或均衡,因此法律正义的核心元素是需要“相同的情况同样的对待,不同的情况不同对待”[33]153。亚里士多德将正义分为分配正义(distributive justice)和矫正正义(corrective justice)两类[32]29,前者主要是指国家用公法对财产和利益进行分配,后者是指社会中各主体在物质和利益交换中的平等和对价,所以也有人将其称为交换正义或平衡正义,主要是私法问题。现代法律所追求的正义通常分为程序正义和实质正义,体现在法律本身和立法、司法和执法的过程中。

作为法律主体的人生活在世界上,每个人都会有不同的运气,但法律是一般性的社会规则,是一种抽象简约的社会规则,法律“无法区分个体之间的异同”[33]154,它所蕴含和追求的正义建立在认为法律适用对象运气均等(luck equal)的基础上(2)这里所论的运气均等受到平等理论中运气均等主义(luck egalitarianism)的启发,但与之不同。运气均等主义的核心理念是指:“源于人们的自愿选择所造成的利益上的不平等是可以接受的,但源于人们非自愿选择的环境所造成的不平等是不公正的。”参见高景柱:《运气均等主义理论:证成与反对》,《世界哲学》2010年第4期。。也就是说,每部法律都会假设适用该法律的所有人的运气是一样的,因而法律在此基础上运行,对每个人都是平等的,程序上是正义的。比如一个国家的《民法》或《刑法》会把该国内适用这两部法律的所有人视作拥有均等的运气的个体,而《残疾人保护法》会假设适用该法的所有残疾人的运气是均等的。运气均等作为法律正义价值的起点,更多的体现在对程序正义的追求上。但运气均等仅仅是一种简约的假设,实际上每个人的运气是不同的,所以法律还需要追求实质正义来弥补程序正义的不足。人类生活中的运气可以分为两类:一类是自然运气,比如家庭出身、自然灾害等;另一类是个人选择的运气,比如工作地点和职业的选择等[34]。这两种运气的许多情况都可以通过人工智能的算法来提升,使之往好的方向发展。但因为不同群体和阶层对人工智能的使用程度不同,人和机器人的运算能力和水平也不同,所以会产生巨大的运气不均等,其破坏了现代法律追求程序正义的前提条件,会把更多的“不正义”转化成了“不幸”(3)对不正义和不幸之区别的讨论,参见(美)朱迪丝·N.施克莱:《不正义的多重面孔》,钱一栋译,上海人民出版社2020年版。。

美国学者用“数字鸿沟”(digital divide)一词来指在互联网时代,由于技术发展和分配的不平衡,带来了不同阶层、不同地区和不同国家之间的巨大差距[35]。由于数字鸿沟的存在,导致不同人群和不同地区在获取信息和获得机会上的差距,进而产生了巨大的不正义。人类发展到人工智能时代,互联网、大数据和人工智能的结合会让“数字鸿沟”进一步加剧,进而产生了“人工智能鸿沟”(AI divide)。换而言之,“人工智能鸿沟”意味着处于一些阶层或一些地区的人很容易接触和使用人工智能,并因人工智能的帮助让自己的生活变得更加便利,同时也带来了自我提升。他们在获得更多的信息和知识同时,人工智能还可以帮助他们规避社会风险,但还有些人则无法享受人工智能提供的服务或帮助,甚至接触不到人工智能。

以我国为例,北京、上海和深圳等一线城市,已经率先步入了人工智能时代,但是一些生活在偏远地区的人还使用着非智能手机;年轻人可以很容易使用人工智能产品,而对很多老年人来说人工智能是新生事物;中国和西方发达国家的人工智能日新月异,而一些非洲国家的人工智能尚未起步。事实上,不了解和不使用人工智能就会失去很多发展机会,但人工智能在偏远地区的运行因缺乏足够的基础设施而发展较为缓慢,所以生活在这些地区的人自然失去了相应的发展机会,这会导致国家内部的不平等和地区发展不平衡。此外,因为算法的不断发展和数据量的不断增加,“人工智能鸿沟”会比“数字鸿沟”表现得更大、更为突出,如果人工智能作为主体进入法律运作和社会秩序中,人与机器人之间的数字鸿沟将会有更大。而最棘手的问题是“人工智能鸿沟”带来的这些不正义目前已经初见端倪,但在现行法律体系下却是合法的,法律一定程度上对此也无能为力。

在“数字鸿沟”和“人工智能鸿沟”的基础上,会产生严重的信息不对称(information asymmetry),阻碍矫正正义的实现。处在人工智能鸿沟一侧掌握和获得人工智能帮助的一方可以获得更多的信息和知识,在交易过程中占据优势,但另一方可能因为无法获得信息,而处于弱势地位。信息不对称出现在交易或合同行为前,则会导致逆向选择(adverse selection),而出现在交易之后会导致道德风险(moral hazard)[36]。矫正正义是私法自治的表现,以交易双方的合意为基础,由交易或合同双方自主决定[31]165,但是由于人工智能的出现或参与,产生了巨大的信息不对称,在事前会阻碍市场信任的建立,出现逆向选择。经济学家阿克洛夫在《柠檬的市场:质量的不确定性和市场机制》中分析了信息不对称导致逆向选择的情形,他认为在很多市场上,由于买家无法在事前获取商品质量的实际信息,所以不愿意购买高价商品,掌握信息的卖家就有动力提供低质量的商品,因为“某种质量商品的价格主要决定于所有同类商品质量的统计数据,而非取决于该商品的实际质量”[37],这会使高质量的商品卖不出应有的价格。低质量商品会把高质量商品驱逐出市场,造成了劣币驱良币的结果,阻碍市场良性交易,还可能破坏整个市场秩序。信息不对称发生在交易之后的情况是,如果拥有信息的一方甘愿冒道德风险偷懒或为自己谋取利益,就会让缺乏信息的一方蒙受损失而不知。所以人工智能带来的信息不对称不管发生在事前还是事后,都会阻碍矫正正义的实现。

进而言之,人工智能带来的信息不均衡、智能水平不平衡以及破坏现代法律运气均等基础等造成了法律体系之中不正义的增加。法律是面向全社会的规则,从程序上说它假定适用一部法律的每个人都拥有相同的运气,因此该法律才能保证实现程序正义。在弱人工智能时代,由于人工智能鸿沟的存在,不同地区和不同阶层的人使用人工智能的机会和程度不同,因此在做出行为和做出决策的时候获得的信息和帮助不同,人工智能对事件的预测和评估能力远远大于人类[38]11,所以运气变得不均等。而到了强人工智能时代,人工智能不仅会成为法律主体,还可能参与人类社会的竞争,而人工智能算法通过快速的计算可以预测行为并计算事件发生的概率,会让它们拥有更多的运气。所以法律保障的程序正义很难实现,加上矫正正义又要面对太过复杂和多变的社会状况,难以实施,正义变成了虚无缥缈的幻影。

人工智能对法律正义价值的挑战在于人工智能不仅可以服务人类、模仿人类、增强人类,甚至可能代替人类。在这个过程中会破坏现有法律正义体系的基础性预设,进而腐蚀法律所蕴含和实现的正义价值。

三、人工智能干预下限缩的法律自由

人类社会的进步是人类不断摆脱奴役和压迫,个体逐渐获得自由和解放的过程,所以在马克思和恩格斯设想的共产主义社会中,“每个人的自由发展是一切人的自由发展的条件”[39]。法律中所蕴含的自由并不是宽泛意义上无拘无束的自由,而是法律之下的自由,如孟德斯鸠所言:“自由,不是无拘无束;自由,是做法律允许之事的权利。倘若可以做法律禁止之事,就不可能拥有自由,盖其他人也会享有这种权利。”[40]所以法律所推动和实现的自由是不同人的自由相互共存与和平相处的一种方式,是为了社会更和谐、更好的发展,正因为如此,密尔将自由定义为:“社会所能合法施加予个人的权力的性质和限度。”[41]法律中所蕴含的自由价值表现在法律对私人领域的保护和对公共领域的维持。换言之,法律要保护私人领域的自由,使个人在私人领域不受非法干预,同时维持公共领域来保持公共领域内的自由,使个人有参与公共事务的能力和机会。人工智能的出现已经开始对人在私人领域和公共领域的自由造成了威胁。

首先,人工智能压缩了私人领域,使个人隐私受到威胁,事实上限制了人在私人领域的自由。私人领域,主要是指个人的私人生活(private life)空间,“是家庭生活以及个人良知的领域”[42],主要包括个人的兴趣、欲望、情感、信仰、隐私和生活必需品的获得等方面[43]。但在智能互联网时代,人的绝大多数行为都会被以数据的形式收集起来,私人领域也例外。无处不在的摄像头和生物识别设备,手机上各种App和GPS定位系统、语音识别系统,时时刻刻都在搜集数据,这种搜集的过程是智能且悄无声息进行的,很多网络服务的条款让人在不知情的情况下把自己的行为数据上传。这些数据中的许多信息对人来说是终身性的,比如人脸信息一旦被识别,就终生不可更改。这种情况下,私人生活开始公开化和公共化,也就是说每个人都在有意或无意的把自己私人领域的信息通过微信等智能应用应用程序分享出去[44],这种自我披露的行为通常是在商家或算法设计者的鼓励下进行的,而这些私人信息会被转化成数据收集使用。这些数据构成了不断增长的大数据,其实是在侵蚀个人私人领域的自由,使个人的私人领域压缩。因为“匿名化对大数据的无效性”[45],人工智能通过对大数据的分析和运算,会对你的私人领域了如指掌,再用算法影响、引导,甚至控制你的私人领域,让你不知不觉生活在人工智能算法的规划和引领中。

因此,在互联网、大数据和人工智能的结合之下,人的生活看似更加便利了,但其实人就像住进了一个边沁所言的“全景敞视监狱”,无时无刻不在被数据采集设备监控、操控和规训(discipline),虽然福柯认为全景敞视监控模式已经通过纪律扩散到整个现代社会结构中,并被国家权力使用,因而已成为现代社会的常态[46],但人工智能无疑大大加强了全景敞视式的监控和规训的能力。人工智能对人的操控和规训是通过数据分析后向人进行智能精准信息推送和指导实现的,比如推送某种品牌的商品,推送某些特定的知识给你,从而控制你的选择和知识来源。这种推送和指导是以特定利益为目的(通常是商业公司或政府),但在不知不觉中改变和影响你的私人空间的行为方式和生活模式,甚至改变或影响了思想方式和内容。也就是说你在私人空间的行为实际上是被人工智能侵犯了。而这些行为多数并不违反当下的法律,或法律难以规制。

其次,人工智会增强企业和政府的控制力,减少人在公共领域的自由。人工智能的开发和使用主体多为拥有雄厚资金的大型科技企业或政府部门,因此在设计人工智能算法的时候,会以企业和政府利益为目的,同时由于企业和政府获取数据的数量和范围在不断扩大,它们对社会和普通人的控制能力会越来越强,很可能成为“技术利维坦”[47]。人工智能时代的社会控制不同于智能网络出现之前的状态,而是会打破私人领域和公共领域的界限,更精准地达到细致入微的程度,因此有学者称人工智能产生的“新型的监控技术为未来的独裁者提供了前所未有的希望”[48]258。在这种情况下,大公司或者跨国公司的影响力可能大于政府,而政府也可能和大公司联合起来,用人工智能加大对人民的“控制”。因为信息和数据获取的不对称性,大公司和公权力机关更可能蒙蔽民众,让压迫人民自由的法律得以在立法机构顺利通过,可以一步一步剥夺人民参与政治的机会和能力。因而可能产生一种基于大数据的人工智能极权主义[48]258。进一步看,如果如前文所言,强人工智能产生了自主性,那么也可能形成人工智能对人类的压迫和限制,让公私两方面的自由都不复存在。

最后,人工智能从选择的角度改变了人的自由观念。人之所以称之为人是因为人有高级的智能,因而有自由意志,人可以在合法的范围内选择自己想要的生活方式和物质需求。对一个来人来说,自由取决于向他敞开的选项的范围和质量,“以及他在这些选项中做出选择的能力”[49],简言之就是有选择,同时进行了选择[50]。但人工智能通过算法可以缩减人的选择范围,让人只在算法推送的范围内选择,而人工智能提供的选择范围是基于某种目的或利益,所以给人的选择数量可能会越来越多,但是会越来越同质化,实际的选择范围会越来越窄,而大部分人对这种有限的选择全然不知,所以在不知不觉中降低了人的选择能力。虽然这一切都是在现有法律规制的范围内进行的,但是实质上减少了法律所赋予人的自由,进而会让人原有的自由观念被改变。此外,人工智能的运算能力和数据量大大的高于人脑,所以人工智能的广泛使用会让人依赖人工智能来决策,这种决策本身是以理性、效率和功利计算为基础的,缺乏人性化的考虑,实质上是对人自由意志的剥夺。而同时如果发展到强人工智能时代,人依然依靠人工智能来决策,那么作为法律主体之一的人很可能被强人工智能蒙骗。

人工智能对法律自由价值的挑战首先会影响人在私人领域的自由,接着增强公权力和大企业的监控能力,减少人在公共领域的自由,还可能会影响人的自由观念。所以最后人工智能可以让法律纯粹变成压迫人和控制人的工具,消灭法律中的自由价值。

四、应对人工智能对法律价值的挑战

2020年5G的推广和使用,让“万物互联”,加速了人工智能时代发展的步伐。人工智能对法律价值带来的挑战中,不少问题看似只是未来的设想,但是可能很快就要到来。因此应对人工智能对法律价值的挑战是维护人类法律秩序和法律体系良性运转必须要面对的问题,所以探讨人工智能对法律价值的挑战并非杞人忧天。基于前文对人工智能的分析,从法政哲学出发,需要从以下几个方面回应人工智能对法律价值的挑战。

首先,保护以人为基础的法律秩序。人是自然界中智慧最高的生命体,人的发展是人类社会发展的标志,如康德所言,人“永远只能当作目的而不是单纯的手段”[51],因此法律秩序的根本性基础是人。人工智能的出现和科技的不断发展,需要始终坚持以人类中心主义为一切制度和规则的基础。这并不是说忽视自然界的万物,而是在面对价值和利益权衡的时候,要把人的生命、尊严和发展放在第一位,同时保护自然万物和生态环境,保持人类社会的可持续发展。如果在弱人工智能阶段,以人类为基础的秩序就是人工智能对法律秩序的影响要以人为目的,不能把人当成手段。而到强人工智能阶段,需要在秩序选择和利益权衡的时候把人放在人工智能等其他存在之前,并对人工智能的主体性保持警惕。如果出现人工智能和人结合的“新型人”,则要对这种结合设置界限,不能超越人性的底线和人类社会基本的道德伦理,从而保护人类社会秩序的良性发展。

日本和德国在规范人工智能发展中的做法可以参考和借鉴,日本总务省信息通讯政策研究所提出的人工智能开发指导方案,其中提出的人工智能开发五大理念之首是人与人工智能的“共生”,“建立一个尊重人的尊严和个体自主性的‘以人为本’的社会”[52]。2018年由德国联邦交通和数字基础设施部(Federal Ministry of Transport and Digital Infrastructure)牵头,联合英国、奥地利和欧盟委员会等国家和组织组成了伦理特别小组,发布了针对自动驾驶的研究报告,其中提出的建议都是以人的生命为首要价值:“在我们所有的价值中,保护人的生命是最高价值。在遇到不可避免的伤害之情况时,它具有无条件的优先性。”[53]

此外,人需要对人工智能参与的一些活动进行把关。比如人工智能在司法中的应用,虽然可能带来一视同仁,但是法律毕竟不能与算法等同,它有精确性的同时还有模糊性,人工智能提供的建议是依靠算法得出的概率和相关性,无法提供法律裁判所需要的因果关系和实现正义的实质判断(4)虽然科学家进行了很多尝试,但是“如何将人类价值观转入电子计算机依然尚不清楚”。参见(英)尼克·波斯特洛姆:《超级智能:路线图、危险性与应对策略》,张体伟、张玉青译,中信出版社2015年版,第25页。[54-55]。同时,司法过程中需要法官的自由心证和自由裁量,而心证和自由裁量需要人性化的斟酌和判断[5,56],这些是人工智能无法实现的。因此,在司法的过程中对因果关系的确立和自由裁量等问题,需要人类对人工智能的主导或辅助,以此来维持人性化的法律秩序。

其次,让每个人都有机会使用和接触人工智能,减小“人工智能鸿沟”,避免“人工智能鸿沟”破坏运气均等。减小“人工智能鸿沟”是再分配的过程,需要政府在人工智能资源分配上进行地区和阶层的平衡,对人工智能资源进行再分配,让欠发达地区和收入低下阶层也有机会接触和使用人工智能。而应对人工智能对运气均等的破坏,政府和企业需要发展人工智能的公益性,同时对人工智能的使用需要设定一定的限度,在一些领域和行为中禁止使用人工智能,以此来保持基本的运气均等。比如在一定时期内禁止人工智能和人脑结合来增强人脑。

再次,严格保护人的基本权利(特别是自由和隐私权),维护人的尊严。面对人工智能的快速发展,强人工智能时代会在不久之后到来,因此面对人工智能可能成为法律主体,甚至参与立法的情况,必须严格保护宪法赋予的人的基本权利和自由。这些基本权利和自由不可剥夺,不可被其他法律侵犯,同时应立法限制对私人领域数据搜集的范围。如果不坚持这个宪法的底线,法律蕴含的基本价值就会被以效率和功利为主要准则的技术立法消耗掉,加上人工智能助长了大公司和公权力的监控能力,人可能成为技术的奴役,成为人工智能的附庸,甚至出现人工智能极权主义政府。所以不仅要有专门针对个人隐私数据保护的立法,宪法中需要加入不可修改的基本权利、自由条款和人的尊严条款,用来应对人工智能对人自由的侵犯。2018年实施的欧盟《一般数据保护条例》(General Data Protection Regulation),对个人的敏感数据进行了严格保护,同时赋予个人“免于自动化决策”的权利[57]。

最后,人文社科工作者和律师需要参与人工智能开发,并对人工智能进行严格的法律和伦理审查[58-59]。现代科技把一切数据化,人工智能所依靠的算法是典型的代表,而算法本身是没有人性的,所以在人工智能开发过程中,需要人文社会科学工作者和律师参与其中,对人工智能可能产生危害人伦、道德和法律的可能性进行外部审核。如果能培养出一批具有人文素养的科学家、工程师和有计算机背景的律师,将是最好的选择,这样可以从内部对人工智能的开发进行审核和监控。目前已经有一些大学设置了法律和人工智能交叉学科的学位项目,就是要培养出人工智能时代的跨学科人才。此外,也需要国家进行人工智能伦理的立法工作,对人工智能设计中和完成后可能危害社会伦理和秩序的行为进行规制。

五、结语

在智能互联网时代,人工智能的发展日新月异,实实在在的进入了我们的日常生活。虽然目前仍处在弱人工智能的阶段,但比尔·盖茨和埃隆·马斯克等人都对人工智能的发展持警惕和悲观的态度,科学家霍金更警告说:“强人工智能的发展可能会让人类灭亡。”[60]事实上,弱人工智能和强人工智能并不是递进发展的关系,而是两种不同的研究分支[38]11,这意味着弱人工智能和强人工智能在同时发展,只不过目前我们所能见到的大多是弱人工智能产品。因此,随着强人工智能的不断发展,未来在社会生活中被广泛应用,法律价值也将会面临更多的挑战。

2016年7月,中共中央办公厅、国务院办公厅印发了《国家信息化发展战略纲要》,旨在规范和指导此后10年的国家信息化发展,该纲要第29条提出:“建设'智慧法院',提高案件受理、审判、执行、监督等各环节信息化水平,推动执法司法信息公开,促进司法公平正义。”[61]最高人民法院在2019年和2021年分别印发了《人民法院信息化建设五年发展规划(2016-2020)》和《人民法院信息化建设五年发展规划(2021-2025)》,布局和指导智慧法院的建设,重点强调和突出了人工智能在智慧法院建设中的应用。虽然本文所提出的人工智能对法律价值的挑战在现阶段的弱人工智能时代只是初见端倪,但随着人工智能在社会生活和司法中应用的不断深入,强人工智能时代也将在不久到来,如果不及时应对人工智能对法律价值的挑战,将会对现代人类社会长期形成的法律体系造成巨大的冲击,阻碍司法实现公平正义,也会成为人类社会和人本身的威胁。所以应对人工智能对法律价值的挑战,就是要防止人工智能侵害现代法律价值,让人工智能造福于人类,或者在未来与人类和谐共处。

猜你喜欢

正义秩序算法
打击恶意抢注商标 让市场竞争更有秩序
用正义书写文化自信
国际秩序的裂变及其未来
秩序
Travellng thg World Full—time for Rree
学习算法的“三种境界”
算法框图的补全
算法初步知识盘点
正义必胜!和平必胜!人民必胜!
正义必胜!和平必胜!人民必胜!