APP下载

人工智能刑事责任能力之否定

2022-11-08研,沙

学术交流 2022年1期
关键词:意志人工智能人类

郭 研,沙 涛

(1.西北政法大学 刑事法学院,西安 710063;2.东北财经大学 法学院,辽宁 大连 116025)

一、问题的提出

人工智能技术的发展给法律系统带来诸多挑战,刑事责任能力议题便是其中之一。近年来,国内外诸多刑法学者针对该议题展开了较充分的论证,但人工智能有无刑事责任能力的问题能否成为真问题值得探讨,尤其需要从本源上进行追问。一方面,需要讨论人工智能能否作为一个主体而存在,因为刑事责任能力附属于刑事主体;另一方面,人工智能是否能够发展到需要讨论其刑事责任能力的程度。针对上述问题的追溯,需要首先解决以下两个关联问题:一是人工智能的本体,二是人工智能的发展可能给刑法带来的挑战。

(一)人工智能的法律评价应基于社会性而非技术性

当讨论人工智能时,我们首先需要明确的是讨论的对象。在此之前,需要把握人工智能的不同发展阶段和智能类型,还要在此基础上对人工智能与机器人进行区分。

人工智能概念肇始于1956年达特茅斯学院举办的研讨会,会上约翰·麦卡锡教授提出,智能是实现目标的计算能力,人类、动物和机器具有不同种类和程度的智能,人工智能是科学和工程学上制造的智能机器,特别是智能计算机程序,可以理解为硬件。人工智能依其能力的广狭和强弱通常可分为弱人工智能、强人工智能和超强人工智能。强人工智能又称通用人工智能,是指可覆盖全部人类智能领域的智能系统。强人工智能不但能处理人类各个领域和类型的事务,而且更为重要的是它已经具有了类似于人类的自我认知能力。弱人工智能是仅涉猎一个或多个人类专门事务领域的智能系统,超强人工智能是超越了人类智能的智能系统。

实际上,人工智能在技术上的强弱区分并没有一条泾渭分明的界限,有的只是一条渐变的光谱,可以认为,自我认知能力是强弱人工智能的分水岭。当前,虽然通过技术认知对人工智能进行了强弱的划分,但在法律上却难以按照智能程度给出精确的划分标准。因为法律系统与其环境之间存在复杂性落差,法律系统为适应外界环境的复杂性压力,需要通过一般性法律规则来简化复杂性。法律系统并不具备对所有外界环境作出回应的能力,法律的行为指引功能也要求法律规范具有一般性和一定程度的抽象化,否则便难以被社会公众理解。我们在讨论人工智能的刑事责任能力的法律议题时,不应纠结于人工智能强弱程度的划分,而应以人工智能的具体应用实践和刑事责任能力的判准为对象展开具体的讨论。

近年来,人工智能技术应用广泛,最核心的应用场景莫过于自动驾驶汽车。自动驾驶汽车的安全性虽远高于人类驾驶,但并非绝对安全。自动驾驶汽车发生交通事故后的法律责任承担成为公众关注和学界热议的问题,似乎可以赋予自动驾驶汽车法律主体资格和责任能力,以此来解决责任分配难题。但这种看法实际上将人工智能与机器人混为一谈,忽视了人工智能系统与人工智能载体的差异。人工智能不等同于机器人,机器人只是人工智能的一种载体。机器人从词源来看,起初具有仆人、劳役之义。1979年,美国机器人学研究所将机器人定义为一部设计用以移动物体且可重复编写程序的多功能机械,或一部使用预先编排动作,用以完成多项工作的特殊设备。晚近以来的法律文献中,有学者将机器人理解为一个结构化的系统,在物理上及心理上可作为代理人。从以上机器人词义的变化来看,起初机器人是人类生产生活的辅助物,彼时机器人尚不涉及拟人的智能且外观呈现为有形实体;而晚近以来,人们对机器人的理解发生了变化,拟人的色彩日益浓厚。

在人们的想象中,机器人应是一个物理实体,尤其应是一个人形实体,这种想象很大程度上受到20世纪科幻作品的影响。在机器人与人的类比联想中,机器人概念便具有了智能的内涵,人工智能与机器人之间的关系变得暧昧起来。上述关于机器人的社会观念也影响到了法律人对人工智能与机器人关系的思考,但这种影响多是负面的,例如法律人据此开始纠结于机器人的主体地位和相应的权利义务,包括人工智能创作作品的著作权、人工智能的事故责任等。

“人工智能的本质在于算法和数据处理,物理形体不必然是人工智能的构成要素,因为即使是人形机器人,也不过是一个算法主导的硬件系统。”机器人只是人工智能的一种载体而非唯一载体。对法律规制而言,重要的不是人工智能的类人特征和外在形象,而是人工智能系统的社会交往属性。因此我们在研究人工智能的刑事责任能力时,不应纠结于人工智能的类人化特征,而应转向对人工智能社会交往能力的思考。所以,能够作为刑事责任能力议题讨论对象的是人工智能系统,而且是参与社会交往进而具有社会意义的人工智能系统。

(二)人工智能对刑法的可能挑战

从目前人工智能的实际应用来看,语音识别、图像识别、语言翻译、自动驾驶等领域的人工智能仍只是专门的人工智能,而非通用的人工智能。例如智能系统用于语言翻译就不能完成图像识别或自动驾驶工作。而且目前的人工智能还未呈现出获得自我认知能力的迹象。以人脸识别为例,人工智能系统作出识别是依凭算法、数据、深度学习等质料或技术实现的,但人工智能本身并不具有判断人脸美丑或善恶的能力。然而,人工智能虽尚未比肩人类智能,却已经给人类生活秩序带来了冲击。随着物联网、大数据和人工智能的深度结合,人类与人工智能的关系将日益紧密,人工智能逐渐参与到社会交往中来并非遥远的图景。在此背景下,社会交往的伦理和法理可能发生变化,原有社会制度和社会理念也可能陷入困境。对法律制度而言,人工智能的影响主要体现在权利义务的变动,原有的法律责任承担原理也面临改变的压力。

人工智能的突破性发展正在重塑社会交往关系,社会中的法律秩序逐步走向人与人工智能的复合,未来也存在演变为人工智能主导的法律秩序的可能性,而这种改变无疑具有颠覆性。例如在自动驾驶场景下,人类的社会角色从车辆的控制者——驾驶员,逐渐转变为接受自动驾驶系统服务的乘客以及自动驾驶程序的开发者和维护者等。在未来的道路交通法律秩序中,人类角色的转变可能导致权利义务关系的重新调整。在自动驾驶技术日益成熟的背景下,刑法上的交通肇事罪等罪名便可能出现处罚漏洞,这便是人工智能技术给刑法归责领域带来的一大挑战。

但需要指出的是,我们不应在抽象层面观察人工智能对法律的影响,而是需要结合不同法律的性质和功能来具体分析。例如在法律主体地位和责任能力方面,人工智能对民法和刑法的影响就存在显著差异。就刑法而言,人工智能是否具有法律主体地位取决于其刑事责任能力的有无。换言之,如果人工智能根本不可能具有刑事责任能力,则探讨其在刑事法上的主体地位便毫无意义。而在民法上,人工智能的法律主体地位与责任能力是可以分离的。人工智能主体地位与责任能力关系的民刑殊异,主要原因在于刑法上存在责任自负原则,即人工智能的刑事责任不能被人类主体替代承担,而民法上的责任是可以替代的,如雇主对雇员侵权责任的替代承担。因此,一方面,虽然法律主体地位与责任能力具有密切关系,但二者是两个不同的问题,不能混淆在一起;另一方面,刑法具有相对独立性,不从属于民法,人工智能即便具有民事主体地位也不意味着其当然具有刑事主体地位和刑事责任能力。因此,人工智能的刑事责任能力应结合刑法自身的性质和功能来思考。

二、技术思考:强人工智能只是镜花水月

(一)对人工智能理解的不同图像

对人工智能的探讨无疑兼具现实性与未来学的特点,对人工智能技术发展的不同想象,将会影响到人们对人工智能相关法律问题的看法。关于人工智能发展前景的预测,在技术层面存在乐观派(激进派)和悲观派(保守派)的分野。在社会人文层面,人们对人工智能是福是祸的看法也各执一端,乐观者多为人工智能领域的工程师和投资者,悲观者多为哲学、社会学、法学等人文社会科学学者。需要注意的是,从技术层面的乐观并不能当然推导出社会层面的乐观,反之亦然。当下人们对新技术的发展存在担忧,一方面原因是新技术的毁灭力量十分强大,超出了人类已有的认知经验;另一方面是人文精神、道德伦理的衰落,在经济利益面前技术很可能被一些人滥用,从而造成多数人的损害,甚至这种损害会像“飞去来器”一般,最终损害到技术滥用者。

在法学领域,一些学者在亲眼见证了最近几年人工智能技术的飞速发展后,对人工智能的未来前景持相当乐观(指技术层面的乐观)的态度,并以此作为预测未来的前提,认为人工智能技术已经或将要给既有法律系统带来重大挑战,需要立法作出前瞻修改以适应技术发展。而另一些学者则对人工智能技术的蓬勃发展冷眼旁观,认为人工智能现在处于并将长期处于弱智能阶段,人工智能现在不能且今后也不能比肩甚至超越人类,即便人工智能在智能上超越人类,也不意味着对人类的完全超越,因为除智能外,人类还具有心性、灵性等其他特质,包括直觉、想象力和同情心等。所以,在相当长的时期内人工智能不会对既有法律造成挑战,既有法律完全能够应对人工智能时代的各种“新问题”。还有一些学者对人工智能的未来发展持谨慎的乐观态度,认为人工智能确实给法律带来了挑战,但要首先区分影响与挑战,并将讨论焦点放在法律挑战上。人工智能所引发的实践问题如果仍然可以在既有法律框架内解决,那么它们就无法被视为“对法律的挑战”。

人工智能技术至今历经了三个发展阶段,每一阶段都有人作出非常乐观的预言,但至少前两次预言并未实现,相反人工智能的发展却曾屡陷低谷。这一次乐观者对人工智能的想象和期待是否能够变成现实,也即人工智能是否能发展出类人甚至超人的能力值得实践验证。毋庸置疑,人工智能目前仍处于弱智能阶段,即便人工智能的深度学习能力在大数据、云计算的合力推动下震撼了人类,但人工智能仍受控于人类并存在诸多缺陷,如算法黑箱、运行故障等。在可预见的未来,人工智能能否发展出自主意识和自由意志,发展到强人工智能阶段属于科学技术层面的问题,尚属未知。

技术乐观者认为,人工智能已经显现出强大的自我学习能力,且具有一定程度的自主决策能力,所以发展出自主意识和自由意志指日可待。人工智能距离人类智能只有一步之遥。他们的论据主要有:第一,Alpha Go以及它的升级版Alpha Go Zero利用深度学习技术在围棋领域已战胜人类的顶级选手,小试牛刀之后人工智能在其他领域匹敌甚至超越人类不是难事。第二,各主要国家纷纷制定产业政策支持人工智能技术发展,科技巨头如谷歌、微软、百度等投入巨额研发费用布局人工智能相关产业。类比摩尔定律,人工智能技术的迭代也将会十分迅速,强人工智能并不遥远。

技术悲观者认为:第一,乐观者的看法多是受到Alpha Go的震撼和对人工智能技术发展前景的过度乐观。但真相却是,Alpha Go并未如乐观者想象的那样强大,Alpha Go赢得围棋大战的前提是有充分数据和稳定外部环境,如围棋游戏规则的支持。至少目前Alpha Go在游戏规则更为复杂的网络游戏,如星际争霸中的表现就不如人类的专业玩家。第二,信息技术领域著名的摩尔定律如今已逐渐失效,计算机芯片处理速度的迭代升级在放慢步伐就是一个例证。通常情况下,一项技术在快速发展后将会进入瓶颈期或者终结期,人工智能技术的发展并没有如一些学者想象中的那样神速。人工智能历经半个多世纪的发展,一些曾出现在科幻作品中的场景成为现实,甚至对现实的改变要远超旧时未来学者的想象。这给了人们大胆预测、憧憬未来的信心,然而技术并不是无所不能的,人工智能技术也有它的发展极限。第三,一些关于人工智能发展前景的乐观研究报告经不住推敲。例如被广为引用的牛津大学尼克·博斯特罗姆等人所作的实证调查虽得出了较为乐观的预测结论,但他们的实证调查在样本上存在严重缺陷,不能代表人工智能研究领域的整体看法。实际上多数人工智能领域的专家较为保守,认为几十年内出现强人工智能的概率很低。现阶段的人工智能仍属于在“图灵测试”概念下界定的“智能”,它们在未来很长时间内都将是从属于人类的工具。

(二)人工智能的运作原理区别于人类智能

当下的人工智能技术主要建立在两个理论假设的基础上,一是可计算主义,认为人脑和心灵都像机器一样运作,因此可以被计算机模拟;二是神经主义,认为人脑可以完全解释心灵现象。目前人工智能的运作原理是仿生学的,即通过模拟人类大脑的神经网络建立起复杂的反馈机制。但反馈并不意味着智能,神经网络模型对应的是生物本能而不是人类智能。以Alpha Go为例,其运作依凭的是神经网络自动机原理,这一工作原理实际上在“人工智能”概念出现以前就已被发现。根据这一原理,“复杂的智能行为被简化成机器对外界刺激的反应和反馈。低层次的反馈是达到目的的行动;高层次的反馈因存在代表网络连接方式之参数随着输出结果的变化而不断地调整,其可以解释神经网络结构和相应行为模式的变化,也就是学习机制”。Alpha Go的诞生实际上不是因为人工智能原理的革新,而是因为互联网、大数据、云计算技术的发展,为神经网络自动机原理的应用提供了现实可能。神经网络模型对应的是生物本能,而不是人类智能,这也是起初神经网络自动机的功能没有被冠以人工智能之名的主要原因。

此外,目前科学上对大脑的认知仍然十分有限,人类的智能、意识以及道德情感等是否就是大脑神经元生化反应的产物还不得而知。而且科学对宇宙物质的了解也是未知大于已知,据估计目前我们能观测或侦测到的物质与能量仅约占宇宙总物质与能量的4%,其余则是由我们目前仍知之甚少的暗物质、暗能量等组成。而这些人类尚未了解的物质和能量对人类心智的形成可能发挥了很大作用。因此通过模拟人类大脑的生化反应,大概率来说是难以创造出人类智能的。

“人类智能不同于生物本能之处在于,人不仅具备选择的能力,还具备创造符号以及利用符号系统把握世界、并赋予世界意义的能力。”一方面,人类通过语言符号理解世界、拓展世界。另一方面,人类通过语言建构世界。建构世界的能力也就是期望能力。期望能力是社会交往的前提,人类通过调整认知性期望不断适应社会交往,通过信任规范性期望稳定交往的边界并拓展交往的多样性。而Alpha Go之所以被冠以人工智能之名,主要源于其具有的深度学习能力,因为学习能力是人类智能的主要内涵。但Alpha Go的深度学习能力仍只是一种高层次的反馈机制而已,这种运作机制不可能发展出真正的智能。换句话说,神经网络自动机原理下的人工智能无法理解和建构世界,因而也就无法理解其行动背后的意义。目前人工智能原理下的智能图景只是一种逼真甚至以假乱真的智能假象。

三、法理思考:智能不是刑事责任能力的充分条件

(一)从智能无法推导出自由意志

刑事责任能力的核心要素是自由意志,而人工智能不具有刑法意义上的自由意志。首先,刑法上的自由意志不等同于自动选择,自由意志还与道德可谴责性相关。自由意志包括辨认能力和控制能力两方面内容,其中,辨认能力包括对客观事实的辨认和社会意义的辨认。一方面,人工智能不能理解其举止的社会意义,也即人工智能对其作出的举止选择缺少社会意义上的理解力。因为人工智能根据事先设定的算法行事,在人工智能眼中万物皆数据,人工智能的举止选择只是基于算法和数据的反馈结果。尽管基于深度学习算法运行的人工智能日渐强大,但形式理性层面对规则的推理无法发展出价值判断能力,人工智能无法实现同人类一样运用超规则之上的价值判断,而价值判断能力是行动的社会意义的前提。另一方面,人工智能不具有真正的控制能力。以自动驾驶为例,自动驾驶系统虽然表面上能够根据路况、交通法规等环境信息作出驾驶决策,但这种决策机制实际上只是基于神经网络算法的一种反馈机制,这种决策机制类似于人类以及其他动物的本能反应,但本能并不是自由意志。可见,人工智能不具有规范评价意义上的行为目的性与独立控制行为的意志自由。其次,自由意志具有社会交往属性。虽然自然意义上的人与法律意义上的人并不等同,例如民法上将企业等组织体拟制为法人,刑法上将企业等法人拟制为刑事责任主体,但这并不意味着人工智能就能获得法律上的主体地位。一方面,法人主体的拟制原理不能适用于人工智能,原因在于法人的主体资格源于自然人,法人是自然人的集合,法人的决策是基于组织成员的集体意志,究其实质仍是由自然人作出。而且,法人犯罪在原则上都会处罚参与决策作出和执行的自然人。但人工智能的具体决策不是直接出于自然人的意志,而是基于算法作出的。随着算法的复杂度提高,甚至连编制算法的人也无法对人工智能的具体决策作出准确预测,因而不能仿照法人主体的拟制原理赋予人工智能法律主体地位。另一方面,虽然关于人类自由意志的有无和程度仍存在不同见解,但即便承认人类的自由意志是一种法律上的拟制,也不能直接得出人工智能可以具备自由意志的结论。正如有学者所指出的,纵使人类的自由意志是一种法律拟制,这种拟制也绝非凭空作出,而是以活生生的现实社会生活作为基础的。

虽然人类对自然的认知是相当有限的,我们对人类心智运作机理的所知远小于未知,因而自由或不自由在事实层面永远是一个无法通过实证检验的命题。但我们不能因自由的不可实证就推定人自由意志的阙如进而放弃刑罚,因为如果否定人的自由意志便是承认宿命,结果是人的主体地位被否定,而这也是对人的存在价值的否定,简言之就是把人类物化。应当认为,社会交往的可能性是刑法意义上自由意志存在的前提。而目前人类和人工智能之间的主观交流和探讨的基础尚不存在。因此,即便承认自然人的自由意志是一种法律拟制,也不能将该拟制原理适用于人工智能系统。

(二)自由意志是刑事责任能力的必要不充分条件

退一步讲,即使人工智能具备了自由意志,能够辨认和控制自己的社会性行为,它也无法具备刑事责任能力。刑事责任能力的有无除自由意志因素外,还至少要与道德情感因素相关。如果人工智能无法形成道德情感,就不会具有刑事责任能力。

在人工智能未形成道德情感之前,刑罚对其无意义,一方面其不能理解刑罚的道德谴责意义,另一方面也无法感受到刑罚带来的情感痛苦。所以在人工智能具备道德情感特质前,不应承认其刑事主体地位及刑事责任能力。刑罚具有道德属性是历史文化的产物,而人工智能不具有历史文化属性和由此产生的道德属性。因为“每一个人的生命存在和成长,都是一个社会的、历史的、文化的过程,这个历史过程本身是不可重复的”。未经历过真实的社会生活便不能获得道德情感。而人工智能无法依靠深度学习技术获得道德情感。虽然人工智能时代人类与人工智能的关系日益复杂,人工智能在与人类的交往中获得了一定社会性,但人工智能的举动仍不是刑法意义上的行为,因为人工智能欠缺了道德情感特质。即便工程师利用复杂的算法设计出了有情绪表达的人工智能系统,例如微笑机器人,但机器人的情绪呈现仍只是基于外界环境数据的反馈结果,而并不能理解其情绪的深层含义。

(三)刑罚只能对人类起作用

进一步讲,假使人工智能可以发展出自由意志和道德情感,刑罚对人工智能也是无效的。刑罚无效则处罚人工智能对实现刑法功能而言就无意义,进而刑事责任能力的赋予也将失去意义。

1.既有的刑罚体系是根据人类特点建立的,并不适合对人工智能的处置。人工智能既无肉身也无财产,这导致它对自由和财富既没有客观需求也没有主观欲望。因而,有学者主张变革刑罚制度以适应人工智能时代的需要,建议在刑罚种类上增设删除数据、修改程序、永久销毁、财产刑、权利刑等刑罚处罚方式。但是,对人工智能的这种所谓刑罚,实际上相当于剥夺人工智能系统所有者的财产,而非人工智能本身。在人类高度依赖人工智能产品的情况下,对人工智能施加刑罚还会产生变相限制甚至剥夺人类自由的效果。所以,对人工智能施以刑罚,本质上仍是对人的惩罚。由此可见,人工智能无论以何种方式承担责任,最终的责任承担者都是人类,这使得赋予它法律人格显得多余和毫无必要。据此,我们不应把对人工智能的处置同对人类的刑罚混淆在一起。

2.人工智能缺乏实体性。人工智能的本质是算法智能,而算法不是物理实体,因此,事实上缺乏刑罚的处罚对象。当前,人们依然以20世纪的类人化想象来理解人工智能,并试图针对人工智能的载体(如机器人)制定规范来约束它们的行为,甚至赋予这些载体以法律主体资格。但是,这种做法虽不能说荒谬,也至少显得不合时宜。以自动驾驶汽车为例,将汽车拟制为法律主体并无实际意义,因为实现自动化驾驶的不是汽车而是操作系统及背后的算法程序。例如,德国《道路交通法第八修正案》规定:“在自动驾驶系统接管状态下,驾驶员可以不对交通状况和车辆进行监控,但仍需时刻保持清醒戒备状态以准备随时接管;在自动驾驶系统向驾驶员发出接管请求以及当驾驶员发现自动驾驶系统不能正常工作时,驾驶员应立刻接管车辆。”即便随着技术的完善,自动驾驶汽车能够处理绝大多数紧急情况,但是,当自动驾驶汽车遭遇“电车难题”等决策困境时,仍然需人来最终决策,这个最终决策者可能是乘客,也可能是智能系统的运营者。一方面,人类不能接受绝对功利主义的智能算法,更不能接受自己的命运被人工智能掌握。另一方面,“数据库再大,也是依据已经积累的过去的资料来预测将来,而将来是开放的,所以决策和预测总是存在风险,因此,机器的决策永远不能够取代人的决策”。只不过由于自动驾驶技术的运用,在交通肇事等情境下,作为传统责任主体的驾驶员、机动车所有人等的责任在相当程度上已经被自动驾驶系统弱化。

3.有论者认为对人工智能施以刑罚起不到特殊预防、一般预防等行为规制功能,进而认为刑罚对人工智能无效。而人工智能基于深度学习技术,是有可能建立起刑罚与守法之间的反馈机制的,人工智能的决策建立于算法和大数据之上,意味着人工智能可以从以往的处罚案例中学习到罪与罚之间的因果关联,进而形成有罪必罚的反馈模式。因此在算法中设定相应规则是可以起到“预防作用”的。只不过这一“预防作用”仍是一种表象,因为人工智能并非是基于自由意志作出守法行动。

四、伦理思考:强人工智能应当被否定

如果上述假设全部成真,也即人工智能具有自由意志和道德情感,且刑罚对其有效,那么人类也不应允许可能对自己造成巨大威胁的人工智能技术自由发展。如果技术规制是必然的选项,那么人类实际上就不会允许人工智能发展到具有刑事责任能力的程度。

当今世界,科技高速发展,许多技术都曾引发人们的热议,如互联网信息技术、转基因技术、3D打印技术等,但人工智能引发的讨论更为丰富,讨论不仅涉及技术领域,而且引发了人文社会科学界的广泛关注。究其原因,人工智能技术挑战了人作为人的主体地位。人类从几千年的生存经验尤其是工业革命以来的进步经验中获得了强大的自信,产生了依靠理性解决问题的处理方式。在对待人工智能的态度上,基于利益立场不同会产生截然不同的看法。

技术精英与资本精英对人工智能的发展通常持乐观激进的态度,而人文社会科学领域的学者则通常采取保守悲观的态度。在激进者眼中,保守者无异于杞人忧天;在保守者眼中,激进者很可能陷人类于水火。从价值层面也即从主观诉求来看,保守主义者不愿意看到人工智能比肩甚至超越人类,因为人工智能比肩或超越人类的那天,人类便会彻底失去对人工智能的控制。因此,假如人工智能在技术上真的能比肩甚至超越人类,那么,我们就应通过法律限制此种技术的发展,提前阻止技术的突破,以防技术的失控。

法学是谨慎、冷静的学问,在人工智能的研究和应用问题上,我们应坚持刑法的人类中心主义,“人工智能法学始终是面向‘人’的研究……它永远是且只能是‘以人类为本’”。人的尊严是宪法性权利,法律决不能允许技术侵犯人的尊严,将人的主体地位弱化乃至颠覆。具有民主基础的法律不能允许伤害公民主体地位和人格尊严的技术发展和应用。据此,强人工智能应当被否定。

首先,强人工智能给人类的尊严带来挑战。人工智能一旦达到强人工智能水平,将对人的地位造成冲击,甚至人类可能从主体沦为被统治的对象。所以,我们应提防人工智能“造反”压迫人类,将可能的“反叛”扼杀在萌芽中,防止强人工智能的出现。人工智能不仅威胁人类整体的尊严,还威胁个体的尊严。人工智能的广泛运用使人类的生活方式发生了巨大变化,一个显而易见的表现是人类越来越依赖人工智能服务。人们在享受生活无处不智能所带来的便利的同时,也在遭遇隐私的出卖和选择自由的侵蚀。一方面,人工智能提供智能化、个性化服务的前提是获取用户大量的个人信息,用户获取智能服务的前提是授权服务商获取个人信息,否则便无法获得相应服务。这意味着人们不得不以个人信息为代价来交换智能服务,结果是个人的隐私在人工智能面前暴露无遗。而隐私权是人格尊严的重要内容,人工智能的日益强大无疑对人格尊严造成威胁。另一方面,人工智能的个性化服务可能演变成对个人行为的操控,人工智能可能出于商业利益等目的仅发送它想让对方看到的信息,在信息不充分的情况下个人的自由选择必将受到侵犯。即便在弱人工智能的今天,人类的隐私和选择自由就已受到巨大威胁,可以料想在强人工智能面前,不仅人类的一举一动处于被监视之下,而且人类的行动自由也可能会丧失殆尽。所以,为了保护人类的尊严,在法律层面不能允许强人工智能存在。

其次,人类与人工智能的演化速度存在巨大落差,人工智能在相同时间内的演进速度要远超人类,而且这种演进速度可能是几何式倍增的。在人工智能到达与人类比肩的所谓“奇点”时,便可能会加速地超越人类,届时人类将彻底失去对人工智能的控制。虽然在短期来看,人工智能之于人类是福音还是祸患取决于谁在控制它,而在长期来看,则取决于人类是否还能控制它。技术进步并不是目的,而是人类获致幸福的手段。我们不能对技术盲目乐观,在技术研发和应用时应充分认识到技术的可能弊端并设计有效的防范措施,人类不应对自己的技术掌控能力过于乐观。

最后,需要补充的是,我们也不应该因为安全担忧而完全否定技术发展。虽然人工智能的算法复杂且数量庞大,不可能完全透明,而且深度学习技术的运用使得人工智能可以调整算法甚至自主编制算法,但我们不能因为人工智能的算法不透明和可能的失控就完全阻止其发展,否定其提高劳动生产效率、便利百姓生活等正向功能。人工智能算法的不透明,实际上决定了人类不可能完全掌握人工智能的决策和行动,人类能否允许此种不确定性风险以及能够接受何种程度的风险,背后存在安全、自由等利益的权衡。理性的做法是,在弱人工智能阶段,通过科技伦理和法律等手段对人工智能算法进行规制。例如,尝试将法律价值纳入算法规则,从而引导算法的良性发展。

猜你喜欢

意志人工智能人类
动物的“自由意志”
人类能否一觉到未来?
人类第一杀手
1100亿个人类的清明
2019:人工智能
人工智能与就业
数读人工智能
《西厢记》中的理性意志与自由意志
下一幕,人工智能!
人类正在消灭自然