人工智能伦理原则及其价值冲突研究
2021-01-29李传军
李传军
(中国人民大学 公共管理学院,北京 100872)
近年来,人工智能的发展极大地推动了经济和社会的发展,然而,随着人类对人工智能依赖程度的提高,隐私泄露、算法黑箱等人工智能的伦理风险也随之加大。人工智能所带来的不确定性和未来的超人工智能存在的失控风险(1)蒋洁:《风险视域下人工智能伦理的主旨和原则》,《信息通信技术与政策》2019年第6期。,更加需要人们从伦理的角度强化对人工智能的约束。确立人工智能伦理原则以及化解伦理原则之间的价值冲突,就成为一个极为重要的问题。
一、人工智能伦理原则的缘起
(一)人工智能伦理原则的价值
人工智能是人类的创造物,但是,与其他科技产品相比,由于人工智能的拟人性特征,它能否作为道德主体是一个需要加以认真研究的问题。一旦人工智能成为道德主体,人类的本质就要重新定义(2)庞金友:《AI治理:人工智能时代的秩序困境与治理原则》,《人民论坛·学术前沿》2018年第10期。。科学技术的发展催生了技术理性(3)张爱军、李圆:《人工智能时代的算法权力:逻辑、风险及规制》,《河海大学学报》(哲学社会科学版)2019年第6期。,技术理性在征服自然界的同时,也在征服人类,人类正在陷入技术迷失,人的主体意识逐步被消解(4)龙耘、吕山:《AI时代媒介治理的伦理体系:内涵、特征及实践原则》,《现代出版》2021年第4期。。人是一个复杂的构成,包含物理存在、精神存在和道德存在三个层次。道德存在也是人区别于动物的本质特征。人类社会的发展是一个极为漫长的过程,人类社会的伦理规则经由几千年才逐步发展成熟,但是互联网及其他相关信息技术的发展则是极其迅猛的,只有短短几十年的人工智能历史却要马上跟上人类社会伦理规则的步伐,况且,道德也是在进化之中的,当具备自主意识的人工智能被创造出来之后,其伦理原则的进化方向和内容已经不是由人类“造物主”来决定了(5)董思伽、王骏:《关于〈机械姬〉中的人机关系之探讨》,《科学文化评论》2018年第6期。,人工智能通过深度学习所得到的结果即便是人工智能的设计者也难以预测和控制,人工智能伦理的他律机制必然要向自律机制转化(6)季卫东:《人工智能开发的理念、法律以及政策》,《东方法学》2019年第5期。,从这个意义上来讲,强化人工智能伦理原则的指导作用迫在眉睫。人工智能伦理原则为新兴的实用人工智能领域制定了框架和指导方针。
人工智能伦理原则有着极为重要的价值。具体地说,人工智能伦理原则可以提供一个有用的起点,从中制定更正式的标准和条例,并有助于确定研究和政策都应重点关注的优先问题。然而,目前人工智能伦理原则的定位过高,可操作性不强,反而不利上述目标的达成。在一些实际的案例中,我们可以发现,人工智能伦理的不同原则之间会存在着冲突现象。如此一来,这些原则的价值是有限的:如果不承认这些冲突,标准可能被设定得过高,或者旨在保护一种价值的原则可能会无意中损害其他重要目标。为了使人工智能伦理原则更好地发挥作用,应将其更多运用于识别和尝试解决人工智能领域具体案例中所出现的冲突。
曾经有一种观点,认为科学技术是“价值中立”的,既可为善,亦可为恶,关键看人类如何使用它,但是,现在有越来越多的人认识到,科学技术对于人类的道德选择和道德行为会产生直接的影响(7)杜严勇:《论人工智能研究中的前瞻性道德责任》,《上海师范大学学报》(哲学社会科学版)2018年第4期。。科学技术发展史正反两个方面的经验和教训告诉我们,科学技术领域特别是能够产生颠覆性影响的领域,必须确立伦理规则的指导,而人工智能就是这样的领域(8)张建文:《建设以阿西莫夫机器人学法则为基础的现代人工智能伦理——以〈机器人学与人工智能示范公约〉的解读为基础》,《山东社会科学》2020年第7期。。基于人工智能的技术应该用于公共利益,不应该被用来伤害人们或损害他们的权利,并且应该尊重广泛持有的价值观,例如公平、隐私和自治。人工智能伦理研究的目的就在于让人工智能的行为得到道德上的肯定,换言之,使人工智能的行为有伦理依据(9)李楠:《机器伦理的来源》,《伦理学研究》2021年第1期。。
(二)人工智能伦理原则的内容
原则是应用伦理学的一个有价值的部分,而精确的伦理原则也是人工智能实现道德化的基础,人工智能在伦理原则基础上的道德学习就不再是简单的模仿了(10)孙福海、陈思宇、黄甫全、伍晓琪:《道德人工智能:基础、原则与设计》,《湖南师范大学教育科学学报》2021年第1期。,因此,就高层次的原则达成一致并在人工智能设计过程中反映已达成共识的伦理原则,这是确保人工智能的开发和使用造福于社会的重要前提。
2016年8月,联合国教科文组织在《关于机器人伦理的初步草案报告》中对机器人的责任问题进行了界定。2017年,阿西洛玛人工智能原则概括了研究、使用人工智能必须遵守的伦理和价值观以及人工智能远期发展的重要考虑因素。同年,美国计算机械协会(ACM)发表了一份声明和一套七项算法透明度和责任原则;日本人工智能学会发布了道德准则;IEEE发布了伦理自主和智能系统的一般原则;人工智能伙伴关系(Partnership on AI)发布了一套其成员国同意支持的“信条”;英国上议院提出了跨部门人工智能规范的五项原则;全球工会联合会提出《合伦理的人工智能十大原则》。2018年9月,腾讯提出人工智能应做到“可知”“可控”“可用”和“可靠”(11)司晓:《建造AI伦理“方舟”,承载人类自身责任》,《互联网天地》2018年第12期。。2019年4月8日,欧盟委员会发布《可信赖人工智能的伦理准则》,提出尊重人的自主性、预防伤害、公平性、可解释性等四项伦理准则(12)张霄军、邵璐:《构建可信赖机器翻译系统的基本原则——一种基于工程伦理的观点》,《外国语文》2021年第1期。。2019年6月17日,我国首次发布《新一代人工智能治理原则——发展负责任的人工智能》,明确提出“和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理”等八项原则。据统计,现在世界各国发布的人工智能相关准则已经超过40个(13)王秋蓉、于志宏:《发展负责任的人工智能——访清华大学文科资深教授、清华大学苏世民书院院长薛澜》,《可持续发展经济导刊》2019年第7期。。
如上所述,人工智能伦理原则较为繁多,总体上可以概括为两大类:人本主义原则(如自由、公正、安全等)和技术主义原则(如可持续、负责任的、可信的、可靠的、可治理的等)(14)杨庆峰:《从人工智能难题反思AI伦理原则》,《哲学分析》2020年第2期。。前者关乎人类福祉,也就是如何让人工智能更好地造福人类。后者涉及人工智能的创新和发展,如何在确保人工智能不偏离正确方向的前提下更快发展,既不能因噎废食,也不能削足适履。实现两大类原则的平衡是人工智能伦理原则的核心要旨,归结为一句话,即遵循伦理原则的人工智能才能成为人类可信任、负责任的朋友。
二、人工智能伦理原则的局限性
(一)人工智能伦理原则的分歧
现代社会治理主要有法治和德治两种模式,这两种模式可以相互补充,对于快速发展的人工智能领域法治方式往往存在着滞后的问题,人工智能伦理原则可以实现敏捷治理,因而能够成为人工智能伦理治理的重要工具(15)吴红、杜严勇:《人工智能伦理治理:从原则到行动》,《自然辩证法研究》2021年第4期。。人工智能的规则体系是建立在人工智能伦理原则基础之上的,然而,光靠原则是不够的,而应当以人工智能伦理原则为指导,并在实践中具体化。为了让人工智能伦理原则具备可操作性,必须对于各原则详尽阐释,说明它们如何适用于具体情况,以及在冲突时如何平衡它们。
人工智能伦理原则中使用的中心术语往往是模棱两可的,掩盖了概念的复杂性和不同人群在解释上的差异。正如“正义”原则并没有说明什么是正义或不公正,原则往往掩盖了重要的道德分歧。特别是,即便人工智能伦理原则清单得到广泛支持,但是在不同的人和人群中依然存在着价值观差异。虽然每个人原则上都同意“公平”是重要的,但对于什么是公平,存在着深刻的分歧。因为公平是一个模糊的概念,很难被量化;即便被量化或者算法化,也不可避免地会存在着歧视现象。在冲突的情况下,群体对一种价值观的重视程度也可能不同。例如,个人主义文化比集体主义文化更重视个人隐私。要使原则更加实用,一个重要步骤是将其正式化为标准和法规。
历史地看,与人类社会不断演化相适应,伦理原则也有一个不断演化的过程。不同时代对于同一原则的理解也存在着很大的差异。因此,必须将伦理原则放在特定条件下来看待,任何脱离时空的所谓抽象的伦理原则是没有任何意义的空洞说教。随着人工智能的发展,同一伦理原则的内涵及其适应性也需要做出调整,以使其能够更好地承担伦理的规范功能。如果我们使用某种僵化的理解来解释某一伦理原则,就会对人工智能的发展造成严重的束缚。要保持人工智能伦理原则与人工智能发展之间的必要张力,一方面,对人工智能健康发展引领、导向,使其运行在正确的轨道上,另一方面,也要对人工智能发展中的偏差乃至失控进行纠偏、规范与控制。
人工智能伦理原则本质上具有高度的普遍性,它们指出了适用于各种场景的重要道德主题。然而,大多数原则的普遍性也限制了它们指导实际行动的能力。人工智能伦理中提出的许多原则过于宽泛,不能作为行动指南。例如,确保人工智能用于“社会公益”或“造福人类”是所有原则中的一条共同主线。这些表述绝大多数人都能同意,但是这些原则缺乏实质性内涵。只有更窄、更具体的原则才可能在实践中有用。比如,最近工业界承诺不发展自主武器技术,就是一个具体的行为规范,可以据此追究违反者的责任。
(二)人工智能算法设计的伦理困境
人工智能之所以能够模拟人类智能,其根本原因在于算法设计。算法相当于人类的价值观体系。人工智能伦理原则就其本质来说,主要是对算法的约束。这一点在弱人工智能阶段尤其重要。即便人工智能发展到强人工智能乃至超人工智能阶段,其最核心的还是算法。因此,研究人工智能伦理原则必须深入剖析算法的运作机理。要实现对人工智能的伦理约束,必须确立人工智能伦理的可解释性原则。可解释性是指算法透明,具体而言就是指人工智能系统的源代码和所依赖的数据均应公开。算法透明是问责的前提条件,人工智能如果算法不透明,相当于一个黑箱,用户并不了解人工智能的运作机理,人工智能收集了哪些数据?得出了什么结果?将采取何种行动?一系列问题都无法让用户产生对于人工智能的信任,引发人们对人工智能算法操控、数字正义等问题的担忧。算法不透明会引发一定的道德后果(16)王娟、叶斌:《“负责任”的算法透明度——人工智能时代传媒伦理建构的趋向》,《自然辩证法研究》2020年第12期。,比如在个人征信领域中算法黑箱中的偏见与歧视会直接影响征信系统的公正性(17)吴椒军、郭婉儿:《人工智能时代算法黑箱的法治化治理》,《科技与法律》2021年第1期。。让算法遵循“善法”应当成为人工智能的基本伦理原则,也即“算法从善”原则(18)田海平、郑春林:《人工智能时代的道德:让算法遵循“善法”》,《东南大学学报》(哲学社会科学版)2019年第5期。,具体来说,就是将属于责任伦理的道德算法植入人工智能系统,从而让人工智能成为有道德的机器人。
在计算机科学领域,对于非专业人士或初学者来说,算法往往是令人不知所云的天书,算法透明是通过可视化(比如动画)来实现的,即让用户对于程序代码的运算结果有一个直观的认识。算法透明是一种重要的社会价值,它引发人们关注社会公共利益以及对于人工智能本质问题的思考。算法透明度的理想状态是让所有信息可追溯,所有算法完全公开,但是,出于各方面的原因,这种开放性难以完全实现。对于算法透明,数据主体是持支持态度的,因为这种做法可以消除用户对于人工智能的疑虑。从国家层面来说,考虑到国家安全的需要,对于数据完全透明是不可取的,在一定范围内的透明是比较可行的选择。而对于人工智能基本设施的所有者来说,心态则比较矛盾:提高算法透明度可以消除用户的顾虑,获得用户的支持,也与其所宣称的道德原则相吻合;但是,算法透明可能意味着削弱其竞争优势,也会影响人工智能系统的安全运行。因此,算法透明的初衷是好的,但当算法公开成为一种强迫性要求时,很可能变成一种走过场、搞形式。
算法透明所公开的信息应当是公众可以理解的有用的信息。算法透明不仅应当披露信息,还要具体说明信息的来源。算法透明的实现难度是极大的,因为人工智能的数据点和程序代码行数是百万乃至千万级别的,对于一个门外汉,即使有解释程序,也很难明了数据之间的关系。算法透明也意味着用户要接纳超出其注意力范围的过量的信息,而信息一旦过剩,与信息匮乏的结果是相同的,用户干脆选择无视信息。另外,算法也不是静止不变的,随着时间变化或其他变量的变化,算法也处于变化之中,这样一来,即便向用户公开算法,也可能是时过境迁了。从参与主体来看,普通用户虽然对算法透明提出要求,但是由于各种原因,个人难以获得相关信息,只能求助于第三方机构。而且,公众也无法洞悉算法透明背后的伦理问题。
基于上述分析,我们可以看出,人工智能伦理原则虽然有一定的作用,但是其局限性依然是很明显的。因此,对于人工智能伦理原则的态度应当是既要发挥其应有的作用,但又不能完全依赖于它。
三、人工智能伦理原则的价值冲突
(一)人工智能伦理原则价值冲突的缘由
人工智能伦理的诸多原则之间有时存在着重要价值观或目标之间的冲突。在这种情况下,为了实现某一原则,似乎必须放弃另一原则。例如,秩序与自由这两个原则之间就存在着明显的冲突,如何平衡二者的关系值得深入研究(19)商瀑:《从“智人”到“恶人”:机器风险与应对策略——来自阿西洛马人工智能原则的启示》,《电子政务》2020年第12期。。人工智能伦理原则中的许多冲突往往是当前技术或社会限制的结果。比如,为了社会利益而使用机器学习,并不一定与隐私、透明或公平原则产生冲突,但是,一些人工智能系统开发者为了实现机器学习的目标而采用的许多方法确实与这些原则相冲突。至少在目前新的技术或治理方案并未能从根本上解决这些矛盾冲突。人工智能发展到某一阶段,必然存在着要么面临人类被人工智能代替乃至超越的风险,要么牺牲人工智能的发展这一冲突(20)王天恩:《人工智能存在性风险的伦理应对》,《湖北大学学报》(哲学社会科学版)2020年第1期。。通过将人类道德原则预置入人工智能,似乎是解决这一冲突的不二法门。然而,当人工智能发展到强人工智能以及超人工智能阶段,人工智能已经具备道德自主性,它会否对预置的人类道德原则进行“格式化”?还有一个问题值得关注,就是生命在人类和人工智能方面是完全不同的。伦理与生命息息相关,所以儒家的“舍生取义”才具有英雄主义的悲壮色彩。对于人工智能而言,生命终结或者说“死亡”是指其硬件的解体、软件的崩溃还是数据的清除?人工智能有对死亡的恐惧吗?从最终的意义上来讲,人工智能真正摆脱了人类生老病死的困窘。因此,人工智能伦理原则与人类伦理原则并不完全相同,相应地,人工智能伦理原则冲突与人类伦理原则冲突也不能简单地划等号。
人工智能伦理原则就是为了确保人工智能的决策和行为能够依循人类的道德原则和行为规范。然而,伦理原则往往是较为抽象的,其与具体实践应用还存在着一定的差距。弥合抽象伦理原则和具体实践之间的差距,是使人工智能伦理原则真正发挥作用的重要前提。为了达此目的,我们需要考虑不同的价值观和目标如何在具体案例中付诸实践。例如,在医疗中运用人工智能就遇到保护患者数据的隐私性与提高诊断有效性之间的冲突。再比如,伦理学对于“善良”“诚信”等方面的原则与人工智能的情感计算就存在着冲突。人工智能可以通过远程窥测的方式获取公众的情绪并进行利用(21)王禄生:《情感计算的应用困境及其法律规制》,《东方法学》2021年第4期。。由于类似的冲突可能会在一系列不同的案例中出现,关注冲突意味着我们既不完全受个案具体情况的驱使,也不依赖抽象的高层价值观。如果我们能够通过观察一系列案例来阐明重要的冲突,并找到在特定情况下解决这些问题的方法,那么我们从中得到的经验教训就可以用来制定标准和法规。
不同的价值观在不同群体中的解释和认知可能会有所不同。例如,“公平”“正义”等术语在道德和政治上存在着重大分歧。正如伦理总是涉及与他者的关系,“公平”“正义”作为伦理的重要原则也不例外,其所涉及的也是不同个体或群体之间的关系。在不同的个体或群体那里,“公平”“正义”的理解是不同的。正所谓“公说公有理,婆说婆有理”。这种分歧实际上在人类社会中已经较为复杂,那么,如果将“公平”或“正义”推之于人工智能领域,其分歧就会更大了。这里涉及人工智能与人类之间的关系、不同人工智能之间的关系。就前者而言,人工智能能否平等地对待人类中的每一个体或不同群体?就后者而言,人工智能会否像人类社会一样有阶级或阶层的划分?之所以出现上述冲突,是因为伦理原则或价值观往往是较为抽象的概念,要避免冲突,必须将宏观层面的抽象伦理原则转化为微观层面的具体伦理指南。也就是说,不仅要阐明“应当做什么”的“大”问题,还应当解决“怎样做”以及“不应做什么”的“小”问题。
(二)人工智能伦理原则价值冲突的表现
注意到两种价值观之间的冲突并不一定意味着我们必须在它们之间做出选择。通常,我们可能会试图找到某种方法以实现“鱼”与“熊掌”兼得。当然,若“鱼”与“熊掌”不可兼得,则舍“鱼”而取“熊掌”者也。因此,认识到这些冲突可以突出研究人员和决策者的高度优先领域。例如,目前尚不清楚人工智能的进步是否会增强或削弱人类的能力和能动性,但将这种冲突明确化,将注意力集中在一个重要问题上,即哪些发展方向最有可能增强而不是削弱人类的能力和能动性。人工智能伦理原则的冲突并不是抵制人工智能发展的理由,恰恰相反,我们需要在技术发展中寻找解决冲突的对策,不断改进人工智能技术,使之与伦理原则相匹配,在动态发展中达到平衡,不断提升人类应对风险的能力。
由于人工智能和机器学习的本质,一些伦理原则冲突不可避免地出现了:这些技术允许我们使用大量(通常是个人)数据并从中得出推论,因此对隐私的重要概念提出了挑战。认识到人工智能伦理原则冲突,有助于我们清楚人工智能的应用对于社会所产生的影响,也有助于我们确定人工智能下一步的研究方向。为了理解许多冲突的本质,我们需要了解目前技术上可行的方法。例如,在机器学习中确保数据隐私的最佳方法是什么?这些方法的成本是多少?
任何一项科技创新都难免存在利弊得失,人工智能系统也不例外。人工智能在运用中可能产生的危害和所创造的利益在不同群体或个体之间以不同的方式配置,也造成了一定程度上的冲突。自动化的影响可能在不同的人群和文化中分布不均,自动化给一些群体带来了便利,但同时又抢夺了其他群体的工作岗位,从而威胁到他们的基本需求。人工智能系统的风险和收益也可能随着时间的推移而不均衡地分布,短期来看,人工智能的运用可能利大于弊,但长此以往可能会损害重要的价值。比如,智能手机的普遍使用对于人们的注意力是一种严重的损耗,人们越来越难以静心阅读,而更加热衷于观看短视频,读书(特别是纸本书籍)已经成为一种需要重新培养的能力了。越来越多的个性化信息和服务可能会使我们的生活在短期内变得更加方便,但随着时间的推移,这些信息和服务反而阻碍了人际交往,有些“低头族”整天埋头于网络却疏忽了对身边亲人的关照。在信息时代,人们虽然每天获得大量信息,但是由于所关注的信息往往是自己所感兴趣的,而且,各种新闻类APP也会根据用户的偏好进行智能推送,久而久之,人们就困在人工智能为自己所织就的“信息茧房”之中了。
四、人工智能伦理原则价值冲突的解决
(一)确立人工智能伦理原则的价值导向
人工智能伦理的本质并不是人机关系,而是如何在人工智能发展的背景下确保人的主体性(22)田鹏颖、周鑫:《唯物史观论域下人工智能的伦理问题思考与合伦理设计》,《宁夏社会科学》2021年第2期。,因此,人工智能伦理依然是社会伦理的构成部分。人工智能作为一种技术必须造福于人类,决不能用“技术决定论”来损害人的尊严。人工智能不仅仅是一种技术变革,更是关乎人类生存与发展的一场伦理挑战(23)王东、张振:《人工智能伦理风险的镜像、透视及其规避》,《伦理学研究》2021年第1期。。在应对这一挑战的过程中,解决人工智能伦理原则的价值冲突是当务之急。解决冲突的最佳办法将取决于有关冲突的性质。关于人工智能伦理原则的价值冲突,最根本的还在于是否将人工智能视为道德主体(24)李真真、齐昆鹏:《人工智能——“以人为本”的设计和创造》,《科技中国》2018年第3期。。尽管现在的人工智能尚未发展到强人工智能和超人工智能阶段,人工智能只是人类的附属物,但是,如果在人工智能伦理原则方面未做出清晰的定位,未来人类与人工智能都是道德主体,人类与人工智能都是道德意义上的“人”,那么以“人”为本,究竟如何确定?如果那时仍然不将人工智能视为道德主体,不赋予人工智能与人类同等的权利,那么,这与在奴隶社会时期将奴隶视为“会说话的牲口”一样是不公正的。而一旦将人工智能视为道德主体,则人类作为一个物种会否被人工智能消灭?正是基于这个方面的考虑,人工智能伦理原则必须具有前瞻性,对于这一价值冲突做出预先防范。比如对于上面提及的人工智能与人类之间的“公平”“正义”原则冲突问题,应当在人工智能伦理规范中明确,当人工智能与人类整体利益发生冲突时,必须无条件地保护人类利益免受侵害。这也是与人类发展人工智能的目的相一致的,换言之,人类不可能创造出一个反对自身的东西。人工智能伦理原则有多个层次,但最高层次的原则必须是人类福祉原则。如果人工智能异化为反人类的东西,正如在一些科幻作品中所描述的由机器人统治人类,岂非滑天下之大稽?人类之所以被称为万物之灵,在于人类是有理性的。当然,并不排除人类中的某些个体或群体丧心病狂走向反社会、反人类的歧路,但是,人类中的大多数必然会以正义战胜邪恶,实现人类的永续发展。
(二)权衡人工智能伦理原则的价值冲突
从技术层面来看,对于人工智能伦理冲突的权衡判断将是一个复杂的政治过程。权衡不同解决方案的成本和收益是这一过程的一个重要部分。比如,在人工智能发展与技术可控之间就存在着冲突。如何解决这一冲突取决于人类的掌控能力。这正如对于一个未成年人,我们不会让他舞枪弄棒,但是对于一个肩负维护社会安全责任的警察则必须赋予其使用警械的权力。无论人工智能如何发展进化,人类必须握有“致命一招”,否则,一旦人工智能自我演化到可以完全摆脱人类控制的程度,那时,人类的命运就堪忧了。因此,在人工智能研发之初,必须明确这一伦理原则,即人工智能只能以造福人类为目的,这里所说的人类是一个全称判断,是指全人类,而非某一利益集团、某一国家。
其实,一些人工智能伦理原则的冲突并非不可避免。也许我们只是缺乏知识或工具来推进相互冲突的价值观,通过进一步地研究可以找出更好地服务于所有相关价值观或目标的解决方案。例如,工业机器人的大规模运用可能会侵占更多的劳动机会,但是如果将工业机器人的运用范围限制在“脏难险重”类的工作岗位,其所面临的阻力就会小得多。再比如,扫地机器人近年来在家庭推广就极为顺畅,原因不外乎,它不是对人的工作岗位的剥夺,而是减轻了人们做家务的负担,所以不会遇到任何反对的力量。
然而,人工智能应用于自动驾驶就面临着较大的争议。在伦理学上有一个经典的两难选择“电车困境”,这对于自动驾驶就是经常发生的现象。人工智能是否为了确保乘车人的安全就可以枉顾路人处于危险之中吗?或者为了选择最大多数人的利益而牺牲乘车人的安全?当然,从技术方面来看,自动驾驶尚未完全成熟,但即便技术再成熟,上述伦理困境依然是存在的。所以,这类人工智能伦理原则的冲突并不是可以通过权衡就能得以化解的。再比如,人工智能运用于战争中的争议更是一直不断。因为这种做法与发展人工智能的宗旨是为了保障全人类的福祉背道而驰。因此,一些有识之士提出,人类在开发人工智能时还是应当更加谨慎,因为一旦失去控制,就意味着打开了“潘多拉魔盒”,如果人工智能统治人类,人类将陷入万劫不复之境地。在对人工智能预先置入人类伦理原则时,善良是首先要置入的原则。原因在于,选拔人才应当“德才兼备,以德为先”,在某些特定情况下,德比才更重要。这一做法推广到人工智能领域,就是要求人工智能有一颗“良心”,要善良地对待人类。无论在何种情况下,都不能做出伤害人类的行动。阿西莫夫提出的“机器人三原则”第一条就是“机器人不得伤害人类”,其他原则都必须在这一原则的统领之下。
(三)化解人工智能伦理原则价值冲突的策略
尽管人工智能伦理原则冲突大多无法直接解决,但是更清楚、更明确地阐明这些冲突是必要的。政府是公共利益的代表者,在解决人工智能伦理原则冲突方面必须发挥政府的主导作用,防止资本控制技术从而损害公共利益、破坏社会秩序。政府应采取多种措施确保人工智能伦理原则得到贯彻,并妥善解决人工智能伦理原则冲突。企业应高度重视人工智能伦理问题,防范人工智能伦理风险。有些企业担心人工智能伦理会限制技术的发展、影响企业的经济利益,然而,事实上,越是主动承担社会责任的企业越是能够得到用户的认可,对企业的发展更加有利。发展人工智能的目的是造福于民,因此公众应拥有充分的知情权。人工智能伦理原则中的透明原则,就是为了确保公众对于人工智能的算法和数据处理能够在充分知情的基础上行使监督权。人类的价值观不可能完全整齐划一,但是从构建人类命运共同体的角度出发,人工智能发展应当以全人类利益为旨归,谋求更多共识,寻求更大公约数,画出更大的同心圆。只有吸纳更多的参与,人工智能伦理原则的冲突才能得到妥善的解决。
对冲突的关注也有助于指导人工智能伦理的研究重点。在人工智能伦理原则中预防原则应当具有重要价值,它不仅是引领人工智能健康发展的重要原则,也对解决诸原则冲突发挥着作用。必须坚持伦理高于技术的原则,在人工智能开发和应用之前就应设置基本的伦理规范,决不允许出现技术凌驾于伦理规范之上的现象。只有以前瞻性思维分析人工智能发展,特别是考虑到其利弊得失,兴利除弊,防患于未然,才能确保人工智能造福于人类。
社会各个领域的治理充分证明,为了在实践中发挥作用,原则需要在标准、规范和最终的法规中正式化。同样,要真正解决人工智能伦理原则的冲突,使人工智能发展得到有效规范,也必须将伦理原则逐步法治化。现有有关人工智能约束的规范主要是在伦理层面(25)王成:《人工智能法律规制的正当性、进路与原则》,《江西社会科学》2019年第2期。,伦理规范的约束力要远弱于法律规范。当然,由于法律规范往往较为滞后且保守,面对人工智能发展中所出现的一系列问题,通过伦理原则进行约束有其必要性,但是,当伦理原则较为成熟之后,应制定相关法律予以规范。只有通过法律来划定底线,才能使人工智能发展不至于走向造福人类的反面。伦理原则的最终旨归是对人类的人文关怀,人工智能伦理原则必须以人类共同利益为最高追求。只有遵循这一主线,人工智能伦理原则的冲突才能在动态发展中求得平衡,通过人类与人工智能的和谐共生,最终实现全人类的福祉。