人工智能道德顾问的伦理问题*
2021-12-03王晓敏
李 洋 王晓敏 吴 影 周 岚 刘 星
罗德里克·费斯(Roderick Firth)[1]在1952年提出了著名的理想观察者理论,该理论主要聚焦于个体道德判断错误所引发的相关问题:个人由于错误的道德信仰、缺乏关键信息、道德偏见等限制易得出错误的道德判断,从而做出错误的道德选择。因此,设立一个全知全能、公正和无私的理想观察者,对化解道德冲突十分必要[2]。费斯的理论虽然独辟蹊径,但它更类似于一个组织结构,对于人类繁杂的日常道德判断与道德选择,理想观察者角色似乎是不可能实现的。然而,有科学家提出,在某些条件下,我们的认知和道德能力是可以分布在人工智能上的[3],21世纪的人工智能、赛博空间和虚拟现实已经发展到前人无法想象的高度,人工智能具有理解和扩展知识的可能性,可以创建具有人类价值基础的智能顾问,帮助人类解决道德问题[4]。例如,我们通常无法做出符合自己道德目标的选择,因为情感和直觉的判断通常会取代信息的收集、反思和计算[5],而人工智能能够摒弃人类生理构造中不利于道德决策的部分,更理性、更直接地做出道德判断。2015年,萨弗勒斯库(Savulescu)和马斯伦(Maslen)最早考虑把此想法落实在具体的技术层面,提出了“道德人工智能”理论[6]。
目前讨论的人工智能道德顾问是指利用人工智能技术为个体提供适宜的道德建议,把人工智能应用到人类道德生活。一些学者认为,人类生理能力缺陷,有时不可能由后天的道德能力训练得到改善,因为它通常根植于我们的身体机能中,如低血糖的人更容易发生偏执行为[7]、血清素低下的人更容易使用暴力[8]。因此,人类易受某些情绪的影响而扭曲道德判断,所以需要一位道德顾问。目前,对道德提升的普遍反对意见是它对行为主体的定义无法达成一致,所以在道德提升方面所做出的科技努力可能面临挑战。而提倡“人工智能道德顾问”技术的学者则认为,其面临的只是一些生物医学干预的问题,一个为用户量身定制的道德人工智能不仅可以保持道德价值观的多元化,而且还可以通过帮助用户克服其天生的心理局限来增强其自主权,所以道德人工智能比其他形式的生物医学道德增强更有优势[9]。
实际上,我们现在已经广泛使用了某些软件来辅助我们决策和判断,例如,智能环境处理器,人性化的嵌入式硬件设备、无缝的移动/固定通信机制、人类自然感觉的界面、可信任性和安全性等。人工智能技术以超越人类自主决策的能力正在逐渐介入甚至取代个体社会的日常事务判断。所以,在人工智能技术的社会广泛应用方面,我们可以得到技术社会应用的支持,甚至可以认为它是科技进步和社会发展的自然产物。
1 人工智能道德顾问应用中的伦理问题
正如埃德蒙·罗尔斯(Edmund Rolls)所说,“遗传”和“学习”在指导我们的行动和意图以及我们的选择和情感方面起着关键作用。人类是已知的生物系统,顾问们做出的判断必须与人类做出的判断在生物学和心理机制上相一致[10]。但是从现实层面看,承认“人非完人”和“注定实现不了道德理想”是发现问题的前提。历史证明,滥用技术将威胁人类自由[11]。但科技本身是中性的,无关乎道德善恶。因此,科技对人类及环境的责任应完全由人类承担,在应用人工智能技术和产品时,必须高度警惕其在社会伦理领域中的潜在风险。
1.1 道德相对主义
在费斯的理论中,理想观察者虽然具有全知全能、清楚地了解事实和公正的特点,但这样的理想观察者也可能是温和的虐待狂[12],因为我们事先假设了道德合法性的标准,无论使用者是圣徒还是精神病患者,是道德的或是不道德的,是利己主义的还是利他主义的,都会接受被认为合理的道德理论。这就可能导致道德相对主义的偏见产生,主要表现在以下方面。
首先,道德标准的植入偏见。作为新兴领域,人工智能道德顾问技术可能面临立法滞后的不利影响[13],如在《民法》《知识产权法》以及《刑法》等诸多领域[14],不仅缺乏有效的法律规制,而且某些技术的运用还可能会与现行法律冲突。因此,对于人工智能道德顾问设计者来说,为了实现其道德顾问客观有效并得到社会认可的功能,需要事先植入社会公认的道德标准,而这种道德标准的植入可能缺乏法律规范,是随意或带有偏见的。
其次,道德提醒的编程偏见。按照人工智能道德顾问理论,该技术不会使我们更加道德,也不会导致我们更加不道德,它仅仅提供道德判断和道德选择的过滤和提醒功能,以限制个体道德选择的错误性结果[12]。然而,这种道德判断和道德选择的过滤提醒,它可能忽视了人类道德生活和道德价值观的多样性,本身陷入道德相对主义的误判,甚至导致道德霸权。因为当个体缺乏审视道德意见能力,不明所以地将道德顾问的道德判断奉为圭臬时,或者当道德顾问意见与个体原有道德标准相左时,长期的道德判断影响,就可能最终让使用者陷入道德的无差异化或同一化境地。例如,经过算法的升级换代,人工智能或许可完全绕过人脑固有的思维方式,形成“新智能思维”来模拟人类思维,从而使人类到达自身思维无法触及的地带,形成新兴技术生命周期“峡谷”[15]。但是,对于绝大多数的智能工具用户而言,他们不会试图去了解算法的内在逻辑,加上科技人员很难全面掌握、解释智能技术在深入学习后的选择机制,结果形成算法的“黑箱”,特殊情况下还会演进为算法歧视[16]。
最后,道德沟通的价值偏见。一方面,由于人工智能道德顾问的辅助决策功能,它会根据事先设计好的道德标准进行编程和道德判断对错提醒,可能与使用者的原有道德价值存在冲突,当使用者进行道德判断或道德选择时可能面临道德困境。例如,该技术的用户即真正的道德主体想要成为一个无私的人,某些遵循功利主义法则的道德顾问则可能会给出一些常人认为不合理的建议,如捐赠他的大部分财产做公益活动[17]。用户采纳了这个建议,但是他在道德上可能不是完全的功利主义者,那么就意味着用户执行了一个违背初心的行为。另一方面,在道德异乡人之间,原本可通过沟通协商的反思平衡的道德活动可能失效。正常情况下,我们的道德原则可能在两个方面被增强:(1)潜意识激活;(2)认知资源的相对独立性。正如我们所知道的,直觉和情感通常也是偏见和其他类型的非理性或不道德判断的来源,它们使我们成为不良的信息处理者或不良的道德判断者。因此,人工智能道德顾问可使用内置在人们身边的软件来监视其神经生理活动,从所谓的“神经反馈训练”使用户改变与移情有关的脑区功能[18],从而增强道德情感。但这种生理性的增强可能是永久性的个性改变,导致用户道德判断的僵化和模式化,可能从根本上否定其自身的道德基础,最终使不同道德价值观的个体沟通无效,威胁人们正常的道德生活。
1.2 道德主体判定
人工智能道德顾问是否具有道德主体地位涉及基本的概念内涵研究。在法律术语中,主体指的是拥有主观判断能力且可以承担法律责任的人。康德主义者认为,道德主体是指有自我意识和道德认知能力,能够推理和形成自我判断,且具有道德选择和道德行为能力并承担道德责任的道德行为者[19]。从这个角度出发,只有具有理性思维能力的人才具有道德主体地位。在对人工智能道德顾问技术的假设中,它并没有具备人类的情感、独立意识、自由选择和独立承担责任的能力。所以基于以上人类是唯一道德主体的结论,人工智能道德顾问是不可能被称为道德主体的。虽然也有伦理学家持有不同的观点,他们相信自然界中不止是人类才具有道德主体地位[20],对道德主体的研究已经从人类扩展到动物甚至是技术人工物。但是人工智能道德顾问无论得到怎样的完善都不会获得行为能力,一个没有行为能力的物体是不可能成为道德主体的[21],所以道德人工智能顾问绝无成为道德主体的可能。那么人类又该如何看待人工智能道德顾问呢?我们何以把一个比我们更聪明、更具有批判思维能力的物体只当作工具?我们如何判定其社会身份呢?
伦理学史中判定道德主体的标准是不一致的[22]。关于人工智能道德顾问在未来是否有可能演变成一个符合这些标准的道德主体,我们暂且悬置不论。人与人之间的道德行为会不会演变为机器与机器之间的道德行为?我们应该思考人类创造了机器,还是机器借由人类而生,从而是否可能成为历史演进过程中的道德主体。在对道德主体的定义里,要更加细致地分析人工智能带来的挑战。而且在智能机器的设计之初就应嵌入道德意识,人工智能科学家和技术人员应该关注智能机器道德模型的构建,要在智能机器设计之初就把“善”的理念嵌入其中,使得人工智能操作系统不仅遵守法律,还要遵守社会道德规范[23]。这无疑是对道德顾问技术的开发提出了更高的要求。
1.3 行为隐私保护
人工智能技术的应用与发展,离不开数据采集与利用,而数据不断更新与扩张则会引发信息泄露、侵犯隐私的风险。当前人工智能道德顾问以机器学习、深度学习、神经网络和自然语言处理为特征,可以从数据挖掘中创建数字资料,能在用户不知情的情况下根据此类资料做出重要决定[24]。针对这个问题,用户应有权知道人工智能道德顾问在处理其数据时会发生什么,有权不接受对自身将产生不利影响的决定[25]。所以缺乏透明性的机器学习算法标准是有问题的,但是算法透明又是极其难以实现的。这就会导致人工智能道德顾问执行命令时,可能会歪曲用户面貌或透露用户的隐私,从而违背用户对隐私保护的期望,用户在执行人工智能道德顾问建议的同时也会扭曲他人对该用户的合理评价。
这里的关键问题是,人工智能道德顾问涉及到的信息并非普通的身份信息,而是有关个体行为倾向的隐私信息。大部分人认为机器人与计算机区分的依据是外观,人们面对机器人有更加强烈的同情情绪,并认为它具有更强的情感能力[26],这是人类可理解的自然反应。但是在人工智能道德顾问的功能预设中,它们可通过影响个体潜意识激活和认知资源改变直觉和情感,从而影响并改善个体道德判断。在此之前,人工智能道德顾问仍需收集有关个体神经生理活动,完成所谓的“神经反馈训练”。这种大脑即时性的神经生理状态,尽管在与即将发生的行为之间具有或然性联系,但仍具有一定的因果联系和预征性指征,代表着个体的客观思想或行为计划,属于个人高度隐私信息。
随着人工智能道德顾问技术的发展成熟和不断完善,人们对它的接受度可能越来越高,两者之间的紧密合作和信息互通将进一步加强,人们对人工智能道德顾问在心理上从属、依恋和可信赖等感觉的增强[27],更多的人可能会接受它们为伙伴而不是工具,并与它们共享丰富的私密生活细节和敏感的个人数据,个体行为隐私问题可能逐渐加剧并愈演愈烈。
1.4 行为责任认定
目前对人工智能技术的监管诉求主要是关于其算法,思路都大同小异,基本上主张算法要透明和共享[28]。但是,现有算法很难读懂,即使专业的程序员也要花上很长时间才能看明白[29]。所以,即使通过透明性来监管算法是可实现的,其成本也会很高。而且算法已经成为各个研发公司的核心竞争力,要求算法透明可能对其知识产权保护产生冲突。
但这并非意味着我们对算法监管无能为力,规制理论有新旧之分[30]。对于人工智能道德顾问这样有广泛未来市场的技术,我们更应考虑:如果其需要新的规制理论,什么样的约束条件可以充分发挥技术正向价值的同时不突破道德红线。从某种意义上讲,人的决策过程也是一种算法运算,只不过它远比机器算法更加复杂和随机。所以我们可以从人类实践中看到智能机器监管问题的解决方法,例如,管理者不知道他的下属们是怎么思考的,但可以通过构建合理的激励合约,引导下属努力工作[31];同样,我们也可以不知道机器是怎么思考的,但可以通过构建合理的激励合约,正确引导其行为。
汉斯·乔纳斯(Hans Jonas)[32]从哲学特别是本体论视角出发,提出对责任的更丰富的需求。他认为责任不仅源于实际需要,更根本地源于生活本身的本体论性质,即源于它本身的目的。乔纳斯提出对行为的道德要求,应使行为所产生的影响与现实人类生活的延续相适应。因此,对责任问题的审视要回归于人,人工智能道德顾问虽然有认知能力但没有责任承担能力,也不从人类具体的道德生活获得自我肯定。所以,人工智能道德顾问是不能作为责任主体的。当然,就算不考虑乔纳斯的本体论,我们也可以确立对“责任”应有更深入、更全面理解的必要性[33]。“责任”是一个相关性的概念,不仅与个人属性有关,而且在团体层面上更有意义。
在个人层面上,认知能力并不一定需要自我意识,而承担责任则必然需要自我意识[34]。由我们对于这项技术的设想,可以得知它确实作为一种决策主体而存在,是否可以等同于它应该为决策带来的结果负责呢?当然,我们这里说负责,只是一个简化的说法。事实上,它无法为自己的行为负责,作为一种产品,让生产它的人为它负责还是使用它的人为它负责?在其做出一种行为时,它要为该行为负多大责任?如果它对人造成了伤害,它要承担什么责任?上述问题的答案是或然的,在不同的时代背景下、不同的情境中答案会有所区别。例如,在铁路普及之后,美国的侵权法发生了很大的改变:行人被要求礼让火车。这个法规改变的原因在于如果墨守成规坚持“礼让行人”的社会公序良俗的话,那么铁路在运营中就需要时刻注意避让行人,而达不到其高效的目的[35]。所以在考虑人工智能应该承担多大责任时,我们是否可以采用类似的观念并做出改变呢?
2 结语
过去几十年中,科技高速发展,智能机器人给人类带来了许多便利,同时也引发了新的社会问题。人工智能道德顾问倡导者的关键主张是,头脑与机器之间没有区别,因此他们认为机器伦理与人类伦理一样有可能实现。与专注于围绕人类使用机器伦理问题的计算机伦理不同[36],机器伦理关注的是机器对人类用户(也许还有其他机器)行为和交互的伦理性[37]。人工智能道德顾问技术虽然还是空中楼阁,但是实际生活的例子表明,人们在某些情况下的确需要一位“道德顾问”,并且在已有的并得到广泛应用的技术里面,已经展现出人工智能道德顾问技术实现的可行性。所以人工智能道德顾问技术是否可以开发及应用,在得到伦理学辩护前,仍然值得期待。根据人工智能科学家的观点,符合机器伦理最终目标的机器将遵循理想的伦理原则[38]。本文从这个最终目标出发,认为人类应该多维度地审视人工智能道德顾问技术面临的诸多挑战,在坚守道德红线的前提下,使其成为一项安全性强、尊重人类道德主体地位、能被有效监管且相关行为权责清晰以及值得用户信赖的新技术。不过,人类尚且没有一套万事皆可行的伦理原则,何以有信心去创造一个接近费斯70多年前设想的“虚构人物”?何以面对可能成为道德决策弱者的局面?这些问题亟待当代思想者、践行者解答。人类拥有丰富的道德生活,并且具有实施高尚行为的能力。目前来看,人工智能道德顾问不会篡夺或超越人类的道德权威,我们应该做的是承认自身的道德局限性,利用人工智能实现道德主体潜力的最大化。