人工智能道德增强的伦理问题研究
2024-12-31吴雪华
摘"要:随着现代科学技术的发展,人类道德的有限性逐渐凸显,以道德教化为主的传统道德增强和以技术手段为主的生物医学道德增强,无法产生令人满意的效果。鉴于此,一些学者继续探索新的途径来实现道德增强的愿望。原则上来讲,人工智能或许是一个不错选择,既不会增强周期漫长,又不会直接运用医学手段干预身体。人工智能道德增强主要有彻底增强、辅助增强和苏格拉底式道德增强三条进路,但其在实际操作过程中还需要很长一段路要走。
关键词:道德增强;人工智能;彻底增强;辅助增强;苏格拉底式道德增强
中图分类号:TB"""""文献标识码:A""""""doi:10.19311/j.cnki.16723198.2024.17.087
人类的发展史就是人类的增强史,人类增强从原始社会就存在,并从未停止。其中,以“道德上更好”为目标的道德增强是数十年来伦理学领域中极具争议的热点问题。社会文明要生存,道德必须要跟上科学的进步。当前,我们面对的是一个科技日益发达的世界,而人类的道德水平却没有进化到该有的程度,自然道德无法应对现代社会技术发展所带来的严峻挑战和威胁,因此寻求新的道德增强方法迫在眉睫。
1"人类道德的有限性
由于人类是在小而紧密的群体中进化的,而技术只能影响我们祖先的周围环境,所以进化出来的道德心理主要是“短视的(myopic)”。人类的道德心理在很多方面都受到了限制,都倾向于有限的认知和利他主义。许多的道德决定都是建立在直觉和本能反应之上,而不是以理性和慎重的方式进行。除此之外,责任分散效应即当个体处在群体当中时,个体的责任感就会由群体来分担,造成责任分散,也与人类道德的有限性息息相关。
人类社会一直在寻找让公民变得更有道德的方法。与同时期的科学进步相比,依靠指导、法律和教育等非生物手段来强化道德的传统道德增强(traditional"moral"enhancement),往往是缓慢而有限的。埃里克·迪特里希(Eric"Dietrich)声称,人类可以在道德上进步,但是有些不道德的行为,如撒谎、谋杀、虐待儿童和基于种族、性别、性取向等的歧视,可能无法从中解脱出来。尽管学校和社会一直在教育社会成员向善,但不可否认这些行为仍继续发生。人类需要新的方法来完成更高层次的道德提升,使之符合目前社会的需要。
2"生物医学道德增强的困境
在2008年,以英格玛·佩尔森(Ingmar"Persson)和朱利安·赛沃莱斯库(Julian"Savulescu)为首的西方学者就提出了生物医学道德增强(biomedical"moral"enhancement)的概念。与传统道德增强不同,它主要以生物医学干预为主,使用药物、深度脑刺激和基因选择等生物手段来提高人类的道德水平。他们认为,通过对人类行为的基因和神经生物学基础的科学探索,可以加速道德学说的动机内化。这种干预可以迅速产生效果,有效帮助人类超越自身局限性,更好应对威胁人类社会的巨大问题。
当然,这种方法也是危险的。在技术安全性上,常见的就是轻微的副作用,例如使用血清素可能会头晕、恶心,甚至会出现自杀的倾向。在人格同一性上,随意改变性情,会造成被增强主体对自我认同的断裂,社会关系的瓦解。在自由意志上,会剥夺主体的自然权利,限制主体的道德自主性,使主体的自由意志受到破坏。在情感复杂性上,道德情感难以量化,每个人都是独立的个体。既然生物医学技术不是一颗“万灵药”,那有必要去探寻一条更有说服力的新路径。
3"人工智能道德增强的优势
随着现代科学技术的高速发展,人工智能已经逐渐成为人类生活中极其重要的一部分,它强大的计算和数据处理能力能很好地帮助人类解决自身的局限和不足。在不久的将来,预计人工智能会在很多领域达到并超越人类,包括但不限于交通、教育、工业等,其未来潜力无法估量。既然人工智能的发展前景和应用范围如此广阔,那么将其运用于道德领域协助人类进行道德选择和判断,自然无可厚非。
假设你有保护环境的道德原则,你也愿意将垃圾进行分类,但是你不知道垃圾分类的相关知识,因此你经常会把垃圾扔错垃圾桶,违背自己的道德标准。现在有了人工智能技术,它可以快速地搜集信息,给你提供最优的行动方案。这种非侵入的外部道德增强技术既不会通过药物手段改变人体内部的生物因素;也不会通过非药物手段直接刺激人的大脑深部,干预人的基因。在此基础上,有关人工智能道德增强的不同方案被连续提出,为了更好地提升人类道德,接下来将对不同方案进行梳理和总结。
4"人工智能道德增强的3种哲学思考
4.1"彻底增强:道德决策机器
彻底增强(exhaustive"enhancement)的强道德人工智能,旨在制造一个当人类遇到科技发展迅猛但道德实践却没有跟上的道德滞后问题时,能够替代人类作出正确选择的道德决策机器。此方法是将道德判断完全交给人工智能机器,从而使其转化为独立的道德决策者。迪特里希对道德决策机器的发展潜力持支持乐观态度,他认为我们应该创造一个更美好的世界,在这个世界里只有具备道德的机器居住,因为人类的道德本质是如此的脆弱,总会被各种局限所阻碍,而机器却没有这些弱点。所以一些专家想要通过创造优于人类道德能力的人工智能体来提升道德水平,它主要根据系统设计者所拥护的道德原则来指导人类的行为。只要道德决策机器的系统被输入完成,我们所有的人,包括设计者本人,都需要遵循机器下发的指令去执行。
道德决策机器相较于人类更擅长进行道德判断和道德选择,以智能化和自动化为主要特征的人工智能技术使得机器作出的决定具有恒定的公正性和一致性,并且不受偏见、歧视和利己的影响。目前,机器在人类日常生活中变得愈来愈重要,它在各个领域都充当着道德决策输出者的角色。在医疗保健应用方面,人工智能技术会在诊断和治疗阶段对患者提出更合理全面的建议,用来提升治疗效果;在自动驾驶系统方面,人工智能技术会使用传感器让汽车实现自动驾驶,以减少交通事故发生率;在语音处理和识别方面,人工智能技术会通过语音助手查询相关讯息,使我们的生活变得更加便捷。有了道德决策机器,我们不需要付出任何努力就能够达到预期的道德增强效果,而且机器也会不厌其烦地为人类提供道德决策这一过程。
这种彻底增强的方案虽然给人类的道德提升带来了新的可能,但是就当前社会而言,人类或许还没有办法做到将道德决策完全放心地交给机器。首先,由于多元主义(pluralism)的存在,我们到底应该采用哪种道德原则来指导系统的设计还没有达成共识,因为无论是义务论还是其他道德理论,总会有人不同意。其次,道德决策机器的设计者会受到自身的限制犯一些编程编写错误,而且外部环境因素引起的系统零件短路,也会影响机器的正常使用。再次,人工智能技术缺乏道德判断所需要的情感敏感性,不能作出综合的道德决策。最后,把道德的判断权交给机器,会导致人类成为机器的附庸,失去道德自主权。从此,道德决策不再由人类作出,而是由机器作出,人类自身道德的增强将无从谈起。
4.2"辅助增强:道德人工智能
与彻底增强的强道德人工智能完全服从道德决策机器不同,辅助增强(auxiliary"enhancement)的道德人工智能(moral"artificial"intelligence)则需要主体的进一步参与。赛沃莱斯库和汉纳·马斯伦(Hannah"Maslen)认为,道德人工智能可以监测影响道德决策的物理和环境因素,可以识别并让主体意识到自己的偏见,并可以根据主体的道德原则和价值观等道德标准为主体提供正确的行动建议。第一,道德人工智能通过对主体生理、心理和环境状态的持续监测,来提醒主体注意影响道德判断的因素,它是一个道德环境监测者(moral"environment"monitor)。当监测到主体的疲劳程度会使其道德决策受损时,道德人工智能会提醒他。第二,道德人工智能可以帮助主体制定和实现特定的道德目标,它是一个道德组织者(moral"organiser)。第三,当主体面临道德选择时,道德人工智能将使用提问的形式来引导主体进行道德思考,并提示主体考虑特定情境的偏见,从而使主体做出最佳选择,它是一个道德推动者(moral"prompter)。第四,主体可以向道德人工智能就其应该采取的行动过程寻求最佳行动方案的道德建议,它是一个道德建议者(moral"advisors)。
阿尔韦托·朱比利尼(Alberto"Giubilini)和赛沃莱斯库进一步描述了一种可以用来增强人类道德决策的道德人工智能的形式即人工智能建议者(artificial"moral"advisor),它会根据人类输入的道德原则和标准更快更有效的给主体提供道德建议。在面对道德抉择时,人类往往希望能有道德专家来指导他,罗德里克·费斯(Roderick"Firth)据此提出了全知全能的理想观察者(ideal"observer),可是这一理想的模型只能停留在理论层面上,没有任何人类能够符合。如果人类的理想观察者是不存在的,那么创造一个人工智能建议者来充当理想观察者也就无可厚非了。不同的是,人工智能建议者会尊重主体的道德自主性,它产生的任何形式都可以表达为:如果这是你的道德原则,那你应该去做这件事。
当然,人工智能建议者也引发了一系列质疑。一方面,人类在道德决策中发挥的作用过于消极被动。虽然人工智能建议者是在人类选定的道德原则下进行工作的,但是对于人类自身来说并没有很好地理解系统所作出的建议和主体选定的道德原则之间有何联系。这样一来,一旦人工智能建议者出现故障,人类主体的道德水平就会退回到最开始。另一方面,当道德准则被主体选定之后,人工智能建议者在提供最佳建议的过程中只会考虑主体选定的道德价值观,不会鼓励人类去思考和了解其他。而人类在享受人工智能技术带来便捷的同时,自然也不太可能主动去推翻自己原有的道德选择。这种辅助增强的道德方案虽然一定程度上解决了道德决策机器带来的问题,但从长远来看会进一步加大对机器的依赖。
4.3"苏格拉底式道德增强
弗朗西斯科·劳拉(Francisco"Lara)和詹·德克斯(Jan"Deckers)在人工智能建议者的基础上提出了一种更为合理的方案,即苏格拉底助手式人工智能道德增强,它主要是通过主体与系统与机器之间的持续交互,来增强人类道德。这种方法类似于苏格拉底精神助产术,并不直接提供任何预先设计好的道德原则和价值观,而是以对话的模式引导主体独立思考,使主体在不断地训练过程中增强自我道德判断的能力。也就是说,当人类遇到道德抉择时不会一味地依赖人工智能,而是首先作出自己的道德判断,然后将其判断提交给智能系统进行审查,这时系统就像苏格拉底一样,向人类提出相关的问题,使人类获得启发,意识到最初的道德判断并不是最优解,从而一步一步地实现主体自身的道德提升。
苏格拉底式道德助手具备强大的规划和决策能力,在设计机器程序之初,我们就在其中编入了一系列功能用以帮助道德主体做出道德判断,并根据这些判断促使人类最佳行为的产生。尤其是在外在经验的支持、道德概念清晰度的梳理、逻辑准则论证的指导、主体道德决策合理性的判断、增强对个人局限性的道德认识、对人类怎样实施决策的建议等方面,凭借虚拟语音助手和人类进行对话,以此来提升主体的道德推理和思辨能力。苏格拉底式道德助手的出现逐渐摆脱了道德主体对机器的依赖,与以往道德主体决策的消极被动不同,现在的人类通过与机器的对话获得了更多的参与感。人类与机器的交互不仅是为了得到增强的结果,更是为了体会增强的过程,帮助主体学习道德推理,了解系统作出的建议和主体选定的道德原则之间的联系。通过这种方式,既可以锻炼人类增强道德所必需的认知技能,又可以激励人类按照合理的判断做事。
然而,苏格拉底式道德增强在实际的操作过程中也遇到了很多困难。在道德领域,苏格拉底式道德助手的存在并不会直接把人类主体变成一个至善至美者,因为它起到的只是辅助作用,不能绕过人类的道德动机去增强人类的道德水平。如果主体由于自身的情感而不愿意接受智能机器提供的最优建议,那么这项方案也就无法发挥任何作用。而且对于一些道德败坏的人类来说,主体参与感的增加也会助长其作恶的可能。比如,虚拟语音助手是为了帮助人类作出正确的道德判断,但是一些人会借助它的能力去不劳而获,更有甚者会剽窃、会抄袭。此外,人类与机器的对话会延长主体做出道德选择的时间,每一次的选择都需要和智能助手进行大量的互动,这在现实生活中或许不太可能实现。
5"结语
人工智能道德增强不是为了取代人类的决策,而是通过一种新兴技术帮助主体过上“道德上更好”的生活。只不过,有时人类所遇到的道德问题是极其复杂的,现有的技术水平还没有办法给出更好的答案。在未来的社会,随着人工智能技术的进一步发展,可以预见,人类主体和人工智能的双向互动不失为增强道德的一种可行方案。
参考文献
[1]Savulescu"J,Persson"I.Moral"enhancement,freedom"and"the"god"machine[J].The"Monist,2012,95(3):399421.
[2]Dietrich"E.Homo"sapiens"2.0:why"we"should"build"the"better"robots"of"our"nature[J].Journal"of"Experimental"&"Theoretical"Artificial"Intelligence,2001,13(4):323328.
[3]Persson"I,Savulescu"J.Unfit"for"the"future:the"need"for"moral"enhancement[M].Oxford:Oxford"University"Press,2012:107.
[4]Gips"J.Towards"the"ethical"robot[M].Cambridge:MIT"Press,1995:243252.
[5]Savulescu"J,Maslennbsp;H.Moral"enhancement"and"artificial"intelligence:moral"AI[J].Beyond"Artificial"Intelligence,2015(9):7995.
[6]Giubilini"A,Savulescu"J.The"artificial"moral"advisor:the"“ideal"observer”"meets"artificial"intelligence[J].Philosophy"amp;"Technology,2018,31(2):169188.
[7]Firth"R.Ethical"absolutism"and"the"ideal"observer[J].Philosophy"and"Phenomenological"Research,1952,12(3):317345.
[8]Lara"F,Deckers"J.Artificial"intelligence"as"a"socratic"assistant"for"moral"enhancement[J].Neuroethics,2020,13(3):275287.