“人工智能+道德教育”的潜在风险、价值规约及未来路向
2022-03-18秦楠
秦 楠
(华南师范大学心理学院,广东广州 510631)
人工智能是以模拟人类思维模式和行为方式为特征的高度类人化技术,为教学辅助、教育评价和个别化学习提供强有力的技术支持。人工智能在道德教育领域的延展,反映了人们对新技术助力“道德教育和美好道德生活”的迫切需求,彰显了未来人工智能道德化与道德教育智能化相融合的“人工智能+道德教育”发展走向。而道德教育区别于一般意义的教育,需要建构起与自身相适应的人工智能模式。[1]当前,道德教育尚处于弱人工智能阶段,难以实现一种彻底的人工智能模式。人工智能仍然与道德教育处于浅层次的结合状态,主要基于智能平台、自适应系统等,使道德知识的呈现图谱化、生动化、立体化,模拟特定的道德情景,激活学生知觉系统、听觉系统等多种感官体验,促进学生对抽象概念的认知和道德场景的体验。例如,美国Knewton自适应学习平台、ALEKS学习系统,国内的AI助教、AI好老师等智能平台,都能基于学生的认知水平和反馈的学习效果,提供精准化的资料推送,满足个性化的学习需求。人工智能应用于道德教育产生了诸多有益影响,但道德教育不同于一般性的客观知识学习,还包括主观的、情境的和自主意志渗透的价值体系,历经道德主体的自主判断、价值选择、道德情感态度和道德意志力形成等内化过程。情感和经验在道德教育中扮演重要的角色,道德判断中的基础要素,诸如同情、人道、团结感、同胞感等人类共通的情绪和情感,以及处理这些感受的感性思维能力,对学生的道德发展至关重要。若忽视了道德教育这一重要特征,盲目在道德教育中应用人工智能技术,将会带来一系列潜在风险,原先依赖人的知识智慧、经验归纳、情感直觉等作出的价值评判,将会由于技术的引入而愈发陷入一种客观事实的理性描述,遮蔽人的主体性,使人沦为工具。对此,本文主要阐明人工智能技术应用于道德教育的潜在风险,并通过价值规约的方式赋予人工智能道德属性,以期在人-技术-道德的和谐共生关系中推动人工智能与道德教育的深度融合。
一、人工智能技术应用于道德教育的潜在风险
人工智能技术为道德教育带来巨大潜能的同时,两者的结合依然面临一系列的潜在风险。由于人工智能技术与道德教育存在内部的张力和冲突,包括程序权威与道德权威的冲突、技术理性与道德直觉的冲突、技术自主性与道德主体性的冲突、技术合众化与道德特殊性的冲突,若不能及时调节两者之间关系,化解上述冲突,那么,人工智能技术非但不能助力道德教育,反而导致诸多潜在风险,为道德教育带来更多不确定性。警惕这些潜在风险是促进人工智能技术与道德教育互动相容的必经之途。
(一)技术理性的僭越,程序标准凌驾于道德之上
人工智能技术使用的初衷是服务于人的学习和发展,促进个体美好品格的形成。但由于人们对技术的过度使用和盲目依赖,导致了教育场域中以技术为中心的失度状态,致使技术理性泛化,价值理性逐渐被遮蔽。技术理性与价值理性的结构比例失衡使道德教育表现为追求效率至上的德育目的,即希望在有限的情感和道德投入中得到最大化的收益。而对于道德教育这类注重情感交互和精神成长类的教育活动,追求效率意味着把一切建立在一致性的标准和程序之上,“标准变得更重要而不是淡化了”,[2]教师和学生的教育生活、精神生活和交往生活潜移默化地被技术所倡导的理性、流程、效率、量化侵占。教学变成了有着“传递-接受”固定模式的灌输式活动,教学方法聚焦于“传递-接受”的效率,教学评价归结于学生对知识的“占有”。[3]人在追逐效率中变得越来越程式化,在一整套严丝合缝的流水生产线上,较少人能注意到技术的伦理规约、技术的审美特性、技术的人性化等价值理性内容与技术理性同样重要。同时,技术理性秉承的实用主义哲学思维无形中塑造了个体的思维方式和学习方式,使人们更容易把精力放在现实的、瞬时的、眼前的事情上,更关注自我的发展,忽视抽象的、深刻的、情感的意义;更注重改造自然、改变社会的“成效知识”,“教养知识”则处于从属性位置。[4]
(二)强调道德计算,忽视道德情感和道德直觉
道德教育的基础和前提是人类的情感,[5]正是人与人之间情感充沛的交往、丰富精彩的社会活动和直击人心的生命体验构成了个体独特的德育体验。而人工智能由于缺少情感产生的先天生理基础和后天社会实践经历,只能将一般的伦理原则或大众认可的道德原则转变为算法,以道德算法的形式模拟人类情感。然而,对于关怀、同情、认同、友善、尊重等这些难以被量化的教育价值,连带着学生的求知心、好奇心、创造力、感受力都在无形中被道德算法消解了,继而造成道德内容的窄化和道德情感缺失的风险。总之,无论人工智能运用何种道德算法,都是将道德认知、道德判断、道德选择、道德行动视为是可计算的,它依据的并非是直觉和经验,而是形式语言和运算逻辑,忽视了真实的道德情感、道德直觉、心理等因素在道德决策中的关键作用,较难真正走进学生的内心世界,实现心与心的情感交互,达成情感共鸣。此外,在德育过程中,个体做出道德判断和选择背后的情感基础是复杂多样的,德育情感的形成更是一个长期过程,既有赖于社会文化的渲染和个人身心的耳濡目染,也与个体活动的社会场域、人生经验、成长经历息息相关,更离不开人作为道德主体的内在心理体验和意义阐释机制。面临如此复杂多样的道德情感孕育机制,人工智能技术模拟出的情感则极其简单化,它不必历经各种道德原则和行为规范的冲突,就能建立自动化、代码化的情感反应机制,失去了情感交互与成长渐进性的过程。
(三) 德育实效性弱化,道德主体性失落
人工智能逐渐模糊了人与技术的边界,借助技术的优势,学生可以摆脱时间、空间等多重限制,在线上丰富的资源库中自主选择德育素材,提升道德水平,甚至可以和道德智能体面对面的进行道德交互。在人与技术共生共存的教育场域,道德教育在目标、形式、手段、方法等方面均发生了巨大转变,若不能及时调整自身来适应当前的技术场域,则会面临德育实效性弱化,道德主体性失落的风险。首先,德育主体的不在场性,使道德教育的实体空间和虚拟空间交织互嵌在一起。人工智能技术转变了传统道德教育线下集体式的发生方式,改变了教师与学生面对面的情感交互模式,从真实有温度的现实情景延展到线上虚拟的学习空间,然而,虚拟的道德案例、虚幻的德育场景致使学生身体与心灵的双重离场,教师无法通过言传身教的方式将经验知识传授给学生,道德教育游离于社会生活之外退化为冰冷的“道德旁观者”,长此以往,即使回归到真实有温度的道德情景中,道德教育也丧失了较多的真实性与实效性。其次,智能化的道德教育脱离了现实的实践经验和自然发生的心理机制,在道德知识智能化呈现、道德情景真实性模拟、德育资源个性化推送、学习效果评估反馈等一站式的学习模式下,人们无需面临太多道德困境和道德两难的抉择,也不必历经各种道德原则和行为规范的冲突,就能获得确定性的道德答案。长此以往,人们逐渐对人工智能建立起道德依赖和道德信任,理性思考、道德推理、道德两难思辨等高阶智慧得不到发展,人作为道德主体的思维能力、道德自信心被弱化。最后,在人机共生、跨界融合的智能时代,人的认知方式、价值趋向、思维方式、活动方式发生极大改变,生成了人的多元性、流动性、离身性的数字化存在方式,[6]促使人们在技术场域重新对人的本质和意义进行再思考。在人与技术的密切交互中,学生有更多机会和时间置身于智能化的学习环境中,个体除了是“社会人”“自然人”,还是抽象的、数字化的“智能人”,对于类似“我是谁”“我想要什么”“我希望过一种什么样的生活”等有关人的本质、主体地位、生命意义等问题,都需要结合当前的技术场域,激发人的主体意识、反思批判精神进行重新思考和定义。
(四)道德合众化,道德主体的个性消逝
人工智能基于大数据的采集和分析,推送适于学生当前学习水平和认知规律的学习资源,专门定制学习计划,并对学习效果进行评估和反馈,以此实现个性化、定制化学习的目的。但有质疑者提出,在道德教育领域,人工智能背后所依赖的算法模型非但不能实现真正意义上的个性化学习,反而排除了学生道德发展的其他可能性,阻碍道德主体个性的多样化发展。[1]当所有的受众背后都面对同一个计算模型和算法时,实际的结果反而是合众化的。[7]在真实的道德情景中,学生进行道德判断所依据的道德规范、道德习惯和自身的道德需要千差万别,即使面对同一件事情,不同的人都会有不同的道德评判标准。但人工智能技术并不清楚个体做出道德判断背后依据的原因是什么,个体是如何归类这些原因的,[8]只能通过大规模的程式化计算呈现世界实然普遍有效的法则,诉诸客观理性、普遍统一的基本要求,按照课程标准将道德教育体系理论化、知识化,把学生归纳为有限的类别,并按照特征分门别类给出应对的方案,这种分类处理的模式非但没有体现出学生的个性特征,反而在范畴分类的基础上模糊学生个性,只针对一般性特征,淡化特殊性特征,更忽视道德教育的社会性和关系性,使其面临道德合众化的风险,更无法培养出道德个性独立的人。
二、人工智能技术的道德化与价值规约
人工智能技术应用于道德教育的潜在风险,是由于人、技术、道德的关系失衡导致的。从技术工具论的视域出发,技术作为一种代替人类复杂劳动、提升生产生活效率的工具和手段,其本身并不承载道德,所谓的技术向善,只是人后天使用技术时提出的理性规范,而不是技术本身承载的道德属性。由于过度崇尚技术的手段性目的和工具性价值,致使技术自身的文化性格和价值理性被抛掷其后,技术伦理的反思就成了一种边缘性力量,[9]诸多伦理风险和道德问题得不到实质约束。基于此,彼得·保罗·维贝克(Peter-Paul Verbeek)跳出技术工具主义的桎梏,将技术纳入到伦理学范畴内,并将道德原则引入技术的开发、设计使用上,提出以技术道德化为核心的“道德物化”思想,开启了技术伦理学的后人类主义发展路向。“道德物化”阐明了人工智能技术承载道德的原理,“道德决策由人与技术人工物共同作用的结果”。[10]这意味着,技术物也可以嵌入道德,承载价值,技术物也可以成为道德行动者,[11]它虽不能像人一样做出道德选择和道德行为,但它以“道德→技术→人工物→引导→人的德性”[12]的方式发挥积极的调节作用。
遵此逻辑,若想规避人工智能技术应用于道德教育的潜在风险,就需要引领人工智能技术向好的、善的方向发展,在其结构和功能中嵌入道德,进行价值规约,平衡好人工智能技术与道德教育的各自边界。一方面,人工智能技术要遵循以人为本的生命性原则,在后续的技术应用中遵循道德教育的内在特性和规律,遵循人的道德发展规律;另一方面,人工智能技术在源头指向上是向善的,要遵循面向群体的道德规范和价值观,[13]遵循人类道德主体的道德规范和价值要求,包括人工智能技术物的内在设计、开发是合道德的,结构设计和算法设计符合正义性的伦理规范。
(一)技术回归生命:人工智能以人的发展为最高价值原则
“人是目的”这一命题依然是智能伦理体系的坚实根基。人工智能虽然像人但始终不是人,作为一种技术人工物,是人基于特定目的被创造出来的,一定程度上是人自身目的性的体现。人工智能技术应用于道德教育所引发的种种问题,其根源还是在人本身,在于人自身如何处理人-技术、人-技术-道德、人-技术-社会的关系,如何在教学过程和教学手段中人性化地使用技术,在于人工智能技术的应用是否遵循了人的身心发展规律等。归根结底,人工智能技术应增加人“生命成长的可能性”,[14]深化教育的育人功能,以关照人的生命、情感、心灵的健康成长为前提条件。
首先,人工智能技术的应用要顺应儿童的道德发展规律。个体的道德发展并不是一成不变的,人工智能如何根据儿童不同的道德发展水平实施个性化教学,是需要深入思考的问题。劳伦斯·科尔伯格(Lawrence Kohlberg)采用道德两难的问题情景探究人们道德认知的原因、年龄阶段、推理过程时发现,“当面临更高的道德水平时,儿童并不是简单地模仿它。儿童在经历某种认知矛盾时,可能会通过积极的心理努力来调整冲突,借用他或她自己的观点来整合新的信息”。[15]“道德冲突—认知不平衡—做出心理努力—认知平衡—道德水平提升”是儿童道德发展的内在机制。人工智能技术尊重并顺应人的道德发展规律是生命性原则的最好体现。
其次,人工智能技术要尊重个体的生命体验,尊重每个人独特的生命历程,使每个鲜活的个体都在智能生活和现实生活中体验生命的意义和价值。学生是社会性的存在,社会活动是人的生命性体现,人的道德发展亦离不开后天社会活动、社会环境的影响。虽然人工智能及其衍生物无法像人一样根据以往的社会经历、人生经验行使自我意志,但是使用者可以利用技术手段让道德知识立体化、生动化、活泼化,充分调动知觉系统、听觉系统、视觉系统的共同经验,通过身体的感受、体验获得对抽象概念的认知,借助体验过程中生成的感受和刺激,为内心道德信念大厦的建立提供基础与质料,形成更为深刻的道德理解。
(二)技术回归正义:人工智能以公平正义为目标
道德算法的偏见歧视、隐私侵犯、人权尊严保障等正义性问题是社会各界一直关注的焦点。人工智能技术的应用是为了解蔽世界而不是禁锢世界,是为了更多人的受惠而不是少数人的扩张,是服务于人而不是垄断人。人工智能若只考虑“效率”“有用”,不考虑“正义性”问题,则会陷入“达摩克利斯之剑”的悲剧,危机一触即发。
从技术源头上看,由算法偏见、算法歧视引发的算法正义问题是最易被忽略的部分。“人类做出道德决定时的前提、原则通常是多种多样的,如何将这些人类特征提炼成计算机程序”?[16]为了使道德判断变成可量化的活动,程序员不得不将道德概念、道德价值、道德情景、道德规则这些难以量化的内容编程为可计算的代码,不得不抛弃一些难以把握的要素,即使这些要素对于教育系统的正义而言不可缺失。加上初期编写算法时不可控制地掺入了程序员的主观意识,极大可能会引发算法偏见。技术回归算法正义,需要尽可能保证算法的公平性问题,如增加个体的数字知情权,道德算法的透明性、可修改性等,消除潜在的歧视和偏见。基于公平正义原则需要进一步深思的是,人工智能技术承载的价值到底是谁的价值,由谁来选定这套价值,是程序员、哲学家还是德育教师?他们是否有权利将自己的价值观或自己选定的价值植入机器中?上述问题的澄明有利于使技术回归公平正义。
在教育生活中,人工智能技术的使用具有两面性,一方面,人工智能技术的应用可以促进优质教育资源的共享,促进教育优质均衡发展,保障社会公平;另一方面,随着技术应用的范围扩大,人工智能技术也存在侵犯学生私人生活、暴露学生隐私的风险。由于在课堂管理、教学过程、教学评估等诸多环节中都引用了人工智能技术来收集学生的大量信息,实时监控学生的学习状态和成长变化趋势,实现个性化教学辅导,人工智能对学生学习状态的全方位监测程度越来越高,学生的一举一动被记录下来,“技术规训变得更加隐蔽”。[17]学生暴露隐私的风险随之提高。人工智能技术过度介入学生的私人空间,违背了教育促进个体生命成长的最初使命,需要合理把握人工智能与教育的边界,为学生的自然成长留出足够的空间。
在社会生活中,人工智能技术深刻影响着社会正义的实现。借助人工智能这一高新技术产业,在技术逻辑和资本逻辑的运作下,人与人之间的数字鸿沟日益凸显,社会资源、权力、机会、声望快速汇聚在少数人手中。极具优势的技术精英们,相比起技术匮乏者们,他们不仅在财富总量上占据优势,而且在获取财富的途径和方式上更加多样和轻松。技术间接促成了非正义的竞争。人工智能应本着让每个人受惠的公平正义原则,挖掘公共利益,让每个社会成员平等地参与到这场盛大的技术革命中来,特别是对弱势群体成员的倾斜,从而达成一种互惠的状态。
三、“人工智能+道德教育”的未来路向
人工智能与道德教育的关系从异化冲突到共生共存,需要双方基于内在本性和发展规律做出相应的让步和调整。道德教育既不能脱离人工智能时代整体的发展走向,又要在遵循学生道德主体地位的前提下,超越世俗的技术场域,在精神的、文化的、伦理的层面上寻找一方净土,唤醒学生灵魂深处的正义之心与求善之心,以超越技术社会的价值危机与接踵而至的伦理风险,遵循个体内在的道德发展规律,形成价值理想。
(一) 促进人、技术、道德三方良性互动,构建人机共生的德育场域
人工智能时代,技术催化下的人工智能产物逐渐拥有了类似人的意识、思维和情感,人和技术的主客体边界逐渐模糊淡化,道德教育需要破除传统视域下人与技术二元对立的壁垒,以关系主义的目光审视人与技术的内在联系与张力,促进人、技术、道德三方良性互动,形成人机和谐共生的德育场域。技术与人是紧密联结的成长共同体,从生命成长的视角而言,技术“在物质和精神双重层面介入人自身的形成和改造中”,[18]人的自由发展需要技术发挥内在优势实现个体对生命完整性的追求,若失去技术的辅助,那么人的生命成长则缺失了自主性与超越性的可能。同时,技术的存在与发展必须以人的自由发展和价值实现为前提条件,充分尊重并保留传统德育的主体性和发生场域。在技术与道德的关系层面,虽然技术本身是价值无涉的,亦无法进行道德评价,但技术可以在开发设计和后天使用时进行道德规范和价值规约,使技术承载道德,从而实现技术的道德化。因此,道德教育要以关系性的目光看待技术、人、道德的关系,发掘技术与人、技术与道德、技术与社会之间更多的可能性,技术需要充分发掘自身的文化性格和价值理性,更好地利用技术优势辅助人的发展,消除技术与道德二分的壁垒,使技术成为双向的、动态的、可控的存在,推动个体的道德发展,实现道德教育的业态升级。
另外,道德教育要顺应信息化、智能化发展的潮流,突破技术与道德的壁垒,构建人机协同、线上线下融通的道德教育体系。首先,借助线上技术和智能平台实现德育资源的数字化、线上化。庞大丰富的德育资源库不仅延展了学生自主选择的空间,还能根据自身的道德需要建构独特的道德自我,体现道德主体的自由意志。这种德育形式的优势在极大程度上激发学生内在的道德动机,改变道德他律的倾向,增强自我教育的能力。其次,利用人工智能技术还原真实的道德场景,增强道德的叙事性体验。虚拟情景的叙事性体验能够还原复杂的日常生活情景,使学生在特定的情景下做出道德选择,弥补了传统德育形式化、空洞的不足。再次,做好线上智能平台和线下德育教学的有效衔接。人工智能应用于道德教育并不是完全替代传统的道德教育,而是取长补短、利用技术优势提升传统德育的有效性。如何把道德教育的社会性、关系性与智能化的学习环境结合,把线上学习资源、学习内容、学习时间、学习形式同线下教学更系统地衔接起来,是构建人机共生德育场域的关键。最后,借助人工智能技术开发道德教育的自适应学习系统,开展精细化、可视化、科学化的道德教育。借助智慧德育平台构建学生成长模型,观测道德成长的过程和变化趋势,借此把握学生生命历程中的重要节点和特殊要素。此外,人工智能平台还会通过情绪监测的方式,探测学习者在不同道德选择时的心理状态和情感差异,以知识图谱的方式可视化学生内心世界的价值体系,全面描绘出道德者的道德倾向,针对个人特性开展更为精细化的道德教育。
(二)加强价值认同,孕育道德情感
人拥有非确定性的认知神经网络系统和机器不具备的直觉感应能力与模糊分析问题的能力,这种能力让我们对善恶拥有了直觉的判断。认知神经科学、脑科学等诸多研究“借鉴人脑的信息处理方式,模拟大脑神经系统,构建以计算为基础的虚拟机器脑”,[19]并通过算法更新、电路设计、神经建模等模拟出人的情绪机制、心理活动、道德的情绪种类、神经递质等高级功能,使机器像人一样获得道德判断能力和感性能力,值得期待的是,“未来的教育将进入教师与人工智能协同共存的时代”,[20]人工智能或许可以作为道德主体与学生出现在同一课堂上。
基于此,人工智能时代比任何时候都要重视道德情感的孕育及发展,道德教育应回归一种本真和朴素的样态。由于道德教育隶属于情感教育的范畴,而由人工智能衍生的平台、设备、机器人等还不具备情感交互的能力,更无法像教师一样通过言传神教实现以德育德、以情塑人的目的。而且学生作为特殊的个体存在,每个人都具有独特的道德倾向和道德敏感性,即使面临相同的道德情景,不同的人也会生发出不同的道德感受和道德情感。道德情感包含了大量的道德直觉,个体做道德判断时往往结合当下的情景调动大量经验和直觉迅速做出判断,相比较之下,人工智能无法依据道德直觉做出道德判断,更无法对每个人的道德情感予以回应,因为它指向的是合众化的、普遍性的道德规律与道德计算。总之,道德情感、价值认同、道德敏感性、道德直觉能力等依然是对抗人工智能成为道德计算工具的有利武器,也是智能时代道德教育最需要坚守的部分。在具体实践中,道德教育可借助人工智能技术创设逼真的道德情景,使学生切身融入道德情景之中,调动情绪触发价值体验,这一过程离不开教师的引领,教师要营造具备育人功能的情感场域和情感氛围,与学生内在的情感修养交互,实现师生内在情感品质与外在情感场域的协调统一,[21]增强学生心理层面的感受体验,创造经验式的情感心境,通过外在身体的肌肉体验和内在心灵的感悟,调动情绪发展,形成共情能力、意志和品格。
(三) 提升技术批判反思能力,培育新时代智能价值观
人工智能技术的发展不仅造就了人类生活方式和交往方式的巨大转变,同时也改变了人与人交往中依赖的价值评判标准,人的价值观念体系也随之更迭以适应当前高度智能化的社会。基于此,人工智能时代需要建立新的智能价值观。智能价值观是人们处在智能社会形成的对人工智能的看法、倾向、态度的观念总和,在结构上由智能知识观、智能审美观、智能伦理观构成。智能知识观是对人工智能本质、特征、风险的系统认知,理性思考、剖析当前社会中存在的人、技术、伦理等异化问题。智能审美观指个体形成技术审美的观念和能力,利用技术的审美特性,合规律性与合目的性地开发使用人工智能,使用过程要体现自然规律,符合社会与人的发展规律,追求技术美感。智能伦理观指个体在技术应用与伦理反思中平衡人工智能与人、社会之间的关系,认识人工智能及其应用者的义务和责任,形成技术责任感。
新时代智能观根据人的本质属性、德育自身的运作规律和社会发展的要求,在人、技术、社会良好互动的前提下,培育具有智能社会特质和社会责任意识的“时代新人”。[22]智能观的养成需要个体、学校、社会三方协调互动达成。首先,在个体成长中,提升自身的技术素养,发展智能思维和技术批判能力,认识人工智能发展的二重性,既要看到人工智能的颠覆性,又要看到文化、伦理方面的限度。从技术哲学、伦理哲学、道德哲学的视角思考人工智能的道德主体地位,人工智能是否有道德思维,人工智能的本质与道德本质,人工智能的伦理问题等。了解人工智能的发展历程及道德算法编写程序等相关知识,构建人工智能知识体系,看懂道德算法,发出自己的声音,保持道德算法的透明性和公平性。其次,在学校教育中,净化和升级智能化的学习场域,构建学生、教师、管理者、家长、社会一体化的智能平台,打造线上虚拟和线下实体的德育空间,促进智能化德育与传统德育的平衡与融合。提升教师的数字教学能力和线下干预引导的能力,在保证学生的主体性前提下,合理运用技术增加道德教育的实效性和趣味性,并警惕隐私泄露的风险。再次,在社会层面,建立跨区域之间、社会和学校之间的优质资源共建共享,构建优质公共服务平台,增强社会成员的技术运用能力和参与能力,关注如何运用人工智能进行自我更新,适应社会。总之,未来道德教育的发展将通过人工智能的技术赋能,充分发挥每个人的主体性,把每个人都当作无可替代的存在,尊重生命个体的主体性或参与性,不断实现自我超越,并进一步扩展和丰富自我的精神世界,促进全社会成员自我人格的健全发展。