生成式人工智能嵌入思想政治教育的伦理风险及其治理路径
2024-06-11周刚
周刚
近年来,以互联网、大数据、人工智能为核心的数字技术迅速发展,特别是2022年以来,以ChatGPT为代表的生成式人工智能技术取得重大突破。生成式人工智能是指基于机器深度学习自主生成具有一定逻辑性的文本、图像、视频等内容的模型及其相关智能技术。生成式人工智能一经推出,就对包括教育在内的众多行业产生重塑性影响。思想政治教育是高等教育的重要组成部分,伴随着高等教育数字化转型的不断深入,人工智能技术与思想政治教育融合日益紧密,其潜在的伦理风险如伦理准则失衡、道德标准失守等随之逐渐凸显,并可能削弱思想政治教育实效。因此,具有前瞻性地审视生成式人工智能嵌入思想政治教育的伦理风险表现样态,探究伦理风险生成逻辑及其治理路径,对于推动思想政治教育数字化转型具有重要意义。
一、生成式人工智能嵌入思想政治教育
伦理风险的多重样态
生成式人工智能技术在通过优化育人过程、挖掘育人要素、拓宽育人空间深度嵌入思想政治教育的同时,其潜在伦理风险日益凸显。这种伦理风险既源于人工智能的一般性伦理风险,也具有思想政治教育的显著意识形态属性,主要呈现出伦理关系失衡、伦理行为失当、伦理规范失控等风险样态。
伦理关系失衡,师生主体地位消解及自我认知失调。生成式人工智能在融入思想政治教育的过程中,打破了原有学校教育中师生之间的强相关结构,有可能降低教师在课堂上的主导地位,影响师生之间的互动程度,削弱师生的主体地位,并可能导致学生自我认知的失衡。
其一,生成式人工智能的融入淡化了师生之间的联系,消解着教师的主体地位。一方面,以ChatGPT为代表的生成式人工智能能够理解和生成人类语言,利用其内置算法和模型,基于问题生成相应的答案,形成“人—机器—人”的虚拟交互关系。受教育者可以通过ChatGPT直接获取题目答案,批改课程作业,教师的信息主导优势和地位被不断消解。另一方面,随着生成式人工智能技术的发展,受教育者越来越依赖数字交往平台,师生之间交往进一步弱化,阻碍了师生之间的情感交流,教师主体地位被进一步弱化。加之部分教育者数字化素养偏弱,在教学过程中运用生成式人工智能技术难度较大,有可能加剧教育领域的“数字鸿沟”。
其二,生成式人工智能的潜在“画像”功能,导致受教育者自我认知失衡。大数据驱动的生成式人工智能契合了思想政治教育的多样化特征,能够根据学生需求提供个性化、定制化学习内容,不断提升思想政治教育的精准性。生成式人工智能在提供信息方面的确带来了便利,但长期的“信息投喂”也可能导致受教育者陷入“信息茧房”困境。人工智能算法往往会根据用户喜好和浏览习惯,推送相似或重复信息,使得用户接触到的信息范围变得狭窄,难以获得更为丰富和全面的内容。对于受教育者而言,长期接触这类偏窄的信息,可能会导致其思维固化,难以形成全面、客观的自我认知。
伦理行为失当,造成数字技术过度依赖与算法偏见加剧。大数据和算法推荐是生成式人工智能的核心技术,但其在丰富思想政治教育形式、创新思政教学方法的同时,也存在过度依赖数字技术、算法权力异化等伦理风险。虚拟智能教育空间更多以数字技术作为主要支撑,其伦理判断以量化形式表征,难以模拟并理解师生关系和道德观念,学生难以从冰冷的数据中感受到人文关怀。
其一,过度依赖生成式人工智能技术,会弱化受教育者的批判思维和创新能力。一方面,随着生成式人工智能技术的快速发展,其对信息数据进行加工、筛选和复合能力顯著增强,极大地方便了人们的学习和生活,同时也容易使受教育者陷入算法的“舒适圈”,进而产生对技术的盲目崇拜,过分依赖机器生成的信息弱化了人们对信息的筛选和加工能力。另一方面,当个体与ChatGPT等生成式人工智能进行交流时,其对话内容和形式与“人类交互”高度相似,致使个体产生认知的舒适性,缺乏对真实世界的直接接触和感悟,容易引发对现实情况的误判。以撰写文献综述为例,使用ChatGPT可以较快获得相关文献并生成文献综述,但并不能替代研究者的学术素养训练,过度依赖这种工具将导致研究者丧失学术研究应有的深入思考能力。
其二,算法偏见可能冲击自由、公平等价值观念,撕裂网络主流意识形态价值认同,进而影响社会公平。一方面,以ChatGPT为代表的生成式人工智能在预训练过程中需要庞大的数据支撑,这些数据本身就可能带有对特定群体的社会偏见,进而加深刻板印象,从而加剧社会不平等。联合国教科文组织发布的相关研究成果显示,开源大语言模型倾向于将工程师、教师、医生等更多元、地位更高的工作分配给男性,而经常将女性与传统意义上被低估或被“污名化”的角色挂钩,从而引发性别歧视。[1]随着生成式人工智能应用越来越普遍,其生成内容中极小的性别偏见,也可能显著加剧现实世界中的不平等。另一方面,生成式人工智能在人机交换过程中不断获取用户信息,并通过自我学习提高技术的准确度。一旦使用者提问本身带有恶意或者偏见,经过长期训练便可能造成错误输出。另外,技术研发人员的个人偏好和主观情绪,也可能造成算法偏见并引起伦理问题。
伦理规范失控,可能导致隐私数据泄露与伦理责任主体缺失。生成式人工智能技术的快速发展,加之其在思想政治教育应用过程中的相关法律道德规范不健全或执行不力,可能引发伦理规范失控风险,主要包括隐私数据泄露和伦理责任主体缺失。
其一,教育信息采集和使用不当,可能造成隐私数据泄露。生成式人工智能在应用于思想政治教育实践的过程中,需要通过电脑、监控系统、可穿戴设备等智能设备采集大量教育者和受教育者的数据信息,全方面、全过程地了解师生的上课动态和行程轨迹,从而辅助教师调整教学方式,进行有效的智能测评和学情分析,为学生提供定制化教育资源和个性化教育形式。大数据的采集使师生信息数据高度透明化,其中不可避免地包含师生的生物外貌特征、心理缺陷、婚恋交友等隐私信息。如果师生数据保护意识不强,相关数据一旦被不法分子使用,将会造成不可估量的伦理风险。
其二,生成式人工智能的自我决策和自我学习功能,可能对传统伦理责任主体造成冲击。传统的责任伦理判断依赖决策行为与行动结果之间的因果逻辑关系,可以明确追溯到主体责任。而以ChatGPT为代表的生成式人工智能,依据数据和算法驱动的自主决策,其决策模型属于“算法黑箱”而缺乏透明度,难以对具体决策进行审查、干预和判断。如果人工智能技术在嵌入思想政治教育过程中出现决策失误,很难追究具体决策问题的技术主体责任到底来自技术研发者、数据提供者还是机器操作者。同时,思想政治教育承载着明确的政治立场和意识形态属性,它要求教育者具备深刻的判断力和敏锐的鉴别力,以引导学生形成正确的价值观和政治观念。然而,生成式人工智能设备尽管在某些领域展现出强大的能力,但不具备理解人类复杂思想的能力,在思想政治方面的判断力、鉴别力等方面存在先天缺陷,容易造成误判等风险。
二、生成式人工智能嵌入思想政治教育
伦理风险的生成机理
生成式人工智能嵌入思想政治教育,具体表现为以大数据为基础、智能算法为核心的全面嵌入思想政治教育实践各要素、全场域的过程。然而,这一进程不可避免地伴随着一系列伦理风险,其风险涉及范围广泛,从研发、设计到具体应用,都可能对人与人、人与社会的和谐共生带来潜在风险。这些伦理风险继承了生成式人工智能领域普遍存在的伦理问题,彰显了思想政治教育的独特性,是内生性机理、功能性机理和实践性机理共同作用的结果。
内生性机理:算法技术的局限性与思想政治教育的实效性相矛盾。科学技术像一把“双刃剑”,既能够推动思想政治教育快速发展,有时也会“表现为异己的、敌对的和统治的权力”[2],并制约思想政治教育的实际效用。随着生成式人工智能的快速发展,大数据的算法优势逐渐彰显,在弥补人类思维不足的同时,其自身也存在一定局限性。“算法黑箱”、机器自主学习等技术性根源容易导致“算法歧视”,不可避免地带来一系列伦理风险。
一方面,算法数据的依赖性与思想政治教育的时效性相违背。在生成式人工智能融入思想政治教育的实践活动中,算法技术扮演着核心角色,其高度依赖数据样本却带来了不少伦理风险。首先,生成式人工智能算法模型更多依赖以往数据建立,而数据本身往往带有偏见且容易过时。基于这些数据来分析现实问题,与思想政治教育“因时而新”的需求相悖[3]。此外,一旦数据缺损或算法代码出错,不仅无法保证算法模型的稳定性,还可能导致误判,进而严重影响用户“画像”、信息推送等功能,引发伦理风险问题。此外,在借助生成式人工智能赋能思想政治教育时,教育对象思维的转化、顿悟等心理转变无法通过数据进行预测分析,即生成式人工智能只能通过算法分析思想政治教育量的变化而无法达到质变。
另一方面,算法模型的固定性与思想政治教育的针对性相冲突。思想政治教育的目标是促进个体自由而全面的发展,由于每个教育对象的个性特征和成长环境不尽相同,需要根据个体实际情况进行因材施教。生成式人工智能在融入思想政治教育后,将教育对象、教育过程等不同环节进行精细化处理,转化为一个个冰冷的数据符号,依托固定的算法模型为教育对象提供个性化学习资源,引导受教育者按照预设的模式进行学习。这种统一固定的算法推荐模式,可能固化学生的创新思维,导致学生失去独立思考的能力,本质上不利于学生个性化发展,影响思想政治教育的针对性。
功能性机理:技术应用的工具性与思想政治教育的价值性相冲突。功能性风险是由于生成式人工智能的技术理性扩展而引发的伦理风险,它涉及智能技术在思想政治教育过程中可能带来的各种道德困境和倫理挑战。德国社会学家马克斯·韦伯将技术理性划分为工具理性和价值理性两方面。工具理性追求的是目标的达成和效率的最大化,它在赋能思想政治教育过程中,关注的是如何更有效地利用数字工具和手段来达到预期效果。价值理性强调的是行为的动机和意义,而非仅仅是行为的结果或实用性。[4]在实际应用中,价值理性要求我们在追求技术发展的同时,也要关注伦理道德和行为准则。
一方面,生成式人工智能快速发展引起工具理性过度膨胀。生成式人工智能为思想政治教育注入了新的活力,能够精准地捕捉教育对象的学习状态,准确评估其学业水平,并模拟真实的教育场景为思想政治教育提供无限的创新空间,推动教育的数字化和现代化进程。然而,生成式人工智能技术的日益完善虽然极大地丰富了教育功能,但也导致教育对象过度沉浸于数字技术营造的智能教育空间,并对数字技术产生过度依赖,进而削弱了教育对象的学习能力和判断能力。同时,这种过度依赖使得教育对象难以洞察思想政治教育背后所蕴含的深刻价值和意义。因此,随着生成式人工智能的“技术霸权”逐渐显现,其工具理性不断侵蚀价值理性,使得思想政治话语权被数字所支配。
另一方面,思想政治教育的价值理性的统摄作用得不到充分发挥。思想政治教育具备强烈的意识形态属性,它致力于引导人们坚定“听党话、跟党走”的信念,肩负着培养合格的社会主义建设者和接班人的崇高使命。然而,与生成式人工智能的工具理性相比,两者之间存在一定的张力,使得思想政治教育价值理性的发挥受到一定限制。教育对象在数字技术的诱惑下,过度依赖数字技术工具理性,导致人与人之间的情感交流逐渐淡化,高阶思维判断能力的发展受到严重阻碍。这种现状不仅与思想政治教育“以人为本”的初衷背道而驰,更可能引发一系列伦理风险,对社会发展造成不良影响。因此,需要重新审视人工智能技术的工具理性与思想政治教育的价值理性之间的关系,确保两者在思想政治教育过程中得到充分体现和最大限度的平衡。
实践性机理逻辑:技术发展的不确定性与风险认知的有限性相制约。生成式人工智能在融入思想政治教育实践的过程中,伦理风险的产生既源自客观条件,也受到主观因素影响。在客观层面,数字技术的“算法黑箱”,为伦理风险的滋生提供了土壤。而在主观层面,由于教育主体、教育对象、研发人员等对潜在伦理风险的认知不足,以及相关配套机制的欠缺,使得上述主体对伦理风险的判断能力受到限制。由于思想认识的局限和技术发展的不确定性,相关主体对伦理风险的识别能力和应对能力仍显薄弱,无疑成为伦理风险生成的主观因素。
一方面,生成式人工智能技术发展的不确定性,给伦理风险预测带来极大的挑战。生成式人工智能的三大核心要素——大数据、算法和算力,共同构成了复杂而精妙的运作体系。其中,算法模型作为关键的一环,具备一定的自主性,能够自主决策和自主学习。只要基础数据足够丰富,算法模型便能不断地修改和创建,实现持续的自我优化。然而,在深度学习的过程中,新数据的不断产生和反馈使得算法模型持续优化,这种自我迭代的能力使得生成式人工智能技术的输出结果变得难以准确预测。更为复杂的是,算法模型通常以代码的形式呈现,这使得人们的情感因素和意图难以被算法所捕捉和表达。因此,难以判断生成式人工智能技术背后的逻辑意图和责任主体,从而形成了所谓的“算法黑箱”。这种“黑箱”性质不仅增加了技术应用的复杂性和不确定性,而且加大了伦理风险的发生概率。[5]因此,在推进生成式人工智能技术的发展过程中,需要充分考虑到其不确定性所带来的伦理风险,并采取相应措施进行防范和应对。
另一方面,当前应用主体对生成式人工智能融入思想政治教育的风险认知尚显不足。随着生成式人工智能技术的优势逐渐显现,越来越多的思想政治教育工作者积极投身于教育数字化浪潮,极大地推动了思想政治教育现代化进程。然而,由于生成式人工智能涉及大数据、机器学习、神经网络等多学科交叉知识,其深度和广度往往超出了传统思想政治教育工作者的认知范畴。当前,生成式人工智能融入思想政治教育的实践尚处于探索初期,面临着技术开发、数据共享等方面的法律法规尚不完善、伦理规范和指引相对匮乏的挑战。[6]由于缺乏相应的伦理风险防范机制与配套措施,有效预防伦理风险的发生变得尤为困难。同时,技术开发人员往往追求数字技术功能实现和效果优化,在设计算法模型时容易忽视对道德规范、技术伦理的整体考量,进而导致对生成式人工智能融入思想政治教育过程中可能产生的伦理风险认知不足。
三、生成式人工智能嵌入思想政治教育
伦理风险的治理路径
生成式人工智能技术有效提升了思想政治教育实效性,但随着技术的不断演进,其潜在的伦理风险也逐渐凸显。针对潜在的伦理问题,需要以科学的态度和人文关怀,共同探索出一条符合伦理原则和教育使命的治理路径,确保生成式人工智能真正促进思想政治教育实现数字化转型和高质量发展。
建立价值引领机制,突出以人为本价值导向。技术价值应与人的全面发展价值相一致,在规避技术伦理风险时,需要优先考虑价值取向,遵循思想政治教育规律,顺应学生认知规律,引领教育对象跳脱出“算法偏见”“信息茧房”“技术黑箱”等困境,摆脱技术依赖,重新构建多样化的主体世界。首先,突出以人为本的价值导向。在思想政治教育领域,培养德才兼备的人才是核心,数字技术只是一种服务工具。在路径上,要始终坚持以人的全面发展为中心。教育者不仅要利用生成式人工智能提高教育效率,更应该关注教育对象的情感需求,主动与教育对象沟通,坚守师生角色伦理,恪守规范,学以致用。推动技术本位向以人为本转变,引领生成式人工智能技术持续向好发展。另外,要辩证看待数字技术工具理性与价值理性之间的关系。思想政治教育是有温度的教育,应做到以理服人、以情动人。研发主体应将马克思主义道德伦理观念融合到算法设计、研发和应用全过程,让“算法推荐池”引领道德伦理充盈于人工智能平台。教育者应用马克思主义世界观和方法论来评判生成式人工智能嵌入思想政治教育的利与弊,从而不断优化算法嵌入思想政治教育的伦理取向。
强化素养培育机制,提升伦理风险应对能力。在思想政治教育领域,生成式人工智能产生伦理风险的有效防范,与技术主体(如算法设计人员)、应用主体(如教师和学生)的数字素养密切相关。如果技术主体缺乏对风险的认识和责任感,在算法设计和研发阶段就无法有效评估伦理风险,从而可能埋下潜在的风险隐患。应用主体数字素养不足,缺乏独立思考能力,容易被未经干预的算法侵扰,从而导致信息封闭、信息传播偏好、价值失衡等问题。首先,强化研发主体数字意识。广泛开展人工智能基础知识、数据素养和算法素养培训,将技术应用与人文、伦理、社会等领域相融合,以提升技术主体、应用主体的人工智能适应能力、胜任力和创造力为关键。其次,加强对智能思政技术主体的教育引导。推动应用主体与技术主体就人工智能伦理展开讨论交流,强调对技术主体的价值理性引导和责任意识培养,促使其自觉接受思想政治教育和相关学科知识培训,提升专业素养,加强算法研发和设计的道德自律性。其次,提升应用主体数字能力。技术伦理风险不仅在技术研发设计环节产生,也存在于应用过程。对于教师而言,应实施教师智能技术应用能力提升计划,加强教育培训,引导教师遵守人工智能伦理原则和规范,确保教学安排和决策符合教育效益、伦理规范和技术效能。对学生而言,则需要加强人工智能伦理知识普及教育,通过融入课程教学和组织专题讲座等方式,提高学生的人工智能基本原理理解能力,培养其信息辨别能力,引导其抵制有害行为,树立正确的科技观、伦理观和网络行为习惯。
完善伦理约束机制,提高伦理风险防控水平。健全伦理约束机制是规避技术异化的有效手段,是促进生成式人工智能技术赋能思想政治教育的前提。首先,做好顶层设计,健全法律法规。通过法律法规化解技术伦理风险,将伦理风险防控纳入法治体系。加强对算法的审查和监督,对生成式人工智能企业和算法设计人员进行资格审查和风险评估,建立相应的约束机制,防止爆发潜在的伦理风险。同时,对隐私数据泄露、虚假信息传播等建立保障机制,提高教育对象的网络素养,排除伦理风险漏洞。其次,强化全程监管,完善预警系统。技术研发主体和应用主体都应充分发挥生成式人工智能技术在伦理建设方面的优势,通过建立伦理风险监测、监督和审查机制,提升技术的安全透明度。针对不同风险类型建立伦理风险预警机制,一旦发现潜在伦理风险,立即向执法部门和师生发送预警信息,实现预警精准化。最后,压实主体责任,建立问责机制。完善算法问责机制,明确责任主体,理清技术研发者、制造者和应用者的责任,保障生成式人工智能技术的合理合法使用。同时,围绕伦理风险防控目标和内容,搭建目标清晰、结构合理的评价体系,对生成式人工智能嵌入思想政治教育的伦理风险进行客观、公正的评价,确保伦理风险防控取得实际效果,不断提升思想政治教育实效。
参考文献:
[1]徐永春.联合国报告:生成式人工智能加剧性别偏见[N].新华每日电讯,2024-03-09.
[2]马克思恩格斯文集:第8卷[M].北京:人民出版社,2009:358.
[3]任凤琴,董子涵.风险与超越:生成式人工智能赋能思想政治教育的伦理分析[J].重庆邮电大学学报(社会科学版),2023(6):80-89.
[4]米华全.智能思政伦理风险的生成逻辑、表现形式及防控机制[J].中国电化教育,2023(2):111-117.
[5]王婧怡.數字时代算法技术异化的伦理困境与治理路径[J].自然辩证法研究,2023(10):128-131.
[6]冯子轩.生成式人工智能应用的伦理立场与治理之道:以ChatGPT为例[J].华东政法大学学报,2024(1):61-71.
(作者系常州大学党委常委、副校长)
责任编辑:刘志刚