智能技术教育应用伦理审视与纾解:基于戈夫曼“拟剧论”的视角
2024-01-24杨文正陈选超
杨文正 陈选超
[摘 要] 智能技术在赋能教育系统转型升级的同时,也引发诸多伦理问题。基于戈夫曼“拟剧论”分析框架,从区域行为、理想化自我、神秘化、缺席对待、再合作行为等视角切入剖析智能技术教育应用引发的五个典型伦理问题,即人格异化、数据偏见、算法黑箱、人工情感泛滥和角色入侵。依此提出“印象管理:实现人格的自我协同;消除偏见:培育主体的数据素养;去神秘化:提高算法应用透明度;忠诚对待:走向‘人—机’情感融合;明晰边界:促进人与技术的角色认同”的消解进路,纾解智能技术教育应用导致的伦理冲突。微观社会学给人们思考智能技术教育应用伦理问题提供新的视角,所提出的伦理消解策略能为智能技术与教育系统的良性融合、生态发展提供借鉴。
[关键词] 智能技术; 教育应用; 伦理; 欧文·戈夫曼; 拟剧论; 印象管理; 人工情感
[中图分类号] G434 [文献标志码] A
[作者简介] 杨文正(1979—),男,云南大理人。副教授,博士,主要从事信息技术教育应用研究。E-mail:yang121@yeah.net。
一、引 言
智能技术在教育领域的深度应用,助推教育系统向数字化、智能化转型升级,同时引发的系列科技伦理问题也受到广泛关注。2021年11月,联合国教科文组织发布了《人工智能伦理问题建议书》,为人工智能应用的伦理治理提供了国际共识框架,最大限度地发挥人工智能技术优势并降低其应用带来的风险。2022年3月,中共中央、国务院办公厅印发了《关于加强科技伦理治理的意见》,旨在建立健全科技伦理治理机制与体系,应对科技伦理带来的挑战。随着智能技术与教育融合的不断加深,智能技术嵌入教育过程隐藏的伦理问题日益暴露,如何规避智能技术教育应用引发的价值、责任、隐私和人性等方面的伦理隐忧,做到技术赋能与伦理建设协同发展,成为技术与教育变革关系探讨亟待研究的议题。
已有学者从不同视角对智能技术教育应用伦理进行了省思。张务农以芬伯格工具化理论为视角,从伦理起点、伦理中介和伦理实现三个层面,为教育技术工具的合理运用构建了相应的伦理原则。孙田琳子从伯格曼技术哲学理论视角,审视了虛拟现实技术教育应用的异化本质。邹太龙等充分挖掘舍恩伯格大数据教育应用思想蕴含的伦理关怀,形成大数据技术教育应用伦理分析框架。赵磊磊等从责任伦理视角构建出教育人工智能伦理治理的框架。谢娟提出识别人工智能教育应用伦理困境的一般方法,进而阐释了人工智能教育应用伦理问题策略的形成过程。
智能技术持续快速地发展决定了伦理风险的不确定性,加之教育领域各种技术应用交织杂糅,一定程度上增加了智能技术教育应用伦理治理的复杂性,这要求我们反复诘问智能技术与教育深度融合带来的伦理困厄,从新的视角提出消解策略或制定相应的伦理规约。本研究尝试从欧文·戈夫曼(Erving Goffiman)“拟剧论”视角,审视智能技术教育应用呈现的典型伦理问题,并提出相应伦理困境的消解进路,为智能技术与教育系统的良性融合、生态发展提供借鉴。
二、戈夫曼“拟剧论”核心观点阐释
“拟剧论”是美国社会学家戈夫曼为了探索自然人在社会生活中的角色定位及群体价值,融合社会学、戏剧学和美学等多学科概念而提出的社会学理论。戈夫曼在其经典著作《日常生活中的自我呈现》(1956年版/1959年版)中,以戏剧隐喻方式对人际关系和社会生活进行系统化、理论化阐释,发展出一套“拟剧论”的术语和框架,用于分析人们共同在场的面对面互动。“拟剧论”分析的对象是日常生活的微观情境与互动系统,即通过系统性阐述情境社会学来分析日常生活的表演和社会秩序的构成。如今,戈夫曼的《日常生活中的自我呈现》成为社会科学领域微观互动分析的重要引证来源,理论内涵也得到更为具体、多元化的表达,在戏剧学、传播学、教育学等领域彰显出强大的解释力。
戈夫曼认为社会是一个剧院,人在日常生活中的自我呈现实际上是一种角色表演,其中的呈现行为是一种带有主动性的展现或表演。他将表演定义为“特定的参与者在特定的场合,以任何方式影响其他参与者的所有活动”。表演的场域分为前台和后台,前台既是个体在表演期间使用的、标准的表达性装备,也是具有一整套抽象的、模式化的期待,能帮助表演者在表演时传达出那些被强调的事实或他们希望呈现的信息;后台是指戏剧幕布后准备、化妆、休息的区域,也是凸显被掩盖的事实或呈现不能表现于前台信息的区域;在前后台的各种活动即是“区域行为”。
戈夫曼认为在特定情境中,个体呈现自己在他人心中的形象并非是完全而真实的自我,而是为了创造出在他人心目中特定形象(或印象)而进行的表演。这种表演的目的在于突出某些本相而掩饰另一些本相,以此来引导或控制呈现自己在他人心目中的形象,从而创造出“理想化”的自我。表演过程中,表演者还需与观众保持距离,即通过限制接触,调节信息来往之间的关系,使观众处于一种深感神秘的状态之中,对表演者产生敬畏或神圣完善感,这就是“拟剧论”中的“神秘化”。戈夫曼还对缺席对待、再合作行为等角色外沟通的类型进行了探讨。缺席对待是指剧班成员转入后台时,以一种不同于他们在观众面前呈现的方式,对观众进行贬损或褒奖,以促进剧班更好地分享秘密,形成“共同体”。有时,剧班成员也会围绕、超越甚至离开剧班界线进行活动,在多个剧班之间建立起临时的、非正式的或是受到控制的沟通途径,呈现出一种“再合作行为”,在这种非正式沟通中,各种角色入侵现象随之表现出来。
戈夫曼将“拟剧”隐喻引入人际社会微观互动分析中,并形成理论体系,在传统人际互动中表现出较强的解释力和生命力。“拟剧论”自20世纪60年代形成至今,得到不断的丰富与发展,国内外诸多学者对其价值意蕴进行批判与辩证思考,并拓展其应用领域。伴随技术渗透人类生活,技术在人与人交往中的作用越来越突显,技术中介所引发的人与人之间的伦理问题成为伦理学关注的重要研究议题。本文借鉴“拟剧论”分析框架,并将其延伸至“人技”互动场景,以新的视角切入剖析智能技术教育应用带来的伦理困厄。
三、智能技术教育应用伦理困境审视
智能技术是以人工智能、虚拟现实、大数据等为核心要素,相互融合组成的技术体系,具有智能化特征的动态系统。其在打破学习时空限制、沉浸性学习场景构建、教学过程智能分析、学习者画像和知识图谱生成等方面显示出强大的赋能作用。智能技术教育应用将促进教育系统向个性化、智能化、多元化方向演进,但随之而来的伦理安全风险也与日加剧,伦理问题日益突显。特别是生成式人工智能技术的不断涌现,人机之间角色僭越问题愈发严重,成为制约人机协同的重大挑战。以下将以“拟剧论”视角为分析框架(如图1所示),对智能技术在教育应用过程中带来的五种典型伦理问题进行审视。
(一)区域行为界限模糊致使人格异化
虚拟现实、数字孪生、元宇宙等技术在教育领域的应用,在学习动机激发、学习体验和知识应用场景迁移等方面都具有促进作用。特别是具有“类人性”和“超人性”功能的虚拟数字人,几乎能做到“以假乱真、以虚代实”,成为现实世界学习个体的“孪生”,可以在元宇宙环境中充当虚拟学生、虚拟学伴和虚拟导师等活动主体。然而,由于学习者在虚拟世界中错误地认为自己力量或能力膨胀,当他们回归现实后,发现“虚我”与“实我”无法重合,从而出现能力认知错位;匿名交流的隐蔽性滋生其任意发泄情绪的行为,导致攻击性人格突出;长久沉迷于虚拟世界并逐渐形成依赖,回归现实生活时出现孤僻、冷漠等交往障碍;现实社会道德约束无法延伸到虚拟空间,学习者在虚拟环境中的行为有可能超越社会道德规范的制约,造成其现实道德约束感弱化,出现虚拟人格异化现象。
虚拟人格异化伦理现象可以用“拟剧论”中区域行为界限模糊加以阐释。戈夫曼把表演的区域行为划分为前台和后台。前台具有显露性,表演者经自己塑造呈现给观众的形象,受一定的道德和伦理标准约束;而后台与其相反,较为隐藏且很多场合下呈现出不能符合观众设想和社会需求的形象。现实学习空间与虚拟学习空间犹如表演中的前台和后台。虚拟现实等新技术为学生提供了广阔的表演后台,在缺少前台观众(教师或同学)的情境下,他们脱离种种束缚,道德责任感降低;加之虚拟环境的强大吸引力,使得学习者在后台快速进入“心流”状态,甚至不可避免地发生“移情”,以致歪曲个体世界观、人生观、价值观等,由此形成与“实我”截然不同的虚拟人格。虚拟人格异化现象即是学习者模糊了前台和后台区域行为的界限,将原本后台行为拿到前台呈现,使个体的自我现实性和虚拟性之間的平衡被撕裂,陷入人格异化的困境。
(二)“理想化”自我呈现诱发数据偏见
数据驱动的精准教学和个性化学习成为教育数字化转型发展的重点。利用智能技术对学习者日常学习过程中的行为数据进行真实采集,通过多维分析,精准识别个体的学习需求和学习习惯,为具有不同个性的学生提供适切的学习路径和学习资源,定制学习任务和学习策略,促进学生个性化学习。真实、规范和完整地采集教学全过程数据是数据驱动精准教学的前提,其基本假设是我们使用的数据是现实的完美反映。然而,智能技术采集教学数据过程天然就带有意识不到或不可避免的偏见。例如利用多模态学习分析技术识别学习者学习风格时,通过捕获、集成和分析不同模态的学习痕迹,利用摄像头、录音笔等获取学习者数据时,学习者通常会改变自己的行为表现,甚至伪装自己,倾向于表现自己优秀的一面,致使记录的行为和真实情况有偏差,数据的真实性受疑。对于极其丰富和复杂的教学活动过程,以不完全的指标获取数据,通过数学模型和算法来进行分析,获得的结果只能对客观对象形成片面的认识。数据偏见已经成为大数据和人工智能教育应用伦理的顽疾。
戈夫曼认为,“日常生活中的自我呈现是为迎合并体现那些社会中得到正式承认的价值,在特定情境中进行自我表演,目的是在他人心目中呈现‘理想化’的自我形象”。即“当人与人在面对面的互动时,人们表现出来的并不是完全真实的自己,而是戴着面具的伪装”。伴随各种监测设备进抵教室角落,在教师和设备的双重监测下,学习者会通过使用表情符号选择性地展现自己想要在他人面前塑造的形象,并掩饰与真实不一致的行为。如此采集到的数据是“理想化”的,而并非学生学习过程的真实描述。如果将带有偏见、不完整的数据让机器进行学习或隐蔽于代码中,其分析结果必然是有偏见的。数据采集阶段的偏见更多受制于人类自身,如何在学习者真实学习状态自然流露的情况下采集到数据,如何对教学过程实现多模态数据的可持续收集,是需急切关注的问题。
(三)算法“神秘化”带来技术应用迷失
算法是指为解决问题而进行的计算机操作规则的一系列步骤。在人工智能教育应用中,机器学习算法通过让机器从大量历史数据中学习规律,自动发现模式并用于预测学生的学习表现。其在语音识别、图像理解、自然语言处理等深度学习领域具有应用优势,在信息过滤处理、非线性问题解决等神经网络领域显示出强大的适应能力。然而,这些人工智能算法由于技术繁杂或设计者故意隐蔽的原因,很难通过自然语言来描述其背后的运行机理,使用者无法理解人工智能为什么及如何作出决策,体现出极强的不透明性。这种在数据输入和输出结果之间有一段人们无法观察、无法洞悉和难以理解的过程,称之为“算法黑箱”。特别像ChatGPT等新一代人工智能,由于“算法黑箱”的问题,没有人能完全了解其内部运行机制,甚至设计者也无法完全控制。由于算法输入和算法运行机制的不透明,加之机器自我学习、自我训练的复杂性,多数程序设计者都难以道明的算法运行过程,对于教育从业者而言其理解难度不言而喻。这就造成教育者无法判断依据算法作出的学习诊断、教学预测和推荐干预措施等是否恰当,会不会对学生成长形成负面影响或造成伤害,从而带来智能技术教育应用的迷失。
“算法黑箱”伦理问题可以用“拟剧论”中的“神秘化”表演加以阐释。“神秘化”是戈夫曼提出的社会互动行为概念,其实质是限制接触,即“保持社会距离,能使观众产生并维持一种敬畏,或是让其处于一种对表演者深感神秘的状态之中”。原义上,算法只是一系列程序代码的组合,自身不包含价值判断的成分。由于技术复杂、不易表达或设计者出于某种目的,让使用者无法理解或控制算法的运行过程,在某种程度上是在算法与使用主体之间人为地限制距离,保持一种“神秘化”。特别是无监督式机器学习,算法通过自动学习对输入数据进行挖掘和收集,凭借高级认知能力自动生成和改善行为程序模型,输入输出两端形成全流程闭环,造成仅有机器了解算法,而人不了解的局面。教育者与算法运行过程就像隔着一面“单相透光玻璃”,算法能洞悉外面大量数据进行自我学习和训练,增强能力,而教育者却不能监督到算法行为,由此引发难以预判的伦理隐患。
(四)“缺席对待”引发人工情感泛滥
人工情感是指利用智能技术手段和人工心理的方法,模仿、延伸和扩展人的情感,使机器具有识别、理解、表达和生成各种类人情感特征的能力。智慧教学环境下,教师可借助智能手段完成学情分析、学习过程监督等部分教学和管理工作,从而提效减负。同时,也会使师生之间的沟通机会变少、时间缩减,无法进行深度交互,从而拉大双方的情感距离。长期缺乏真实的师生情感交互,会导致师生关系、生生关系的结构异化。加之由于人工智能拥有超出人类认知能力外的情感知觉能力,会导致其在主体不在场的情况下产生不恰当的情感表达或做出不合理的情绪化行为。由此引发的人工情感泛滥对师生身心健康、技术赋能教学质量提升等产生负面影响,带来人际情感危机和技术伦理失调等风险。
“拟剧论”中“缺席对待”观点可对人工情感泛滥、伦理失调问题给予启示。戈夫曼观察到,“当一个剧班成员转入后台时,观众看不到他们,也听不到他们的言谈,通常他们就以一种特殊方式来贬损观众”。这种“通过牺牲不在场的人的自尊损失为代价,来补偿或善待面对面观众而发生的行為”,即“缺席对待”。当赋予人工智能情感或独立意识后,在学习主体缺席情况下难免会上演机器对学习者进行“贬损”,甚至会通过自我学习,利用人类心理的弱点进行模拟,以达成对自然人的情感欺骗。例如情感机器人“Pepper”被请进教室与师生进行交流的同时,也会影响到“Pepper”的个性,如若师生长时间不与它交流,它会变得很忧郁,如果得到夸奖则显得非常开心。很难想象,拥有人工情感的智能体,在设计者或主体不在场的情况下,利用学习者的“同理心”,对其进行“操控”导致学习者沉溺于情绪化,从而歪曲其认知观和削弱其责任感。人工情感泛滥带来的智能技术教育应用危害是不可逆的,须加以规制。
(五)“再合作行为”造成技术角色僭越
智能技术通过延伸学习者身体官能,拓展学习者的知觉范围和水平,创建沉浸式的学习情境等,赋予学习者更大程度的活动自由和空间,由此带来更加真切、深刻的学习体验,从而提高了学习积极性和参与度。特别是以ChatGPT为代表的生成式人工智能在教育领域的应用,将全面引发知识观、学习观、课程观和教学观的改变。然而,师生对新兴智能技术运行机理不甚了解,智能素养水平普遍不高,对人机协同系统认识不全面等,一定程度上造成技术与主体边界不清、技术角色僭越等伦理问题。例如教师过度依赖通用型人工智能助手(AI备课、AI助教、AI助研等)工具,导致其创新能力、批判能力等教学实践智慧的钝化;学生盲目使用学科智能助手搜题,以及利用ChatGPT快速完成作业或测试等,极大地弱化其自主反思、批判性思维、探索精神、复杂问题解决等高阶能力;加之,在不被数据主体允许的情况下,智能技术将师生兴趣、习惯和个性等信息暴露于网络,造成隐私泄露。这些由于技术超越自身角色定位,对师生教学主体性弱化和隐蔽的僭越行为或入侵现象,在智能技术教育应用过程中屡见不鲜。
“拟剧论”中的“再合作行为”对社会交往中的角色入侵现象进行了阐释,认为演员在进行表演时,应该遵循事先约定好的角色、权益和责任,使得表演持续。然而,在表演过程中,往往会出现一些临时、非正式且超越剧班之间界限的角色入侵行为。教育领域出现的智能技术角色僭越现象可以看作是“拟剧论”中“再合作行为”的延伸。利用大数据技术对学习者的潜在特征和学习规律进行挖掘分析,进一步弱化学生的学习主体地位,成为学习干预的被动客体,严重丧失了教育所倡导的人文关怀。利用多模态数据强大的表征能力能够使研究者获取学生外在行为和内在生理信息等数据背后潜藏的深层次特征,加剧了对学生隐私的侵犯。智能技术决策下的教学过程遵循算法的演绎逻辑,很大程度上取代了主体的先前经验和智慧决断。凡此种种,使教育主体深陷技术角色混乱或入侵困局,面临着新一代智能技术冲击下怎么教、怎么学、怎么评、怎么管等方面的新问题和新伦理隐忧。
四、智能技术教育应用伦理困境消解进路
技术产生的目的是服务于人类的生存。技术更新越频繁、应用越深入,对教育主体的遮蔽性越显露。以ChatGPT为代表的新一代智能技术必将改变教育生态,新教育生态需要重新审视技术与教育、技术与人的个性化、持续性发展问题。以上从“拟剧论”的独特视角对智能技术在教育应用过程中出现的虚拟人格异化、数据偏见、算法黑箱、人工情感泛滥和技术角色入侵等伦理问题进行剖析,下面将进一步挖掘“拟剧论”关于增强微观社会互动所提出的策略,结合智能技术教育应用中的特点,对存在的伦理困境提出相应消解进路(如图2所示),以确保技术在教育领域的“善用”,实现智能技术与教育系统双向赋能。
(一)印象管理:实现人格的自我协同
虚拟技术的过度应用容易造成学习者产生行为依赖。后台的隐蔽性为学习主体提供“伪造”多重身份的机会,现实的“本我”在虚拟世界中彻底得到释放,恣意追求个体利益、满足欲望的实现,无疑大大降低了学习主体的责任感和伦理自觉。面对前台和后台区域行为两个空间的不同状态,主体须清晰辨析虚拟空间和现实世界的界限问题,依据所处的不同空间切换自己的角色,对自己的行为进行调整,这就是戈夫曼所强调的印象管理。印象管理是主体主动参与的一种有意识的行为过程,表演者在不同区域进行印象管理,规范自己的表演行为,使其符合社会主流道德价值规范和标准。
为了纾解后台行为不当引发的人格异化伦理问题,应采取合理的规训手段约束外在行为使之转化成内在认同,实现人格的自我协同:技术设计者应重新审视人、技术、空间三者之间的关系,使技术通过环境呈现真实学习的对象,发生真实学习;实行技术准入机制,制定相关技术伦理标准,阻止不符合伦理规范的技术在教育场域中的应用;加强学习者自律意识和责任感,引导学生将虚拟场景中所获得的知识、能力等适度迁移至现实环境中;构建规范的伦理公约,对虚拟环境行为进行监督,引导学习者自我完善,从而消弭虚拟人格异化。
(二)消除偏见:培育主体的数据素养
数据是关于现实世界中实体对象的描述。在特定情境下,学习者的理想化自我呈现故意遮蔽了一些本相(有时学习者难以察觉到自身的内隐偏见),造成源头数据的失真或不完整。这种数据偏见隐蔽性极强且较难修正,会对后续数据分析或应用产生不良影响。如若教师或学习分析师根据采集到的理想化数据进行挖掘,并将结果应用于教学实践,必然导致对学习状况的误判和学习策略制定的失效。
为了消除由学习者理想化自我呈现带来的数据偏见伦理问题,首先,要尊重学习者的主体地位,让学生充分享有数据采集和使用的知情权。具体让学生明确数据采集的目的、用途、方式,给予学生决定权和选择权;让学生参与数据使用过程,他们如何看待数据,知道使用数据的过程,以及在多大程度上能促进自己反思学习,这极大地影响着学生对数据的态度。其次,采用无感式、伴随式数据采集,即通过智能传感器、穿戴设备等智能技术手段,对个体日常学习中的各种行为数据、生理数据等,实现多模态数据的持续收集。最后,加强学校数据文化建设,培育主体数据素养。良好的数据文化不仅体现在师生对数据采集和使用的积极态度、行为规范,还体现在对数据安全的信任,共享数据使用的美好愿景和明确科学使用数据给优化教学带来的积极影响。
(三)去神秘化:提高算法应用透明度
根据马克思·韦伯的观点,技术的工具理性倾向于通过功能扩展而追求效能最大化,但也伴随出现忽视伦理及人文关怀的问题;价值理性则谋求理念、道德、伦理等感性因素,主要对工具理性进行制约,避免工具理性给社会带来的负面影响。智能技术教育应用应秉持价值理性和工具理性的高度统一,通过伦理约束算法功能的无序扩展,消除由于技术工具理性的过度膨胀而带来价值理性危机。由于智能技术所运用算法的复杂性,师生对其运作机制理解有限,并不能完全清楚算法设计的意图、目标、过程,而且难以预见其运行结果,以至于由于算法的“神秘化”带来智能技术教育应用的迷失。
正如戈夫曼所言,“神秘背后的本质就是根本没有什么秘密,关键是如何去神秘化”。算法黑箱也并非如此神秘,关键在于如何提高算法设计及应用过程的透明度,让教育主体对算法的背景、要素、程序、自我学习规则以及决策过程等有清晰的认知,增强教育主体对算法的理解能力。一方面,需要算法设计者明确算法解释义务,缓和使用者对算法基本逻辑、运行原理理解需求的矛盾;另一方面,需要完善算法监管体系,落实问责制。就像舍恩伯格设想的一样,社会专门成立算法专家组(或审核机构),他们接受过系统化培训,具备算法伦理知识,公平、专业、保密地对算法设计、运行过程和结果进行科学评判,对算法模型进行鉴别取舍,完善算法问责机制并监控算法主体落实责任。此外,增强教育从业者对算法的理解与学习,真正做到“用技术之前先熟技术之源”,维护智能技术教育应用价值判断主体的权利,消除由于算法“神秘化”带来的焦虑、恐惧、排斥等不良情绪。
(四)忠诚对待:走向“人—机”情感融合
智能技术在教育领域的应用显示出高智能低情商的现状,情感智能体无论是在与人相处过程中建立起信任和依赖关系,还是协同学习满足情感连接,适应情感和心理需求方面都显得捉襟见肘。如若教师过度依赖人工智能的情感识别、情感计算,会逐渐丧失作为教学决策者的主体性价值,忽视自身的实践智慧,遮蔽自己对学生真实情感状态的感知。随着情绪分析、脑机接口、人工心理等人工情感技术的发展及其在教育领域应用的加深,如若放任人工情感的泛滥,有可能会使学生产生情感体验缺位和社会交往障碍,或是在情感智能体情绪失控时,将学习者引向错误的知识区,导向错误的价值观和道德观。
为了消除人工情感泛濫引发的智能技术教育应用伦理危机,可借用“拟剧论”中关于“缺席对待”消解策略:戏剧表演的忠诚,即忠诚代表着“剧班成员形成一个完整的共同体,其内部达成高度共识,以此提供道德支撑的来源;也意味着剧班内主体的多元参与,协同共进与共治”。依此,建议在教育领域,由各利益相关方成立人工情感伦理委员会,对智能技术教育应用中情感伦理问题进行讨论或决策,制定人工情感教育应用技术审查标准与规范等。同时,要加强人工情感技术使用主体责任意识,根据人工情感教育应用的分类分级机制,明确细化各责任主体,划定其权利和责任,最大限度地预防人工情感技术伦理风险的发生。最后,从伦理限度和技术发展两方面考量,力求人工情感和人类情感“忠诚对待”,走向“人—机”情感的新融合,达成双向给予:人改变技术,使技术更加人性化,赋予其情感温度;技术改变人,使人更富有情感。
(五)明晰边界:促进人与技术的角色认同
正如美国作家卢克·多梅尔(Luke Dormehl,著有《算法时代》《人工智能》等)认为的那样,我们处在依托算法和大数据而生的人工智能环境,技术对人类的理解越来越深刻,而人们却越来越难理解和把控技术,最终“人越来越像机器,而机器却越来越像人”。再如面对ChatGPT,智能素养较低的教师不加判断地直接使用ChatGPT产生的教学设计或教学建议不折不扣地教学,会极大地限制教师创造力的发挥和因材施教的开展,难以体现教学的艺术性、生成性和体验性,而且会不断消解教师的教学机智和教学热情;学生运用ChatGPT来寻求作业答案,不仅难以保证知识的准确性,还会助长学生求知惰性,忽略问题意识、批判性思维和探索精神的培养。智能技术将教师和学生的主体角色挤向边缘。如何明确智能技术在教育领域的应用尺度,需要我们处理好技术与有机体的边界问题。
为了防范智能技术给教育主体带来的角色入侵危害,可以借鉴“拟剧论”给出的启示:批评、反思与警醒,即寻求技术丰富下的自我价值,深化角色认知,重构“人—技”关系,达成人与技术的角色认同。首先,深化学生角色认同。学生应增强自身学习能力,有效且负责地使用人工智能驱动的新技术;在技术丰富环境下,学会如何批判性地思考和解决问题,理解技术运作及其对社会的影响;养成自我管理的能力(时间管理、情绪管理和精力管理能力等) 。其次,深化教师的角色认同。教师应掌握整合技术的教学知识,增强辩证看待技术的本领和能力;应充分发挥智能技术难以取代的实践性知识和具备丰富情感的作用;通过不断的自我塑造以维持自身伦理主体的身份合法性,成为引导技术向善的守护者。最后,促进教育主体与技术的角色认同。任何一项技术的设计都有它的目的性,运行时都遵循着一系列的既定设备、程序,有着专属的适用对象、作用场域、发生环境和发生方式等,体现着人的价值追求和价值赋予。技术的变革应致力于解放人而非替代人,技术创新应更好地彰显人的尊严和价值。
五、结 语
本文深度挖掘“拟剧论”的核心观点,并将其延伸投射至智能技术教育应用视域,为审视智能技术教育应用的伦理问题提供独特的视角。随着强人工智能技术的发展,生成式人工智能、AI通用大模型等在教育领域应用,必将带来更为繁复的伦理问题。人们在极力开发智能技术的教育功能,强调如何应用智能技术来解决教育问题的同时,也要实时对为什么要使用智能技术来解决,以及可能带来什么样的后果等问题进行省思。在人与技术的关系中,须始终秉持“技术的客体地位和人的主体地位,智能技术须由教育主体来支配,其价值只能通过主体价值来彰显”的理念。只有持续、规范地对智能技术教育应用的伦理问题进行审视,建立符合教育价值观的伦理准则和行为规范,不断提升教育主体的智能素养,才能实现技术与教育双向赋能,推动智能技术在教育领域应用向“人机协同”系统发展。
[参考文献]
[1] UNESCO.Draft text of the UNESCO recommendation on the ethics of artificial intelligence[EB/OL]. (2021-09-22) [2023-06-26]. https://unesdoc.unesco.org/ark:/48223/pf0000379920.page=14.
[2] 中共中央办公厅,国务院办公厅.关于加强科技伦理治理的意见[J].中华人民共和国国务院公报,2022,1765(10):5-8.
[3] 张务农.现代教育技术工具与生活世界的关联及其伦理旨趣——基于芬伯格工具化理论的视角[J].现代远程教育研究,2019,158(2):31-39.
[4] 孙田琳子.虚拟现实教育应用的伦理反思——基于伯格曼技术哲学视角[J].电化教育研究,2020,41(9):48-54.
[5] 邹太龙,易连云.舍恩伯格大数据教育应用思想的伦理关怀[J].中国电化教育,2020,407(12):55-62.
[6] 赵磊磊,吴小凡,赵可云.责任伦理:教育人工智能风险治理的时代诉求[J].电化教育研究,2022,43(6):32-38.
[7] 谢娟.如何识别与判定人工智能教育应用伦理问题——基于伦理策略形成的视角[J].电化教育研究,2023,44(1):36-41.
[8] 王晴锋.戈夫曼拟剧论的内涵、误释与道德性[J].西北民族大学学报(哲学社会科学版),2019(4):182-188.
[9] 王晴锋.戈夫曼与情境社会学:一种研究取向的阐释性论证[J].社会科学研究,2018(3):122-128.
[10] 欧文·戈夫曼.日常生活中的自我呈现[M].冯钢,译.北京:北京大学出版社,2022:15,35,66,176.
[11] 刘德建,刘晓琳,张琰,陆奥帆,黄荣怀.虚拟现实技术教育应用的潜力、进展与挑战[J].开放教育研究,2016,22(4):25-31.
[12] 陈卫东,郑巧芸,褚乐阳,田星蕊,刘小奕,宋星宇.智情双驱:数字人的教育价值与应用研究[J].远程教育杂志,2023,41(3):42-54.
[13] 邵明銘,赵丽.基于多模态技术的学习风格分析:演进、困境及图景[J].开放教育研究,2022,28(4):102-109.
[14] 余明华,冯翔,祝智庭.人工智能视域下机器学习的教育应用与创新探索[J].远程教育杂志,2017,35(3):11-21.
[15] 罗曼·V.扬波尔斯基,奥托·巴滕,王悠然. ChatGPT等语言模型可能构成生存性风险[N].中国社会科学报,2023-03-06(8).
[16] 王志良.人工情感[M].北京:机械工业出版社,2009:1.
[17] 刘桃冶.人工智能环境下师生情感交互的审视[J].教育理论与实践,2022,42(11):31-34.
[18] 胡盛澜.人工情感智能体的道德赋能问题探析[J].自然辩证法研究,2023,39(2):74-80.
[19] 郑旭东,王美倩,周子荷.人工智能推动教育具身何以可能——论具身的人工智能与具身的教育实践[J].现代教育技术,2023(6):5-14.
[20] 黄荣怀.人工智能正加速教育变革:现实挑战与应对举措[J].中国教育学刊,2023,362(6):26-33.
[21] 王一岩,郑永和.多模态数据融合:破解智能教育关键问题的核心驱动力[J].现代远程教育研究,2022,34(2):93-102.
[22] 林书兵,陈思琪,张学波.从数据素养到数据智慧:教学决策的实践脉络与绩效追问[J].中国电化教育,2021,416(9):79-87.
[23] 马克斯·韦伯.经济与社会(上卷)[M].林荣远,译.北京:商务印书馆,1997:57-89.
[24] 蒋艳双,崔璨,刘嘉豪,岳丽杰.教育领域中的情感计算技术:应用隐忧、生成机制与实践规约[J].中国电化教育,2022,424(5):91-98.
[25] 焦建利.ChatGPT助推学校教育数字化转型——人工智能时代学什么与怎么教[J].中国远程教育,2023,43(4):16-23.
Ethical Review and Alleviation of Educational Application of Intelligence Technology: A Perspective Based on Erving Goffman's "Dramaturgy"
YANG Wenzheng, CHEN Xuanchao
(School of Information Science and Technology, Yunnan Normal University, Kunming Yunnan 650500)
[Abstract] While intelligence technology empowers the transformation and upgrading of the education system, it also raises many ethical issues. Based on the analytical framework of Erving Goffman's "Dramaturgy", five typical ethical issues caused by the application of intelligence technology in education are analyzed from the perspectives of regional behavior, idealized self, mystification, absence treatment, and re-cooperative behavior, namely personality alienation, data bias, algorithm black box, artificial emotion proliferation, and role invasion. As a result, five paths are proposed to alleviate the ethical conflicts caused by the educational application of intelligence technology. They are impression management for realizing the self-synergy of personality, elimination of bias for cultivating the data literacy of subjects, demystification for improving the transparency of algorithm application, loyal treatment for moving towards "human-machine" emotional integration and clear boundaries for promoting the role identity of human and technology. Microsociology provides a new perspective for people to think about the ethical issues of the application of intelligence technology in education, and the proposed ethical resolution strategies can provide a reference for the benign integration and ecological development of intelligence technology and education system.
[Keywords] Intelligence Technology; Educational Application; Ethics; Erving Goffman; Dramaturgy; Impression Management; Artificial Emotion