生成式人工智能支持教学决策的实践困境与关键进路
2024-12-05沈苑汪琼
[摘 要] 教学决策具备较强的道德属性,强调向善性和利他性。随着生成式人工智能被应用于教学,其强大的学习、理解和生成能力使之承担起大量非程序化决策任务。这也引发了关键问题:生成式人工智能是否具备支持教学决策的基本能力?未来的教育会受到什么样的影响?文章通过回顾社会学、心理学、教育学、机器道德领域的既往研究,发现生成式人工智能的介入推动了教学决策从经验主义向人机协作模式的转变,同时揭示出其自主性提升过程中伴随着道德敏感性的不稳定。这可能引发人机间的误会、欺骗、责任推卸等风险,并潜移默化地改变教育场景中的道德图景。为应对这些挑战,文章提出注入具备情境适应性的机器美德、构建教学决策专用的提示词与智能体以及推动前瞻性社会实验等策略,以促进道德机器在教育领域的建设。
[关键词] 生成式人工智能; 教学决策; 道德机器; 智能教育; 人机协同
[中图分类号] G434 [文献标志码] A
[作者简介] 沈苑(1996—),女,江苏苏州人。助理研究员,博士,主要从事人工智能教学应用伦理研究。E-mail:shenyuan676@163.com。汪琼为通信作者,E-mail: wangqiong@pku.edu.cn。
一、 引 言
教学是一种复杂的认知活动。教师在教学中需要针对影响学习的潜在因素不断作出决策。决策质量直接影响到教学活动效果[1]。过去教师多依赖于个人经验作出教学决策,近年来随着生成式人工智能(Generative Artificial Intelligence,下文简称GAI)的可及性增加,不少教师已经开始尝试人机协同决策。自2022年起,OpenAI陆续发布大语言模型ChatGPT、可定制的GPTs、文生视频大模型Sora。大模型作为GAI的典型应用,在执行生成任务、模拟人类对话、高质量连贯响应、多模态数据理解、微调控制和定制等方面具有明显优势[2],为制定教学决策提供了全新的机会,同时也带来了风险与挑战。
教学决策的根本目标是促进学生的健康成长与全面发展,具备显著的向善性和利他性。因此,要制定出合理、有效的教学决策,不仅需要遵循教育规律、寻求教育效果,还需要审慎考虑特定决策在价值层面的道德属性。研究表明,机器的自主性越强,潜在的伦理风险就越大,需要考虑的各种伦理条件就越复杂[3]。美国技术伦理专家温德尔·瓦拉赫(Wendell Wallach)和认知科学哲学家科林·艾伦(Colin Allen)将具有高度自主性(Agency)和道德敏感性(Moral Sensitivity)的机器称为“道德机器”(Moral Machine)[4]。从自主性来看,现有的大模型能够根据输入自动生成文字、语音、图片、视频,至少已经达到了“半自主系统”水平。这也相应地引发一系列关键问题:GAI是否具备支持教学决策的道德敏感性?GAI支持教学决策会如何影响教育?如何开发出具备道德决策能力的GAI工具?虽然GAI的发展速度和方向难以预测,但也有必要在理论认识和实践路径上作出前瞻性分析,积极预防和应对可能的风险和挑战。
本研究综合社会学、心理学、教育学领域有关人类决策的既往研究,在回溯教学决策模式发展历程的基础上,分析GAI支持教学决策的形态与特征,进而对其支持教学决策为教育带来的风险或困境作出研判。根据机器道德领域的理论与实践成果,提出教育领域专用的生成式智能决策支持工具的优化思路,以期为未来的教学决策研究与生成式智能教育产品的研发提供参考与借鉴,促进道德机器在教育领域的建设。
二、 教学决策的模式变革:从个人经验走向
人机协作
“决策”的特征在于决策者会对比衡量多个可选项的后果并作出最终选择。教师在日常工作中会制定大量的教学决策,以妥善处理教学实践中涌现出的各种dda4b68dac8728d2d942721892e4728b教学问题。双系统理论指出,人类的决策方式由基于直觉的启发式系统(Heuristic System)和基于理性的分析系统(Analytic System)轮流作用、彼此影响[5]。启发式系统涉及自动且相对轻松的信息处理过程,允许人们在无意识的情况下获取认知的感觉。而分析系统让人们能够有意识地处理信息,参与到带有目的性的分析之中。随着教育数据的持续积累和智能技术的不断发展,教学决策的模式也随之发生变化,从基于个人经验的启发式决策向数据驱动下的循证决策和GAI支持下的人机协同决策的方向发展。
(一)基于个人经验的启发式决策
教育心理学家弗兰克·帕贾瑞斯(Frank Pajares)指出,教师的信念体系是课堂实践的基础[6]。教师会带着自己对教学的态度、价值、期望、设想等一系列从他们在学生时代就逐步积累下来的经验进入课堂。在遇到问题时,教师习惯去识别出与过去经验相似的线索并作出概率推断,从而形成决策[7]。研究表明,即便基于经验的启发式决策可能与最佳决策之间存在着巨大的偏差,教师依旧倾向于相信自己能够准确理解当下场景,对于自己的决策抱有信心[5,7]。
然而,依赖启发式系统制定教学决策在伦理层面存在着明显问题。一方面,启发式系统容易受到刻板印象的干扰,直接影响到决策效果。由直觉主导的决策质量很大程度上取决于教师是否具备充足的经验,及其对于教学的态度和意识。如果教师在缺少搜集相关信息的情况下过分依赖有限的个人经验,就容易忽视学生的个体差异,制定出不公平或有偏差的策略。另一方面,启发式系统的加工速度较快,占用很少的心理资源,相应地导致教师只意识到加工结果却意识不到加工过程[8],导致决策过程沦为简单、随意的处理,可能对学生造成情感伤害。
(二)数据驱动下的循证决策
随着教育大数据规模的快速增长,教学中的各项因素转变为可计算的对象,使数据驱动下的循证决策成为可能。教师可以通过采集分析学生学习过程中的各种数据,并针对性地实施差异化的教学方法,为教学动作创建出仔细校准过的“路线图”,在彰显学生优势的同时,弥补他们的不足,以促进更优质的学习。基于理性的分析系统在此过程中起到主导作用。有研究者开发了一个知识驱动下的教育决策支持系统,能够从现有的学生学分系统中提取可操作的“知识”。例如,教师在决定哪些不合格的同学可以获得补考的机会时,该系统可以通过分析学生当前的学习状态并预测未来趋势,辅助教师作出决定[9]。还有研究者开发了一个用于大学招生的决策系统。该系统存储了大量学生入学前的数据,提前预测学习过程中有失败风险的学生[10]。
与此同时,数据驱动教学决策在实践中也面临诸多质疑。许多教师缺乏正确采集、解读和运用数据的能力。研究发现,当教师将学习数据作为激励学生的工具时,学生反而更抵触。“成绩差的学生知道他们自己成绩差,他们不需要每天被反复提醒这件事”[11]。研究还发现,教师花费大量时间处理数据,致使学习成绩落后的学生缺乏足够的讲解和答疑,可能加剧教育资源分配的不公平[11]。而且,分析系统的加工速度慢,占用较多的心理资源,其理性特征与教学实践的灵活性和情境性冲突[12]。多项研究证明,在分析系统和启发式系统存在竞争关系时,后者往往会获胜,造成非理性偏差[5,7]。此外,多位研究者指出,过度依赖客观数据、给学生“贴标签”等做法消解了教育本身的人文关怀[11,13]。
(三)GAI支持下的人机协同决策
与基于规则的传统人工智能不同,GAI是建立在大数据基础上更加灵活的人工智能技术,其能力超越了对数据的分类和预测,可以通过深度学习、强化学习等算法实现自主学习、自主适应、自主决策等智能化行为,并创作出新颖的文字、图像或其他媒体产物以回应提示工程。这一技术突破推动AI从“工具”转变为教师的“合作伙伴”。在未来,教师向GAI寻求行动建议很可能会成为一种常态[14]。赫伯特·西蒙(Herbert Simon)区分了“程序化决策”与“非程序化决策”,指出前者是可以通过一套例行程序来处理的常规化例行决策,而后者是需要更多信息来对决策对象进行建模的复杂决策[15]。在教师的日常决策中,既有程序化决策(如记录考勤、批改作业),也有依赖教师自身经验和素养来执行的非程序化决策(如调节作业量、应对突发事件、引导小组讨论、与家长交流学生表现)。从西蒙的决策理论来看,教师在日常工作中所能掌握的信息、知识与能力有限,所能够考虑的方案也是有限的,因此,难以作出效用最大化的非程序化决策[16]。但是GAI的出现改变了这一情况。GAI具备强大的数据处理能力、灵活的推理能力以及一定程度的创新能力,能够帮助教师快速生成多种问题解决思路、获取大量原来无法直接得到的信息和数据分析结果,从而提高教师作出高质量非程序化决策的可能性。比如,可汗学院在ChatGPT-4的基础上推出了智能助教“Khanmigo”。教师可以通过与它对话,快速设计具有趣味性的课程导入和课后提问、开发课堂汇报的评分标准、制定整个学期的课程大纲、创建考查学生思维能力的测试题等[17]。除此之外,教师还可以创建自己或他人的数字分身,将原本工作中的部分非程序化任务交给GAI处理,同时在人机对话中持续补充背景信息、描述个人经验并优化提问,直到获得满意的答案为止。
瓦拉赫和艾伦指出,技术的发展是伴随着日益增强的自主性和道德敏感性交叉作用而进行的[4]。随着GAI自主性的持续提升,其道德敏感性表现出不稳定性。研究发现,ChatGPT对于同一道德问题(是否可以通过牺牲一个人拯救五个人?)给出了相互矛盾的建议,揭示出其道德立场的“摇摆”特征[18]。尽管OpenAI公开了他们针对ChatGPT生成有害内容所采取的措施(如引入领域专家进行红队测试、使用强化学习和人类反馈来微调模型行为),但也声明ChatGPT仍然可能受到对抗性攻击,导致生成不符合道德的内容[19]。进一步的研究显示,不同的大语言模型具有特定的道德倾向,如ChatGPT呈现出严格遵守道德原则的绝对主义倾向,而谷歌大模型Bard则呈现出强调灵活性的情境主义倾向[20]。上述道德敏感性的不稳定情况为GAI在教育决策中的应用带来了巨大的挑战。
三、 GAI支持教学决策的实践困境
在机器持续增长的自主性和不稳定的道德敏感性的共同作用下,GAI支持教学决策可能面临着诸多困境,包括因人机自主权博弈而产生的误会、欺骗、责任推卸以及长期而言的道德图景变化。
(一)意图投射下的误会与欺骗
多项研究表明,人类会自然地将人格化的属性赋予他们认为有生命的事物,给机器“植入”它们本不具有的官能。1944年,弗里茨·海德(Fritz Heider)和玛丽安·齐美尔(Mery-Ann Simmel)进行了一项经典的心理学实验,要求被试者观看一段三角形和方形在屏幕上移动的短片并描述自己看到的内容。结果显示, 97%的被试者在没有任何提示的情况下,使用拟人化语言描述了这些几何图形的行动,如“恐惧”“追赶”“躲避”,甚至为它们编织出了完整的故事[21]。社会学家雪利·特克尔(Sherry Turkl)在一项实验中发现,疗养院中的老年人对一种海豹形态的机器人玩偶Paro产生了深厚的情感依恋[22]。美国巴蒂亚·弗里德曼(Batya Friedman)教授主导的一项调查中发现,83%的大学生认为计算机具备自主性,79%的大学生认为计算机具备制定决策的能力,45%的大学生认为计算机具有意图[23]。
上述将意图和情感投射于机器的倾向在GAI的实践中被进一步增强。GAI的训练数据中包含大量表达情感、个性、观点、幻想的多模态信息,使其反馈在内容和形式上都非常接近人类表达。此外,GAI的定制化功能(如用户自定义对话风格、语音语调、虚拟形象)、对于逻辑细节的处理(如保留有关之前对话的记忆、从先前内容中推断信息、保持话题的相关性和连贯性),以及所流露出的“人性”特征(如以打字方式呈现反馈、对同一问题给出不同回答、用“我认为”“我反对”论述观点)等特征,都容易导致师生对其行为原理及能力界限产生误解。
在人机协作制定教学决策的过程中,也许教师并不会将GAI视为真正的人类,但他们可能会在潜意识里相信机器具备感知和思维,从而以对待人的方式对待机器。这种方式容易引发人机之间的误会或欺骗。市面上的通用大模型并非专为教育领域开发,而是由互联网上海量无标注的数据训练而成,在学科知识的准确性上存在不足。它们提供的回答可能包含师生难以察觉的错误或偏见,造成“幻觉”问题。而且这些错误很容易被GAI的快速响应所掩盖,可能被误以为真。一些追求自适应的人机交互应用还会使这些虚假信息又重新进入到语料库之中,在信息闭环中被进一步加固。这种误会与欺骗阻碍了师生对GAI局限性的客观认识,可能引发他们的自卑感和能力上的退化。经验丰富的教师通常积累了大量随机的、临场的、内隐的知识,能够根据学生的个性差异灵活安排教学活动,并迅速处理突发问题。然而,GAI的介入可能导致教师忽视自身主体性,甚至放弃自己相较于机器的真正优势,如灵活性、自发性、对意外的反应能力以及学习新技能的能力[24]。
(二)过度信任背后的责任推卸
个体的道德决策是通过多种心理系统之间复杂交互作用形成的[25] 。GAI的出现虽然简化了这一内在的斗争和思考,但也将教师应当承担的责任转移到了机器上。弗里德曼等人指出,决策支持工具常常会引发导向人类决策者放弃道德责任的“滑坡谬误”—— 随着人们对机器信任度的增加,质疑其建议变得越来越困难,最终可能导致机器接管决策过程,并被默认应承担相关的道德责任[23]。多项心理学实验都证明了自动化偏见(Automation Bias)的存在,即人类倾向于支持自动决策系统提供的建议,并忽略与之矛盾的其他信息[26-27]。即便是人类处于观察者角色但能够干预决策时,他们依旧很可能会不假思索地将GAI的回答当作标准答案。脑神经科学的相关研究也佐证了人的大脑习惯于以节省能量的模式工作[28]。
GAI的出现很大程度上降低了教师作出认知努力去寻求所有相关信息的可能性,使得教师更容易仓促评估当前情况,进而导致责任推卸和问责困难。当GAI的快速响应取代教师制定教学决策的思维过程,很可能会削弱教师的决策动机与能力,抑制人类智慧的涌现。教师可能过分依赖系统建议,而忽视自身的专业判断,以及人际互动和育人责任的重要性。或者,当教师在操作GAI时遇到困难,可能会将误用或滥用的后果归咎于技术工具的局限性,而忽视了自身技术熟练度与教学能力的不足。
教育决策强调“过程导向”,要求教师在复杂的判断过程中收集信息、分析、形成多个方案、选定最终解决方案。这个过程不仅深化了教师对教学决策的理解,还促进了教师问题解决能力的发展,丰富了教师的实践性知识。然而,GAI往往是 “结果导向”型的技术,专注于生成内容的丰富性、流畅性和准确性,与教育决策的过程导向原则产生冲突,导致人机协作中的决策问责面临困难。当人(如技术研发者、教师、学生、家长)、智能工具(如ChatGPT)、混合体(如基于GAI平台协作的教师)通过道德中立的局部交互,导致某些负载道德责任的行为时,责任的归属会变得格外模糊。尽管“分布式道德责任”这一概念由来已久[29],且相关组织也已规定由直接和间接影响系统开发和使用的每个主体共同承担责任[30]。但像GAI这类基于深度学习的系统,其内部运作对于非技术专家来说往往是不透明的。因此,GAI在教育决策中的责任分配仍然是一个具有挑战性的问题。
(三)道德图景的变化与长期作用
从长期来看,借助GAI支持教学决策将会对教育领域的道德格局产生深远影响。在漫长的道德探索过程中,人类尚未就如何判断对错、好坏达成广泛共识。随着新兴技术的发展,一些传统的道德价值观念更是从底层被颠覆或重塑,社会道德图景随之变化。虽然技术是人类根据自身的需要而创造的,但其设计特征和使用情境会反过来激发人类特定的思维、行为和价值模式。正如弓箭的发明开辟了在安全距离内杀敌的可能性,轮子的发明促进了贸易与文明,互联网消除了信息传播的边界,改变了知识分享和版权观念。同样,GAI如今能够承担传统教学中许多难以自动化的任务,重新定义教学决策的制定与执行方式,开辟新的道德可能性。例如,ChatGPT的出现引发了对学术不端判定标准的反思。目前备受争议的行为在未来可能会被接受并成为常态。教师大批量地生成录播课、GAI和学生共同完成作业、学生学习过程中的心理状态受到持续监测、人才培养的两极化发展等可能会成为新道德标准的一部分,重塑我们对教育伦理的理解。此外,当GAI延伸至私人领域,甚至开始与人类发展出亲密关系,从而引发的道德问题将会具有更多“私人裁量权”,加剧道德的模糊性[31]。
对于人类而言,道德行为通常是对社会环境的实时适应,是为了迎合持续变化的需求、价值、期待的尝试。随着道德图景的不断重塑,未来支持教学决策的GAI需要具备一定的自主探索道德目标的能力,在遵循道德原则的同时参与到教学决策的道德考量中去。例如,随着教师对GAI的信任逐步建立,他们可能会更加依赖工具,逐渐允许GAI独立承担更多教学决策任务。这要求GAI实时考量教师是否出现过度信任的情况,并且适当校准信任程度。考虑到道德图景的动态性,有研究者提出道德机器应该具备“塑造”道德目标的能力[4]。具体来说,GAI应当在现有人工智能伦理范畴下(如欧盟所提出的“预防伤害”“尊重人类自主”“公平”“可解释”原则),适时、恰当地扩展自己的任务范围,以形成更高效的人机协同决策机制[32]。
四、 建设生成式智能教学决策支持工具的
关键进路
设计工具的过程实际上是在塑造具有伦理意义的人类存在方式。这要求人们在技术的设计阶段就开始思考:这项技术在最终应用场景下会赋予人们怎样的行动机会、又会产生何种影响。为应对GAI用于教学决策的短期风险和长期隐忧,可以通过发展机器美德、构建专用智能代理、开展具备前瞻性实验等方式来促进道德机器在教育领域的建设,实现GAI支持教学决策质量、效率与伦理之间的动态平衡。
(一)注入具备情景适应性的机器美德
教学本身是对各类困境的处理,涉及大量基于当下情景的即时决策。当GAI在具体的教学情境中需要作出自主行为选择时,它必须具备一定的道德决策能力。具备道德的机器并不是自然而然就出现的,而是需要人类以合适的方式将道德“注入”其中。什么是合适的方式呢?瓦拉赫和艾伦发现,自上而下的道德内置方法无法应对具体行为情境的复杂性,而自下而上的自主学习方法又难以确保机器学习结果的道德性。因此,只有将两种方法相结合,才能创造出既服从人类道德法则、又具有一定道德自主能力的道德机器[4]。
要实现情景适应性的机器美德,需要对大量既往的教学决策案例进行表征、分析与比较。布鲁斯·麦克拉伦(Bruce McLaren)所开发的工程道德决策系统SIROCCO (System for Intelligent Retrieval of Operationalized Cases and Codes)提供了一个可借鉴的方案。该系统通过分析包含500个以上职业道德决策案例的数据库,检索相关的前例和线索,同时揭示工程伦理原则在实际情境下的操作化特征[33]。此外,瓦拉赫和艾伦提出,可以将启发式算法(Heuristic Algorithm)的思路应用到道德设计中,开发“道德启发式”(Heuristics in Ethical Applications),即对行动的即刻后果进行排序,并考虑这些后果所带来的道德次要后果的可能性[4]。
在机器道德领域已有实践的基础上,开发支持教学决策的GAI可以考虑整合上述两种表征案例的方式。理想情况下,这种系统能够在遇到教学中的道德困境时,自动检索历史上类似的案例,识别其中的关键相似点和不同点,具体阐述支持或反对某一决策的理由。它可以基于最相似的案例形成决策优先级序列,并通过这些案例阐释相关伦理原则的机器认知模式。通过这种方式,GAI不仅能在教学决策中提供切实可行的建议,还能帮助教师深入理解和应用伦理原则,为教学实践提供更精准的决策支持。
(二)构建教学决策专用的提示词与智能体
虽然GAI的出现减轻了教师在数据分析方面的负担,但同时也对教师理解机器原理、区别机器能力以及与机器有效沟通提出了更高要求。一些研究者担忧,智能技术可能导致人们重复以往的行为模式,让人们大量的活动变得例程化,甚至将人驯化成不断重复过去决策的“机器”,阻碍创新探索[34]。从这个角度来看,如果教师不了解GAI的能力、局限以及正确使用它的方式,他们不仅可能失去工作的乐趣,更可能失去生活的“自由”。 与传统的互联网信息服务不同,GAI的输出是由算法与用户共同完成的,输出质量在很大程度上取决于用户提供信息的丰富性——“谁控制了问题,谁就控制了答案;谁控制了答案,谁就控制了现实”[35]。因此,开发教学决策专用的提示词规范就显得尤为重要。
OpenAI发布的“用人工智能教学”(Teaching with AI)官方指南中,提供了四段教师可直接使用的提示词,可用于制定教学计划、创建有效的解释、模拟教学过程和创建智能助教等多种场景[36]。这些提示词具备下列特征:(1)清楚规定ChatGPT的角色与行动特征,如“你是一位乐观、善于鼓励学生的导师,要通过解释和提问来帮助学生理解概念”;(2)明确列出ChatGPT在对话中要遵循的逻辑,如“首先自我介绍,然后询问教师的教学以及学生年级水平,并等待教师回复”;(3)遵循教育规律,强调引导而非直接回答,如 “不要立即提供答案,而是提出引导性问题”“尝试以问题结束回答,以鼓励持续思考”;(4)积极解决教师的潜在误解,如“询问教师是否想改变或添加内容到解释中”;(5)确保对话由发起者主导,以让人舒适的节奏推进,如“一次只问一个问题”“在教师作出回应之前不要继续发言”。
在引导教师有效使用提示词与GAI进行互动的同时,技术研发者有必要基于大模型进一步开发专用于教学决策的智能代理(Agent)[37]。教师与GAI对话时,需要深入理解所探讨的问题,筛选和组织相关信息,形成针对性问题,并通过多轮对话不断细化和补充信息。然而,考虑到教师在问题识别、信息分析和提示词撰写等方面存在显著差异,为教师提供更加用户友好的定制化工具至关重要。智能代理,或智能体,是在大语言模型基础上经过微调的工具,能够在特定领域中提供更高效且更具针对性的支持。
在构建专用于教学决策的智能代理时,有一系列关键要素需予以关注。首先,应根据不同学段的育人目标和认知规律,明确定义和强调一系列正确的教学决策涉及的关键价值,如透明度、公平性、尊重学生的个体差异、学术自由与诚信、终身学习、批判性思维、知识传播等[24]。其次,鉴于GAI的介入可能引发或加剧某些价值冲突,特别是在主体性和责任归属方面的人机竞争,因此,在提示词设计中,必须明确设定GAI的目标、边界和语气,确保教师始终保持决策的主体地位。最后,为了提高决策过程的透明度和可解释性,智能代理应在提供决策建议的同时提供相应的原则依据和支持证据,或者在提出多种决策方案时进行潜在风险分析。这些措施将帮助教师在充分了解各种因素的基础上,作出更加适宜的决策。
(三)开展前瞻性实验研究以检验假设
物质、生命和心灵之谜定义了科学的三大挑战。随着物理学和生命科学的发展,前两者已经不再神秘,但在心灵领域关于人类智慧的争论却不断延续。本研究所关注的GAI支持教学决策的风险大多是基于各领域研究成果的推理与研判,未来亟须开展更多具有前瞻性和学理性的科学实验来验证现有的一系列假设。考虑到GAI正在持续发展,其对教育的影响研究必然是伴随技术演变的长期工作。在此背景下,两类研究显得尤为重要:一是在实验室环境中进行的细致、具体的学理性实验研究,以探究GAI对教育决策的影响;二是在自然环境中进行的规模化、常态化使用后的社会影响研究,以评估GAI在真实教育场景中的作用与效果。参考医疗领域,虽然关于AI能否决定病人生死的争议早在20世纪就已经出现,但是迄今为止尚未有证据表明机器能在人类不参与的情况下作出如此重大的决定。相应地,GAI支持教学决策真的会导致机器的过度控制吗?教师的自主性与能动性又真的会被削弱吗?教育场景中的道德图景究竟会如何变化?这些问题仍然需要更多可靠的证据来回答。
此外,关于GAI支持教学决策的讨论也在启发着我们向更深层次的人类心理进行探索。诸多技术哲学家尝试从人类习惯的角度去分析智能技术给人类生活带来的巨大变化。AI的出现打破了人们机械、重复的习惯,同时也激发了人类对于“习惯”的矛盾心理。一方面,人们希望机器有朝一日能将他们从日常工作中解放出来。另一方面,人们又相信“重复的乐趣中有某种超然的东西”,重复性的体力劳动为沉思留下了空间[38]。这种矛盾的态度精准地跨越了现代思想中某些二元对立——主动和被动、自由和必然、头脑和身体——引起了关于自由和自主性的问题。教师每天所处理的程序化和非程序化任务将会如何被GAI分担?这种人机协作将如何改变教师的生活与心态,造就新的习惯?此外,这种变化又将如何影响学生的发展与成长?这些问题已经超越了单纯的教育议题,要求我们跳出教育的范畴,进行更为广泛的社会性分析与长期的实验研究,才能更为准确地预测和理解这些潜在的深远影响。
五、 结 束 语
以GAI为代表的新一代人工智能技术正在深刻影响着教学决策的制定、执行与评估。在此过程中,教师与智能系统可以发挥各自的核心优势,形成互补,推动决策在人机协同模式下变得更高效、更优质。从目前来看,应用GAI辅助教学决策仍面临诸多风险和挑战,亟须技术研发者、教育实践者和科学研究者通力合作,深入探索智能技术在优化教学决策流程与效果的最佳实践方案,推动人类智慧与机器智能的协同增长。
[参考文献]
[1] HUNTER M. Teaching is decision making[J]. Educational leadership, 1979,37(1):62-67.
[2] 刘邦奇,聂小林,王士进,等. 生成式人工智能与未来教育形态重塑:技术框架、能力特征及应用趋势[J]. 电化教育研究,2024,45(1):13-20.
[3] 北京大学国家机器人标准化总体组. 中国机器人伦理标准化前瞻[M]. 北京:北京大学出版社,2019:67-78.
[4] WALLACH W, ALLEN C. Moral machines: teaching robots right from wrong[M]. New York:Oxford University Press, 2008:10-250.
[5] KAHNEMAN D, FREDERICK S. A model of heuristic judgment[M]//The Cambridge handbook of thinking and reasoning. New York: Cambridge University Press, 2005: 267-293.
[6] PAJARES M F. Teachers' beliefs and educational research: cleaning up a messy construct[J]. Review of educational research, 1992, 62(3):307-332.
[7] VANLOMMEL K, VAN GASSE R, VANHOOF J, et al. Teachers' decision-making: data based or intuition driven?[J]. International journal of educational research, 2017,83:75-83.
[8] 孙彦,李纾,殷晓莉. 决策与推理的双系统——启发式系统和分析系统[J]. 心理科学进展,2007(5):721-726.
[9] VOT N C, NGUYEN H P. A knowledge-driven educational decision support system[C]//2012 IEEE RIVF International Conference on Computing & Communication Technologies, Research, Innovation, and Vision for the Future. Ho Chi Minh City:Vietnam. IEEE,2012:1-6.
[10] DEWANTORO G, ARDISA N. A decision support system for undergraduate students admissions using educational data mining[C]//2020 7th International Conference on Information Technology, Computer, and Electrical Engineering (ICITACEE). September 24-25,2020,Semarang,Indonesia. IEEE,2020:105-109.
[11] NEUMAN S B. Code red: the danger of data-driven instruction[J]. Educational leadership, 2016,74(3):24-29.
[12] 宋乃庆, 杨豫晖. 教师教学决策的主要问题及其思考[J]. 教育研究,2010,31(9):85-89.
[13] SCHMIDT W H, MCKNIGHT C. Inequality for all: the challenge of unequal opportunity in American schools[M]. New York: Teachers College Press, 2012:5-8.
[14] 刘明,郭烁,吴忠明,等. 生成式人工智能重塑高等教育形态:内容、案例与路径[J]. 电化教育研究,2024,45(6):57-65.
[15] SIMON H A. The new science of management decision[M]. New York: Harper & Brothers, 1960:5-7.
[16] SIMON H A. Bounded rationality[M]//EATWELL J, MILGATE M, NEWMAN P. Utility and probability. London: Palgrave Macmillan UK, 1990:15-18.
[17] KHAN ACADEMY. Meet Khanmigo Khan Academy's AI-powered teaching assistant & tutor[EB/OL]. [2024-02-20]. https://khanmigo.ai/.
[18] KR?譈GEL S, OSTERMAIER A, UHL M. ChatGPT's inconsistent moral advice influences users' judgment[J]. Scientific reports, 2023,13(1):4569.
[19] OPENAI. GPT-4 System card[R/OL]. [2024-03-10]. https://cdn.openai.com/papers/gpt-4-system-card.pdf.
[20] MCGRATH Q P. Unveiling the ethical positions of conversational AIs: a study on OpenAI's ChatGPT and Google's Bard[J]. AI and ethics,2024:1-16.
[21] HEIDER F, SIMMEL M. An experimental study of apparent behavior[J]. The American journal of psychology,1944,57(2):243-259.
[22] TURKLE S, TAGGART W, KIDD C D, et al. Relational artifacts with children and elders: the complexities of cybercompanionship[J]. Connection science, 2006,18(4):347-361.
[23] FRIEDMAN B. "It's the computer's fault": reasoning about computers as moral agents[C]// Conference on Human Factors in Computing Systems. Denver, Colorado, United States: ACM Press, 1995:226-227.
[24] STRIKE K, SOLTIS J F. The ethics of teaching [M]. New York: Teachers College Press, 2015:40-45.
[25] 王鹏,方平,姜媛. 道德直觉背景下的道德决策:影响因素探究[J]. 心理科学进展,2011,19(4):573-579.
[26] BRUNER J, TAGIURI R. The perception of people[M]//ARONSON E, LINDZEY G. Handbook of social psychology: special fields and applications. New York: Random House, 1985: 634-654.
[27] LYELL D, COIERA E. Automation bias and verification complexity: a systematic review[J]. Journal of the American medical informatics association, 2017,24(2):423-431.
[28] 菅原道仁. 超级大脑的七个习惯[M]. 吴梦怡,译. 北京:中国友谊出版公司,2019:61-64.
[29] FLORIDI L. Faultless responsibility: on the nature and allocation of moral responsibility for distributed moral actions[J]. Philosophical transactions of the royal society: mathematical, physical and engineering sciences, 2016,374(2083):20160112.
[30] OECD. Advancing accountability in AI: governing and managing risks throughout the lifecycle for trustworthy AI[EB/OL]. [2024-02-23]. https://www.oecd.org/sti/advancing-accountability-in-ai-2448f04b-en.htm.
[31] 韩旭至. 生成式人工智能治理的逻辑更新与路径优化——以人机关系为视角[J]. 行政法学研究,2023(6):30-42.
[32] AI HLEG. Ethics guidelines for trustworthy AI[EB/OL]. (2018-12-17)[2022-04-08]. https://ec.europa.eu/futurium/en/ai-alliance-consultation.
[33] MCLAREN B M. Extensionally defining principles and cases in ethics: an AI model[J]. Artificial intelligence,2003,150(1/2):145-181.
[34] ROOSE K. Future proof: 9 rules for humans in the age of automation[M]. New York: Random House, 2021:108-112.
[35] FLORIDI L. AI as agency without intelligence: on ChatGPT, large language models, and other generative models[J]. Philosophy & technology, 2023,36(1):1-7.
[36] OPENAI. Teaching with AI[EB/OL]. [2024-03-03]. https://openai.com/blog/teaching-with-ai.
[37] 钟柏昌. 为生成式人工智能教育应用确立规范[EB/OL]. [2024-08-24]. http://paper.jyb.cn/zgjyb/html/2023-09/22/node_3.htm.
[38] ARENDT H. The human condition[M]. Chicago: University of Chicago Press, 2013:96-101.
Practical Dilemmas and Key Approaches of Generative Artificial Intelligence in Supporting Teaching Decision-making
SHEN Yuan1, WANG Qiong2
(1.Research Center for Data Hub and Security, Zhejiang Lab, Hangzhou Zhejiang 311121;
2.Graduate School of Education, Peking University, Beijing 100871)
[Abstract] Teaching decision-making possesses strong moral attributes, emphasizing goodness and altruism. As generative artificial intelligence is applied to teaching, its powerful learning, understanding and generating capabilities enable it to undertake numerous non-programmed decision-making tasks. This also raises key questions: does generative artificial intelligence have the basic ability to support teaching decision-making? How will the future of education be affected? By reviewing existing research in sociology, psychology, pedagogy, and machine ethics, this paper finds that generative artificial intelligence has propelled teaching decision-making from an empirical approach to a collaborative human-machine model, while revealing that the enhancement of its autonomy is accompanied by the instability of moral sensitivity. This may lead to misunderstandings, deception, and shirking of responsibility between humans and machines, and subtly change the moral landscape in educational settings. To address these challenges, this paper proposes strategies such as embedding context-adaptive machine virtues, developing teaching decision-specific prompts and agents, and promoting forward-looking social experiments to foster the construction of moral machines in education.
[Keywords] Generative Artificial Intelligence; Teaching Decision-making; Moral Machine; Intelligent Education; Human-Machine Collaboration
DOI:10.13811/j.cnki.eer.2024.11.013
基金项目:国家社会科学基金2023年度教育学重大项目“新一代人工智能对教育的影响研究”(项目编号:VGA230012)