技术伦理视角下ChatGPT对学生培养的辩证影响研究
2023-09-03鲁云鹏李春玲
鲁云鹏?李春玲
摘 要:从技术伦理角度出发,依照“数据—算法—功能”运作逻辑,辩证分析了ChatGPT对学生培养的影响。总体来看,ChatGPT性能高效稳定、对用户友好且互动性强,具有较强的场景通用性,是培养学生的有效技术工具;但ChatGPT也会引发对学生培养的反向驯化、认知弱化、偏见学习等诸多伦理风险。基于此,本文利用技术伦理中的“规约”思想,提出面向学生培养的人工智能“RED”规约模型,即通过综合运用制度规约、技术设备规约,以及课程设置规约,推动ChatGPT与学生培养体系间的动态平衡与互适。
关键词:ChatGPT;技术伦理;学生培养;影响机理
一、问题的提出
人工智能研究公司OpenAI于2022年底面向社会公众发布的聊天程序ChatGPT,其依靠庞大的语料库支撑、高度通用化的使用场景、强自然语言交互能力等诸多优势,能够迅速捕捉用户的真实意图,高质量完成论文撰写、翻译、编程等任务,也因此仅用两个月时间,便获得超过1亿活跃用户的青睐。ChatGPT在文字处理上的能力,也迅速渗透教育、科研领域中。一方面ChatGPT能够启发学生写作灵感,降低机械化课业负担;另一方面,学生利用该智能工具代写论文、考试作弊等现象也屡见不鲜,对教育公平、科研诚信等带来直接冲击。对此,Nature一周内连发两篇文章讨论ChatGPT对学术圈所产生的影响,巴黎政治学院、香港大学等高校更是直接禁止学生及教职工使用ChatGPT完成任何教学任务,若违规则最高面临被开除的风险。
然而,从技术伦理的视角来看,科技发展具有不可逆的特征。面对ChatGPT这一具有“现象级”影响力的人工智能工具,在教育领域中对其“一禁了之”,并不能解决现有问题。事实上,包括谷歌公司的BERT、微软旗下的Turing NLG,以及百度的“文心一言”等一众“类ChatGPT”产品,也在不断完善自身的数据库与算法,高性能人工智能时代来袭的趋势,已越发明朗。与此同时,技术上的革新也带来社会对人才能力需求的变化。特别是对于相对缺少创造力、程序化的中等技术工作,均较高程度上面临被人工智能替代的风险。但焦虑并非理性之举,通过伦理介入,推动ChatGPT这类高性能人工智能工具与现有教育的人才培养体系互适,才是实现两者在结构张力上保持动态平衡的良性路径。
二、ChatGPT对学生培养的辩证影响机理
ChatGPT的工作流程是基于“数据—算法—功能”的逻辑展开的,其中数据是训练与优化ChatGPT的必要材料,而算法作为处理数据的手段,将直接影响到ChatGPT的性能表现,功能则是ChatGPT工具属性的具体表征形式,是算法应用目标实现的直接体现。因此要细化分析ChatGPT对学生培养的影响,关键在于有效识别这三个基本要素作用机理。
1.ChatGPT的数据对学生培养的影响机理
(1)数据的产生过程
作为高性能的大型语言模型,ChatGPT的数据产生渠道广泛,包括但不限于公共网页、维基与百度百科、开放数据源等,涵盖各类语言、文化与主题。在数据生产的规模上,ChatGPT的模型参数量超过1750亿。依照大模型的性能遵循伸缩率(Scaling Law)的原则,大模型的参数越多,数据集的规模越大,其性能与泛化能力就越强,并且这一性能并非简单提升,当数据规模突破千亿时,其上下文学习、利用思维链等能力,会有跳跃性增长[1]。宽范围、大规模的数据产生方式,使得ChatGPT建起颇为丰富的数据池,这不仅能在很大程度上增强数据鲁棒性,同时也能够提升其场景的通用性,为不同领域的学生在识记性知识、推理性问答、多语言翻译等方面提供数据支撑。
但另一方面,数据作为能够被ChatGPT识别的数字符号集合,其产生的过程仍旧遵循弱人工智能的实证主义逻辑。将包括思想文明、生活经验等在内的各类信息进行单一且精确的量化衡量,以转化为弱人工智能可以理解的语言,并通过可重复试验的方式,预测与回应人的需求[2]。然而,ChatGPT在数据产生过程中的量化思维,并非完全适合学生培养,因为在教育过程中,存在大量无法测度的“知、情、意”等默会知识,并且学生培养本身就应该充满不确定性与模糊性,目的在于保护学生的天赋,为学生个性化发展提供更多可能性。正如多梅尔所提及的,无论我们的意图多么符合科学精神,只要开始量化,就会造成狭隘性[3]。
并且这种数据生产逻辑的狭隘性,容易被ChatGPT数据产生的范围广、规模大所掩盖,引导学生形成“一切皆可量化”的数据崇拜,盲目追捧大数据所带来的知识的“真与全”,而忽视难以被数据量化表达的“善与美”。
(2)数据的采集过程
數据采集是基于数据源获取数据的过程,对于ChatGPT而言,其首先是在人工干预下,确定数据采集的需求,包括数据采集的来源、类型、频次等指标,并依照欧盟的《通用数据保护条例》、中国的《网络安全法》等,明确数据采集的法律与伦理标准。其次,ChatGPT依照数据采集的实际需求与标准,自动设计与运行数据采集器。再次,对抓取的数据进行清洗,涉及自动对数据去重、格式化、标准化等。为了保证数据质量,这一过程也会有少量人工参与,对数据清洗进行评价与优化。最后,对采集到的数据进行存储与管理。
联合国教科文组织在《教育中的人工智能:可持续发展的挑战与机遇》中指出,数据采集要重视公正性、避免数据歧视等技术伦理问题。尽管ChatGPT在现有的技术范围内,尽可能扩大数据样本量,人工评估数据清洗结果,但仍旧无法避免因数据本身的缺失、语言理解差异、算法缺陷等原因,造成的特定区域、社会群体或文化背景的数据采集频率失衡的现象。ChatGPT只是相较于GPT-3等技术,在“有毒”回答的输出的概率上会有所降低。
(3)数据的共享过程
在教育领域中,因人工智能在数据共享过程中造成的用户信息泄露,是现有技术伦理关注的重点问题。这一方面是由于数据本身具有高传播、高流通、再生再创等特性,另一方面则是受到利益驱动的影响,关于学生的数据会成为智能教育商业机构相互交易或分享的商业数据,部分组织甚至非法利用这些数据,进行恶意欺骗[4]。对此,ChatGPT的所属公司OpenAI,高度重视保护数据隐私和安全,在其组织章程中将“开发安全和负责任的人工智能”作为使命,并从技术角度,通过数据脱敏、限制访问权限、多重加密与身份验证技术等多种方式加以保障。
但同时OpenAI多以保护数据安全、知识产权、技术竞争、成本等为理由,并未对ChatGPT实现开源并有效公开其训练的数据集。这实质上不仅违背其作为非营利组织在推动人工智能发展、创造透明人工智能技术上的承诺与初衷,也与联合国在《人工智能伦理问题建议书》中所倡导的算法可解释、可理解不相符。这显然对立了数据保护与数据共享间的关系。源代码、数据等未能有效共享,也将加剧技术壁垒、数据独裁等问题产生。对于学生培养而言,由于无法获取到足够的数据与源代码资源,也将使得教育者难以通晓ChatGPT在教育领域中的算法原理、过程等,削弱教育主体对于学生培养过程中风险管理与控制能力,放大基于数据黑箱而带来的伦理风险。
2.ChatGPT的算法对学生培养的影响机理
(1)深度学习模型
ChatGPT的深度学习算法具体为卷积神经网络、生成对抗网络等。成熟、多样的深度学习算法,使得ChatGPT能够应对庞大规模且多样态的数据资源,并高效提取数据特征,建立复杂的非线性关系,推动自然语言生成的连贯性与准确性,特别是上下文对话的衔接能力,能够有效提升包括学生在内的用户体验感。
但需要注意的是,在无有效的伦理规约与技术限制条件下,ChatGPT的高性能容易让学生产生依赖性。而对于技术物的过度依赖,容易侵犯教育场域的连续性与完整性,并弱化学生作为教育主体,对于教育现实的感知[4]。连续且完整的教育场域是由教师、同学、教室、教材、学习氛围等诸多物质与精神元素构成的有机统一体,其内在的丰富性塑造学生个体在知识、技能、情感交流等各方面的发展。ChatGPT虽然能够借助深度学习模型,高度模仿人类,提供基于对话式的虚拟学习空间,但若沉溺其中,则会破坏学生对教育现实的参与度,进而加剧个人主义学习,肢解图书馆、教室等传统学习场所的公共性。教育场域中的虚拟与现实失衡,往往也会带来学生在学习过程中的情感生成与社交表达困境,并诱发学生的情感遮蔽,形成现实本我与虚拟非我的主体性异位现象。
(2)强化学习模型
强化学习是人工智能依据特定环境反馈,学习如何采取最佳行动,以实现奖励信号的最大化。以与ChatGPT模型高度相似的InstructGPT为例,InstructGPT通过标记员的人工标记的方式來训练反馈模型,让反馈模型再训练原有的GPT-3模型,从而实现基于人类反馈的强化学习。ChatGPT在InstructGPT的基础上,借助其用户界面,在每次生成对话答案旁,均有类似“有用”和“无用”图标,用于实时获取更为广泛的用户反馈信息,利用强化学习模型,不断优化其语言表达与信息传递准确性,提升人机的交互效果。
ChatGPT基于人类反馈的强化学习模型,其技术的出发点是凸显人的主体性的地位与价值。即使ChatGPT性能再优异,仍旧是围绕人类的需求展开。毕竟计算机只有和人结合在一起才能实现其价值,人赋予人工智能活动的意义,这是由其作为技术工具属性所决定的。然而,在现实的教育场域中,却容易出现截然相反的结果,人工智能冲击学生主体性的地位,使其再次成为“被塑造”的对象。ChatGPT通过及时捕捉学生的反馈,借助Q-Learning、自然语言处理技术等,在动态调整与优化答案、增加学生信任的同时,也能够不断分析特定领域、专业的学生的行为与偏好特征,进而对学生进行“标签化”处理。这并不利于学生开阔自身视野,ChatGPT会基于学生偏好不断强化学生的特定认知,从而容易将其塑造成狭隘、封闭的个人。此外,缺乏足够的辨别能力,过度信任人工智能的“出色”表现,会使得学生发展的可能性从最初便被人工智能所规划,违背学生发展的基本规律[5]。
(3)自适应学习模型
对于ChatGPT而言,自适应学习模式是通过搜集与分析数据,利用Transformer架构、多层自注意力机制来挖掘数据间的规律性与关联性,以迭代、更新其自身算法与知识库的过程,其目的在于不断适应外部环境与任务的变化,是ChatGPT灵活性与智能性的集中体现。现有观点多认为,具备自适应学习能力的弱人工智能,能够依照学生的学习进度、学习风格与学习能力等信息对学生的学习任务实施精细化管理,为学生提供个性化、动态化的学习建议与培养方案[6]。该特性是现阶段推广智能教育的重要优势所在。
但ChatGPT只是从技术角度上,能够为学生个性化学习提供可能,并没有有力的证据表明,引入ChatGPT等弱人工智能就一定能实现学生个性化学习。相反,教师简单布置任务,学生被动询问,人工智能负责判断提供,反而可能会妨碍学生个性化发展潜能的激活。ChatGPT所应用到的自适应学习、深度学习等,本质上仍旧是基于概率统计的算法模型。依照学生偏好所提供的答案,是基于数据库中的频率“多”,是大众化、普遍化、平均化的行为或决策反应,那些新奇、“意外”的信息,会因为数量上的“少”而被算法过滤掉,这反而会诱发学生同质化发展。与此同时,ChatGPT依照学生不同需求快速筛选出的答案,只是在形式与结果上看似个性化,但其底色仍旧是基于效率导向的标准化,甚至在自适性学习、强化学习的引导下变得“媚俗化”,这显然也与教育所期待的学生个性化发展理念所不符。
3.ChatGPT的功能对学生培养的影响机理
(1)学生培养过程中ChatGPT的功能链
ChatGPT的功能主要是基于大规模数据与算法,模拟人类在语言上的能力。具体包括:其一,语言生成功能。ChatGPT能够依据学生输入信息的提示与要求,自动生成多种类型的文本,如文章、对话、评论等。这是ChatGPT在学生群体中,使用频率较高的实用功能,据在线课程供应商Study.com的调查显示,有89%的美国大学生借助ChatGPT生成作业文本。其二,语言理解功能。ChatGPT能够依照上下文和语义信息,回答学生提出的各类问题,并给出建议。如果提供的是丰富的文字材料,还能进行文本的总结与推理等。其三,语言翻译功能。ChatGPT还支持包括中、俄、德等超过50种语言之间的实时翻译与转换。此外,随着OpenAI开放了ChatGPT的接口,诸多可应用于教育领域中的软件或平台也接入ChatGPT中,从而形成更为丰富的功能链。
(2)审慎对待ChatGPT在教育领域中的功能链
首先,过分强调ChatGPT所带来的减负性与趣味性,容易引发情感投入与认知投入的失衡,弱化学习的严肃性。依据学习投入理论的观点来看,高质量的学习涉及认知投入、情感投入与行为投入这三个关键要素[7]。ChatGPT利用其减负性与趣味性,增加学生的情感投入,但ChatGPT也容易掩盖认知投入的重要性,即学生个体需要对所学的内容进行独立思考、理解与记忆。ChatGPT瞬时呈现答案,这种带有“不劳而获”意味的学习方式,容易滋生学生认知投入的惰性。更为重要的是,学生个体必要的认知投入,包括复述、记忆等低阶认知,在“熟能生巧”机制的催化下,是批判性、创新性等高阶思维产生的必要条件。而ChatGPT的长期介入,替代初级信息加工的方式,则会打断这一过程,加之上文提到的学生可能产生的数据与算法崇拜、自主性缺失等问题,浅表性思维、惯性思维等反而会得到固化,不利于学生精致思考、意义构建与自我指导。
其次,过分强调ChatGPT所带来的减负性与趣味性,也容易制造学生培养的“虚假需求”。马尔库塞认为,技术理性以控制并满足个体“虚假需求”为作用机制,促使个体对于否定性、批判性、超越性的丧失,进而丧失“自由”,成为“单向度的人”[8]。ChatGPT通过多样化的功能表征,极大满足学生对于效率的需求。特别是在人才竞争日趋激烈的当下,效率成为检验该工具“有用性”的最为重要的衡量标准。但从技术伦理角度来看,效率并非是教育主体的真实需求。真实需求是以自由、平等为基础,建立在主体性、主体间性以及他者性间的主体呼唤[9]。无论是对自由、平等抑或是责任的价值理性追求,是不能因为ChatGPT的技术理性所带来的效率需求所掩盖,一味追捧效率只会为教育相关者带来功利主义。
再次,过分强调ChatGPT所带来的减负性与趣味性,也会导致教师在学生培养中的角色错位的现象。这种现象可利用技术伦理中的“反向驯化”加以解释。技术物能够按照人类意图实现自身功能,协助人类“解蔽”,其本身可看作是一种对技术物的“驯化”过程。然而,随着技术物与人类不断融合,两者之间的关系则会存在异化的可能,技术的意向结构,逐步“规训”人类,给人类打上技术的“烙印”,实现反向驯化[10]。典型的如智能手机已经改变了人类阅读偏好以及语言表达的习惯。对于教师而言,人工智能本应被驯化为协助教学、分担部分重复性知识传递工作的工具。但由于人工智能的高性能表现,教师反而会依照人工智能的算法,决定如何传递教育内容,采用何种教育方式,教师从学生培养过程中的创造者,反而变成了“消费者”[3]。教师被人工智能反向驯化,站在“消费者”的视角将使其难以对学生培养保持应有的洞察力,以及失去对学生示范性引领的魅力。
综合上述,图1依照“数据—算法—功能”的逻辑,总结了ChatGPT对学生培养的影响机理。总体来看,ChatGPT性能高效稳定,对用户友好且互动性强,具有较强的场景通用性,是培养学生的有效工具;但ChatGPT具有打断性特征,在使用过程中也会引发反向驯化、认知弱化以及偏见学习等伦理风险。
三、ChatGPT影响下学生培养的创新模式
针对ChatGPT打断原有的学生培养体系的平衡态,可能引发诸多伦理问题,本文基于技术伦理中的“规约”思想,提出面向学生培养的人工智能“RED”規约模型,即通过综合运用制度(Regulation)规约、技术设备(Equipment)规约、课程设置(Discipline)规约,以主动适应ChatGPT等高性能人工智能所带来的影响。
1.制度规约:基于“敏捷治理”设计教育人工智能共识体系
当前从技术伦理角度,各国、区域性合作组织等均对人工智能进行制度规约,基本形成了人工智能设计与应用的共识体系。但现有的制度规约多以“倡导式”的软约束为主,多具有形式上的威慑效果,但实际的实施效力多取决于OpenAI等人工智能公司的自愿性。采用这种相对温和的制度规约方式,主要是由于现阶段包括ChatGPT在内的人工智能仍停留在弱人工智能阶段,处于发展初期,若强硬监管很可能会出现“把婴儿和洗澡水一起倒掉”的风险,影响人工智能的发展进程。考虑到平衡制度规约与人工智能技术关系的约束性,本文主张在现有软约束的基础上,设计基于“敏捷治理”的制度规约。
敏捷治理是源于软件开发领域中的“敏捷方法”,其强调通过迭代等持续改进的方式,快速响应外部变化,以创造高价值。其治理目标是在不牺牲治理有效性的前提下,尽早作出反应与决策,高效准确地回应智能时代复杂的伦理与社会问题。具化到ChatGPT等高性能人工智能在学生培养领域中来,由于对人工智能技术快速且打断性的发展缺乏预测性,因此制度的规约目标应随着学生培养的变化而及时调整,这需要在尊重人工智能发展规律的前提下,敏锐捕捉并重视新人工智能技术可能引发的新技术伦理风险。在此基础上,基于现有人工智能规约的共识原则,政府监管部门应积极组建针对教育领域的跨区域人工智能治理专业委员会,并协同人工智能开发商、学校等主体,将捕捉到的伦理风险,通过持续优化原有制度规约的方式,及时回应社会所关注的学生被量化、数据崇拜、自主性受侵等热点问题。
2.技术设备规约:协同构建基于ChatGPT的“教育大脑”
虽然ChatGPT表现出较强的场景通用性,但是教育领域具有默会性、模糊性等特殊属性,若想真正将ChatGPT技术融入学生培养,则需要依照教育的实际问题、教育逻辑、教育规则等内容,从技术设备角度对ChatGPT进行规约,主动开发专属于教育的核心模型、框架,而不应是其他领域的“模仿者”。结合现有智能教育发展趋势,以及ChatGPT对学生培养的影响,图2通过嵌入技术设备规约的方式,尝试构建了基于ChatGPT技术的“教育大脑”模型。所谓教育大脑,是人工智能作为海量教育数据模型、深度学习算法等智能化技术的融合体,能够模拟人类大脑接收、处理信息的特质,并根据实时反馈进行动态调整[11]。其构建的目的在于智能时代下,解决教育学生培养创新问题,提升人工智能技术与学生培养体系相融合的理想度水平。教育大脑的构建多是遵循人脑“输入—计算—输出”的基本逻辑展开,这与上文所提及的ChatGPT依照“数据—算法—功能”运作方式是相吻合。
在输入环节中,ChatGPT将学生基础信息、培养目标、学习内容、教学活动等作为专业化的外部信息源,利用自身在处理文本、图像、语音等多模态信息上的能力,进行数据采集。每一份数据可看作是类脑的教育神经元,这些庞大数据彼此相互联系,构成教育神经网络,并以结构化、半结构化等多元形态进行存储与加密,为类脑运算提供“燃料”。在这一过程中,需要嵌入特征工程、偏见测试、重要性分析等技术,用以规约ChatGPT在数据产生、采集、存储等环节中,所可能引发的数据歧视、偏见学习等伦理问题。
在计算环节中,ChatGPT利用深度学习、强化学习等算法集,模拟人脑对规约后的输入信息进行编码,并完成比较、转换、推理等“思维”活动。在该过程中,可通过“道德矩阵”、监督学习等技术规约的方式,对算法进行调适,以嵌入符合人才培养期望的伦理脚本,调解技术意向性在教育情境中的价值指向。此外,由于教育是一种解释性的行为,教育过程正是不断将缄默知识透明化的过程,因此它要求教育者需通晓整个教育原理、内容与过程,这也决定将ChatGPT应用于人才培养领域中,需要算法保持可解释性,开发者应对教育领域的算法进行规范化的阐释与说明。例如可通过局部敏感性分析技术、人机交互、可视化等技术方式,协助教师、学生明确这些算法的前提假设,算法可能忽略的因素,以及因此可能带来的主体异化、同质化等负面影响,为真正的个性化教育提供更优算法支撑。
在输出环节中,应进一步利用ChatGPT在语言生成、理解与翻译等方面的能力,协同教师、学生、学校、家长等多元主体,通过整合现有教育资源,开发更具专业性的功能应用,用以涵盖学习诊断、内容推荐与问答、教学评价与反馈等完整的人才培养环节,实现教育大脑与内外环境的互动。开发基于ChatGPT技术的教育大脑的应用,应坚持教学导向而非技术导向,由教育利益相关者需要什么样的人才与培养模式来决定需要什么样的应用,而非反向驯化关系。对于教育主动权的把握,可通过社会实验、风险评估、诚信检测等技术手段进行规约。在回答学生提问时,也应保持开放性原则,其答案尽量减少确定性词汇的描述,并提供更多备选方案,引导学生主动思考。
3.课程设置规约:更广范围下有机嵌入人工智能素养
ChatGPT在人才培养过程中,所带来的反向驯化、认知弱化等伦理问题,在很大程度上是由于学生、教师等对于高性能的人工智能还未“准备好”。以我国为例,根据教育部公开数据显示,截至2022年我国共有902所高等院校(含高职)开设或备案人工智能专业,虽然总量稳步提升,但仅占院校总量的29.94%,且大部分是针对计算机专业的学生,通识课、相关基础课开设数量比例偏低。但人工智能的影响,将涉及各教育水平和收入水平的职业[12]。面对ChatGPT等高性能人工智能对学生在职业技能与自我认知方面的现实要求,应有规划地面向更广泛的专业、不同年级的学生,开设人工智能相关课程,优化现有人才培养的课程体系,提升学生人工智能的综合素养。具体可从人工智能基础知识、高阶认知能力、人文教育三个部分着手。
在人工智能技术基础知识方面,可围绕数据素养、算法素养、情景化问题解决的培養开设课程。在数据素养的培养中,学生应能够理解人工智能如何对数据进行搜集、处理、分析、存储,以及对整个数据周期进行管理等;在算法素养中,应能理解算法本质、识别算法类型的示例、典型人工智能的算法过程;在情景化问题解决方面,学生需讨论与评估ChatGPT等典型人工智能解决实际问题的能力与适用性,并能有效识别特定技术产品、作品是否使用人工智能。
由于ChatGPT在程序化、机械式的初级信息加工任务上具有出色的性能表现,这凸显出高阶认知能力对学生培养的重要性,其主要包括设计思维、批判性思维、创新思维、交互思维与终身学习能力的培养。例如,针对设计思维而言,可开设人机交互课程,强化学生“以人为本”的设计理念,强化个体自主性意识,防范因过度依赖人工智能而带来思考浅层化、形式化。此外,高阶认知能力的培养也对教师在开放性、探究性的任务布置,激发学生思考欲望的教学重点上提出了更高要求。
人工智能越发展,人文教育越重要。这是工具理性与价值理性动态平衡发展的必然要求,也是教育回归“促进人的全面发展”的具体体现。人文关怀是人区别于弱人工智能的重要标尺,对人工智能技术创新具有价值引领、价值选择、价值参照等“以道驭技”的重要作用。上文关于ChatGPT教育大脑的构建,所涉及的伦理脚本、偏见测试,均是从人文角度进行的技术规约。重视技术伦理、思想道德建设、美学、科技哲学史等人文课程在各专业、各阶段学生培养中的设置与考核比重,是强化学生社会责任感、自我认同感、诚信与平等意识,解决ChatGPT等高性能人工智能所带来的情感遮蔽、反向驯化等问题的重要手段。
四、研究展望
2023年3月,OpenAI发布了比ChatGPT性能更为强大的GPT-4模型,包括微软的office 365在内的更广范围的学习办公软件,也开始走向智能化。高性能人工智能技术快速发展,特别是其意向性、打断性等特征,决定了人工智能对学生培养的影响是持续且变化的,这需要我们对此领域研究保持应有的专注度,并且这一专注度,是需要通过伦理学、社会学、教育学、计算机等科学间的交叉融合,才能有效实现的。
参考文献:
[1] WEI J, WANG X, YANG Y, et al. Chain-of-thought: Efficient Content Planning with The use of Pretrained Language Models[C]. In Proceedings of the 2022 Conference on Empirical Methods in Natural Language Processing, 2022: 124-133.
[2] 孙田琳子,沈书生. 论人工智能的教育尺度:来自德雷福斯的现象学反思[J]. 中国电化教育,2019(11):60-65,90.
[3] 多梅尔. 算法时代[M]. 胡小锐,译. 北京:中信出版社,2016:67.
[4] 董云川,韦玲. 人工智能促进教育发展的伦理纠偏[J]. 重庆高教研究,2021(2):51-58.
[5] 劉金松. 人工智能时代学生主体性的相关问题探讨[J]. 现代教育技术,2021(1):5-11.
[6] 胡艺龄,赵梓宏,顾小清. 教育生态系统视角下AI驱动的学生核心素养发展模式研究:基于系统动力学方法[J]. 现代教育技术,2022(12):23-31.
[7] FREDRICKS J A, BLUMENFELD P C, PARIS A H. School Engagement: Potential of the Concept, State of the Evidence [J]. Review of Educational Research, 2004, 74(1): 59-109.
[8] 马尔库塞. 单向度的人[M]. 刘继,译. 上海译文出版社,2008:104.
[9] 李育球. 主体性教育的三重性:主体性·主体间性·他者性:后形而上学主体性教育内涵的探索[J]. 教育理论与实践,2010(4):3-6.
[10] SILVERSTONE R. Television and Everyday Life [M]. London: Routlege, 1994:44.
[11] 顾小清,李世瑾. 人工智能教育大脑:以数据驱动教育治理与教学创新的技术框架[J]. 中国电化教育,2021(1):80-88.
[12] FREY C B, OSBORNE M A. The Future of Employment: How Susceptible are Jobs to Computerization[J]. Technological Forecasting and Social Change, 2017, 114(2): 254-280.
[基金项目:国家社会科学基金青年项目(立项编号:22CZZ012)]
[责任编辑:余大品]