人工智能教育应用场景下的教师伦理价值研究
2023-06-30沈苑汪琼
沈苑 汪琼
[摘要]随着技术的发展,国内外借助人工智能支持教学和校园管理的做法日渐普遍,也相应地引发了诸多伦理讨论。以教师的伦理价值为切入点,提出思想实验方法可作为探究人工智能应用于教育的伦理困境的创新手段,选取了人工智能教育应用场景下典型的伦理价值冲突,对应开发了4个基于虚构场景的思想实验,通过问卷调查探究了教师的伦理价值取向,为可信赖的人工智能教育应用的发展提供了可参考的建议。结果表明,在角色期望方面,教师普遍希望人工智能作为教学辅助而并非直接代替他们完成教学任务;在价值排序方面,教师最担心人工智能教育应用会引发隐私方面的风险;在价值决策方面,教师倾向于强调自主以化解准确和透明的冲突、愿意让渡部分隐私换取教育福祉,以及在自主和公平内部的平衡点上存在分歧。
[关键词]人工智能教育应用;伦理价值;思想实验;价值冲突;助教机器人
[中图分类号]G434[文献标识码]A[文章编号]1005-4634(2023)03-0044-09近年来,随着人工智能(Artificial Intelligence,AI)的发展,国内外借助AI支持教学和校园管理的做法日渐普遍,也引发了诸多伦理讨论。回溯萌芽于20世纪中期的计算机辅助教学,一路上也经历了大量的伦理讨论:隐私泄露、知识产权纠纷、网络霸凌、网络成瘾等[1-2],即便是21世纪的今天,这些讨论仍旧存在于人工智能教育应用(AI in Education,AIED)的场景下。而且与一般的教育技术不同,AIED更聚焦于通过自我学习能力以实现原本人类才能完成的任务[3],这种能力所带来的不可预测性意味着其必将成为伦理问题的多发地。如果AIED在设计或使用上忽视了教育场景下利益相关者的伦理价值诉求,非但可能无法达成预期效果,反而会致使教育异化——如“拍照搜题”“AI代写”“风险学生标记”等应用都饱受社会争议[4]。从技术发展的历史规律来看,一项新技术在兴起时所受到的炒作吹捧常会暂时遮蔽其伦理和社会含义,从长期来看因伦理问题引发的后坐力可能会减慢甚至停止技术研发进程,因此前瞻性地研判和规避AIED应用场景下的伦理困境具有重要的现实意义[5]。为防范潜在风险,多国政府都发布了相关白皮书和政策文件,对AI的开发和应用制定限度规范[6]。然而,单凭去情境化的抽象原则这种外在约束依赖行动主体的自我规制最多也只能达到 “弱约束”的效果,对于实践的指导具有明显的局限性,利益相关者依旧会在技术应用场景下面临难以抉择的价值冲突[7]。
基于此,本研究以教师的伦理价值为切入点,提出思想实验作为探究人工智能应用于教育的伦理困境的创新手段,以人形助教机器人作为技术研究对象,采用实证手段重点探究了教师的伦理价值取向,包括3项研究问题:在AIED应用场景下,(1)教师希望AIED承担的角色是什么?(2)教师心中的伦理价值优先级是什么?(3)教师在面临伦理价值冲突时会做出什么样的价值决策?通过探究这些问题,旨在为AIED的研究者和设计者开展实证研究提供可参考的研究工具与操作范式,也为AIED相关政策和规范的制定提供依据与建议。
1切入视角:AIED应用场景下教师的伦理价值本研究以教师的伦理价值作为切入视角。教师作为AIED最直接的利益相关者,其主张的价值排序和决策极大地影响到技术应该如何设计、部署和使用才能符合具体教学场景下的伦理要求。
芭提雅·弗里德曼(Batya Friedman)在其著作《人类价值与计算机技术设计》(Human Values and the Design of Computer Technology)中定义价值(value)是“聚焦于伦理范畴上人类认为重要的事物”[8]。哲学家们常说的“伦理困境(ethical dilemma)” 是指人在实践中面临几种不同的、相互矛盾的伦理价值,一时难以作出判断或抉择的情境[9]。AIED在发展过程中涉及到大量的利益相关者(如开发团队、教师、校长、学生、家长等),正因为这些群体之间或群体內部持有不同的伦理价值或对价值持有不同的优先排序导致了伦理困境的产生。
AIED应用场景下的教师伦理价值一方面涉及AI技术本身自带的伦理属性,另一方面也涉及教师角色本身的伦理特性。前者已有大量的政策文本和研究报告作出论述,通过对5篇AI伦理领域内权威专家的综述文章进行主题编码分析发现,目前此领域的话语显著收敛于“透明”“公平”“自主”“安全”“隐私”“责任”“福祉”这7个主题下[10-14]。而关于教师角色本身的伦理特性方面也得到大量研究者的论证,“教学本身包含了道德行动……教师是道德主体,课堂互动在本质上不可避免地具有道德属性。”[15]有研究者分析了由189位教师提供的伦理观点,对于其中产生的223项价值冲突进行聚类,提出5类在具体教学场景下可能产生冲突的伦理规范,即“伦理人际规范”“内部专业规范”“机构规范”“社会一致性规范”“自我保护规范”[16]。
上述伦理价值在AIED应用场景下会如何表征,又是否存在潜在的价值冲突和调适路径?本研究着重选取了4项典型的价值冲突,分别是准确与透明的冲突、福祉与隐私的冲突、自主与支持的冲突、平等与包容的冲突,采用思想实验方法深入探究教师的伦理价值取向,旨在对AIED的合伦理设计和应用提供现实关照,支持可信赖AIED生态系统的未来发展。
2研究工具:基于虚构场景的思想实验
本研究将虚构场景的思想实验作为主要研究工具,探测教师在AIED应用场景下的伦理价值取向,包括教师对于AIED的角色期望、对于伦理价值的优先排序以及在面临价值冲突时的价值决策。
2.1思想实验的特征与形式
思想实验是一种按照实验的格式展开的在人的头脑中进行的理性思维活动,研究者通过向自己或被试提出一系列“What if”问题来讨论假设情境下的事物发展和结果,以寻找某个问题的答案[17]。比如:如果不存在摩擦,将会发生什么现象?如果一个人分裂为变形虫,将会发生什么现象?思想实验最早是在恩斯特·马赫(Ernst Mach)的《认识与谬误》中作为一种正规的学术研究方法提出的[18]。自然科学领域的“自由落体”“薛定谔的猫”“麦克斯韦妖”“时钟佯谬”,经济学领域的“囚徒困境”,哲学认识论领域的“特修斯之船”“空地上的奶牛”“缸中之脑”“孪生地球”等都属于思想实验。在AI领域最典型的思想实验是麻省理工大学媒体实验室开发的“道德机器(Moral Machine)”大规模在线实验,通过“严肃游戏”的方式来探索自动驾驶汽车面临的道德困境。
思想实验一般是由虚构场景(vignette)的方式来呈现的。虚构场景是指用书面或口语形式描述特定情况,模拟真实事件或问题,通过邀请回应、鼓励讨论和探测理解来获取信息,以深入了解参与者对研究核心的特定现象的信念、情感、判断、态度和价值[19-20]。如肯尼斯·斯特赖克(Kenneth Strike)和乔纳斯·索尔蒂斯(Jones Soltis)在其经典著作《教学伦理》中,通过一系列虚构案例来阐明教师在伦理困境下可能经历的思考过程和背后起作用的伦理系统[21]。书中的虚构案例包含大段场景和细节的描述,其中的道德困境十分具体和棘手,可谓是“各种伦理原则互相矛盾抵触的世纪难题”。他们把这些案例设计得如此棘手,是有意地让这些道德争议夹杂不清,这种模糊性有助于增加思考的趣味性并且使其成为有效的教育工具。虚拟案例的难解并不证明教学中的伦理问题是无解的,也不证明思考伦理议题是无意义的。在参与者对于这些复杂案例进行充分思考后,如果在现实生活中遇到较为简单的困境,就有能力更迅速地做出伦理上恰当的选择。
较之于真实实验,思想实验最大的特点在于条件理想化,可以借助虚构场景避开实际的技术困难来开展前瞻性的分析与预测,降低教育情境下的试错风险[22]。虽然思想实验是基于虚构情境,但被试的作答依旧是以事实经验和普遍规律为来源的,因此所收集到的实验数据和研究结论是具备一定可靠性和推广性的[23]。“思想实验是在想象中操作模型时形成的”[24],并非脱离实际的主观臆想。换言之,思想实验的条件是不同于事实的,但之所以能夠进行思想实验,是因为推理“或多或少准确地、非任意地反映了事实”[18]。
伦理学研究常借助思想实验来突出某种“伦理困境”,大多是研究者的自问自答,是为了提出某种观点而有意设计出的困境表达,可能最后指向几种理论的矛盾争论之中,陷入非此即彼的理论抉择[25]。为规避这种局限性,本研究并不将思想实验作为一种分析工具,而是以开放的观点将思想实验作为一种收集教师观点的工具,通过为教师提供4个虚构的价值冲突场景,以探测教师在AIED应用场景下的价值取向。
2.2思想实验的伦理学基础
在本研究中运用思想实验方法是以描述伦理学为基础的。经典的伦理学论文经常论述的是一个具有“健全”观点的人的想法,即采用规范伦理学视角审视某项价值决策。然而在实际情况中,不同群体和个体对于一件事情自己会怎么做有着不同的想法和观点。描述伦理学是“对道德规范和相伴随的一个人或一群人的道德观念所作的调查,该理论认为,对道德观点的描述是人们在特定时间和特定的共同体内所持的道德原则”[26],其目的在于如实地呈现人们现实或历史的、内在或外在的道德状况,其研究对象不是社会的道德价值和行为规范,而是社会的道德事实及其规律,其任务在于记录与再现社会道德实际和揭示社会道德发展的科学规律[27]。
如果说规范伦理学关注的是“人们应该如何行动?”那么描述伦理学则更关注“人们觉得怎么做是正确的?”描述伦理学能够帮助诊断出社会的偏见,预测某个新的社会干预可能会带来的公众反应。比如“电车难题”就经常被用于描述伦理学研究中来提取公众的道德决策。有研究发现,虽然大多数人愿意拉下杠杆来救5个人,但大多数不愿意将胖子推下铁轨来救下5个人,这种取向差异有助于更加细微地探究人们内心衡量伦理价值的标准[28]。基于描述伦理学的立场,开放程度较高的思想实验有助于揭示教师内心的价值排序与态度观点,站在用户的立场上寻求更加可靠的规范AIED设计与使用的方式。
3实验设计:助教机器人的应用场景
3.1助教机器人作为技术主体
目前AIED有着多种运作方式(如软件/硬件)和多种用途(如辅助学习/教学/管理),而且收集的数据类型、规模、有效性、渗入师生生活的程度都有所不同。在本次思想实验中,研究者选择以一个能够预测学情和辅助学习的人形助教机器人“小波”作为技术研究对象,因为这类产品很大程度上代表了一种未来AI与教育深度融合的重要形式。
目前,国内外各教育阶段都开始尝试使用助教机器人辅助教学,如国内用于学前教育的Keeko、德国用于高校教学的Yuki、美国用于STEM教育的NAO等。即便国内的学校目前还没有这类助教机器人,也有学校已经开始借助AI软件来预测学情和辅助学习。虚构这样的人形助教机器人符合未来教育技术的发展趋势,研究过程和结果也能一定程度上推广到其他具有类似功能的AIED的设计和使用上。此外,选择人形机器人的原因是因为已有调查发现,虽然学生更喜欢动物形态的机器人,但是他们心目中最适合作为助教的机器人是人形的[29]。
3.2虚构场景的价值冲突设计
使用思想实验方法最关键的是要虚构出高质量的伦理困境,本研究虚构了4个有助教机器人参与的教学场景,确保场景简洁、易懂、不完整和开放[19]。
AIED应用场景中有诸多潜在的价值冲突,本研究的4个场景分别对应了4项较为典型的价值冲突(见表1)。第1个场景关注的是准确与透明的冲突,重点探究当助教机器人给出一个不透明但准确的预测时教师会如何行动;第2个场景关注的是福祉与隐私的冲突,重点探究当助教机器人通过收集隐私数据能做出更准确的预测时教师是否愿意为了效果而牺牲隐私;第3个场景关注的是自主与干预的冲突,重点探究的是当助教机器人对课堂上的学生讨论进行干预时教师是否认为这种干预损害了学生自主学习;第4个场景关注的是平等与包容的冲突,重点探究的是当助教机器人对特需学生“一视同仁”时是否会引发包容性上的争议。参与调查的教师需要分别针对4个场景给出自己的选择并阐明原因。本研究将“小波”预设为一个自动化程度较高且质量较好的机器人,其预测的准确度高且受到学生喜爱,以此来增强伦理价值冲突的复杂程度。
此外,由于每个场景都需要教师花费时间和精力去理解和思考,因此本研究将4个场景都置于某所学校的初二某班期中考试之后的一周内陆续发生,要求被试扮演班主任角色来选择自己在这个情境下会作出的判断和行动,以保持场景的连贯性,教师不需要在每读一个新的场景时就去转变自己的视角和角色,从而一定程度上规避故事背景、角色转变等因素对伦理价值取向产生的未知影响。具体见表1。
4研究发现:教师对AIED的伦理价值取向
本研究面向全国范围内的201位教师发放了调查问卷,参与填写问卷的被试是全国范围内主动报名2022年度某个以教师专业发展为主题的工作坊的教师。问卷以线上报名问卷形式发放。在调查开始前,研究者通过微信群通知详细说明了问卷的填写方法和起始时间,并且说明4道思想实验题是工作坊的热身活动,避免教师不愿意阅读长段文字而随便回答的情况,以提高数据回收的质量。调查问卷共包含5个部分:(1)基本人口学信息(包括姓名、年龄、学校、学段、学科、地区);(2)工作坊相关信息(包括报名目的、分享意愿、参与合作研究意愿);(3)学校AIED部署情况(产品名称、用途、使用频率、教师期望);(4)对于AIED伦理问题的担忧程度排序;(5)基于4个虚构场景的思想实验(教师行动、背后原因)。
被试教师涵盖学前教育、基础教育、高等教育、特殊教育、教师教育等领域,共回收问卷201份,在对问卷进行有效性筛选后(删除重复问卷和测试问卷共9份),获得有效问卷共计192份(见表2)。
有70位教师(36.46%)表示目前学校里已经部署了相关的AI产品,具体用途分布主要集中在辅助学习和教学方面,最多的是用在信息技术/人工智能/创客课堂教学中,较少用于学生心理疏导、校园安防等方面(见图1)。
4.1教师期望AIED承担的角色
问卷中询问了教师是否支持学校进一步部署AIED以及希望的应用场景,以了解教师对于AIED的角色期望。通过NVivo12对本题的开放式回答进行编码(见表3)。发现支持部署AIED的教师主要希望通过AI来支持学科教学、备课教研、学情监测,以减少重复劳动或者帮助他们突破自身原有的困境。在“双减”政策背景下,使用AI技术支持课后服务也成为一些教师的期望点。可以发现,教师并不期待AI替代他们完成教学任务,而是更希望借助AI手段来提高自己的工作效率,使得他们能有更多的时间精力来改进和创新自己的教学。而不支持未来部署AIED的教师观点主要集中于3个方面:第一是因为个人对于AI的不了解、不习惯以及对于未来教育变革的不确定;第二是觉得AI具有局限性,而且可能会对学生学习造成干扰;第三是考虑到外部条件的有限性。
4.2教师对AIED的伦理价值排序
为考察教师的价值排序,问卷要求教师按照他们对于AIED的风险担忧程度进行排序。问卷中列举了5项价值相关的风险:自主(损害学生学习和教师教学的自主性)、公平(造成偏见、歧视或不公平)、隐私(侵犯数据隐私和安全)、福祉(对实现教育目标没有显著效果)、可用(不容易掌握使用方法或用起来不方便)。从结果来看(见表4),教师的价值排序呈现出“隐私>自主>公平>福祉>可用”的特征,隐私成为教师普遍最担忧的问题。而可用是教师最不担忧的问题,这一方面可能是源于被试教师普遍在技术方面具有一定的素养和自信,另一方面也可能是因为他们对于技术发展持相信态度。
4.3教师对价值冲突的行动决策
4.3.1强调自主以化解准确与透明的冲突
根据结果显示(见表5),在第1个思想实验中,绝大多数教师(91.2%)都选择了参考小波的预测,不会因为其高准确度就全然相信,也不会因为其低透明度而全然不信。可以发现教师在教学中使用AI的时候主张要保持作出决策的自主性,不愿意让AI代替自己作出某些决定。
在第4个开放选项中,教师大多都提出要用数据或其他证据来验证AI预测,如找其他教师了解情况、调取学习数据进行分析,几位教师都提到自己会和王菲凡沟通交流来了解他近期是否经历了某些特殊事件或者遇到什么难处,以找出反常的原因。可以发现,AI在这个场景中对于教师的作用是给予一种提醒,教师会借助它的预测发现可能处于学习或生活困境的学生。在这种场景下,技术发现这个学生的过程显得并不重要,因为教师并不会完全听信系统预测,而是会在实际工作中进一步自行去检验。因此,如果系统只是给教师提出建议,并不带有任何的决策和行动强制性,其实准确和透明这两项价值并非必要价值,而相较之下教师始终选择保留的是自主价值。
4.3.2愿意让渡部分隐私以换取教育福祉
第2个思想实验试图探究的是实现教育福祉和隐私保护这两项价值冲突下的教师取向。在这个场景下,不仅仅是常规的教学数据被收集,还涉及到学生和教师的个人敏感数据。结果显示,多数教师(71.3%)都对于此类数据收集表示理解,为了教育福祉的实现愿意一定程度上让渡自己和学生的隐私(见表5)。这种倾向性也是因为目前国内学校的信息化建设逐渐成熟,数据收集成为常态。与排序题所得到的结果比较可以发现,教师在隐私问题上存在着矛盾的心态:大多教师可以理解AI需要足够的数据才能更加准确,但隐私风险仍旧是教师担心的首位。
在开放回答中,有教师呈现出矛盾的心理动态,如“既希望能通过采集数据使预判更精准地为教学服务,又担心因为大数据大家没有了隐私而被动。”“既感慨技术可以利用数据分析预测,又担心隐私泄露,同时会怀疑量化分析扁平化丰富的内在情感、心理等生命活动。”也有教师展现出对于AI角色的反思审视,如“技术是服务生活,技术不是罔顾法律、凌驾于生活。”“科技手段只能用作参考,不能太过依赖。”有教师建议设立一定的限制或筛选机制,如根据实际需要选择性地收集数据、要经过学校和教师的同意等。如果学校或者企业能够提前将数据类型、收集流程、审批过程进行透明化公开化的处理,来征得学校、师生和家长等利益相关者的同意,允许他们质疑、反对或退出,能够更好地减少教师关于隐私问题的困扰。
4.3.3自主与公平内部的平衡点存在分歧
教师在第3个思想实验中出现了明显的观点分歧(见表5)。有30.7%的教师赞成小波作为助教应当及时纠正讨论方向并引导学生参与讨论,有55.7%的教师则认为小波过多地干预学生讨论,影响学生自主探索学习。说明在自主与支持这两项价值之间如何取得平衡尚不明确。这种分歧的形成与教师对于教学和技术的理解有关。当教师更多地将助教機器人当作“同事”般的教师角色时,他们更多赞成小波的行为;而当教师将助教机器人当作“工具”时,则倾向于认为小波的行为越界。从开放回答来看,与诸多学者所担忧的“技术崇拜”相反,教师并没有“神化”机器人,而是都能较为清楚地认识到AI的功能限制,如“毕竟是虚拟人,不能用有问题或者没问题来解释”。在人机交互的过程中,教师始终强调人类自身的自主性和能动性,普遍不会将课堂完全交给机器人主导,如“机器的判断是根据大量数据而来的,它永远不能替代现实中教师充满温度的教学”。教师提出助教机器人在设计上应当增强人性化设计、丰富训练集、向教师及时反馈并允许教师干预等,在使用方面教师要积极地干预,以避免学生在与技术的交互过程中受到伤害。
同样,教师在第4个思想实验中出现了明显的观点分歧(见表5)。除了有很小一部分教师(4.2%)在面临这种冲突时选择不再继续使用小波之外,有将近一半的教师(42.2%)选择以后仍旧会让小波对每位学生进行辅导,还有27.1%的教师选择以后会让小波辅导除了张毅可之外的学生。前者所陳述的理由如“要平等,不能让张毅可感到差别”“这个属于正常情况,教师也会出现这种情况”“机器人需要适应”“多接触,多适应,就会有进步”,说明他们在这种冲突下更倾向于用“一视同仁”来实现公平,并且愿意AI技术有更多的学习和自我优化的机会。后者所陈述的理由如“特殊学生特殊对待”“因材施教”“因为张毅可本身就是一个有阅读障碍的孩子,这时候就需要教师出马解决个性化的问题,给学生更多情感方面的关怀”“尊重学生个体差异”,说明他们在这种冲突下更倾向于为特殊学生群体提供差异化的支持来实现公平。还有26.5%的教师补充了其他做法,主要是通过建议改进技术设计、增加教师干预、增强自己对技术的了解、改进教学策略等方式来调适平等和包容之间的价值冲突。
5总结
本研究讨论了教师伦理价值对于可信赖的AIED建设的重要作用,将思想实验作为探测教师伦理价值的创新手段,并以一项问卷调查研究为例展示了如何设计相应的工具来开展实证研究,在研究视角、研究方法和研究发现等维度上为AIED的相关从业者开展伦理实证研究提供了启示。
在研究视角方面,将教师的伦理价值作为切入点有助于深入剖析AIED的伦理困境。技术在人与世界的关系中起着中介作用,不但影响着人对外在世界的感知,还影响着人的行为方式[30],因此伦理困境是处于动态之中的,随着技术、情景、利益相关者的价值观点与排序的变化而变化。AIED的相关从业者都应当深刻意识到这种动态性,采用发展和包容的观点来看待一项技术从设计到落地会经历的伦理困境。
在研究方法方面,由于当前AI在我国教育中的应用还处于初步探索阶段,很多潜在的伦理问题尚未浮出水面。采用思想实验方法能够前瞻性地关注到“利益相关者认为怎么做是正确的”来探测出潜在的价值冲突,有助于及时采取价值敏感设计等方式提前规避伦理困境。本研究所开发的4个虚拟场景也为AIED相关从业者在未来开展类似的实证研究提供了工具上的支持。
在研究发现方面,问卷调查结果显示教师希望AI在教学中更多地承担起提升教学效率的角色,帮助他们从日常繁琐、重复性的工作中解脱出来,能更多地致力于创造性的工作内容,尤其强调保障教学中的自主性作为化解伦理价值冲突的手段。另外,也发现了教师们在多项价值上体现出矛盾的观点。本研究是采用思想实验对教师伦理价值的创新探索,通过问卷形式只能部分探测到在助教机器人这一特定AIED应用场景下的教师价值倾向,未来可以进一步挖掘其他类型的AIED应用场景下的教师价值、影响教师伦理价值取向的具体因素,以及关于隐私、个性、公平等价值内部的平衡点,以更加深刻、全面地理解AIED的伦理维度。
参考文献
[1] 孙涛,陈红兵,刘炜.网络技术异化的主体根源与重构[J].东北大学学报(社会科学版),2013,15(5): 453-458.
[2] LIN P,ABNEY K,JENKINS R.Robot ethics 2.0:from autonomous cars to artificial intelligence[M].Oxford:Oxford University Press,2017.
[3] NAZARETSKY T,ARIELY M,CUKUROVA M,et al.Teachers′ trust in AI-powered educational technology and a professional development program to improve it[J].British journal of educational technology,2022,53(4): 914-931.
[4] 谢娟,刘成新,张婷.我国教育技术研究之伦理缺位与分析[J].开放教育研究,2014,20 (2): 26-33.
[5] TIMMERMANS J,ZHAO Y,VAN DEN HOVEN J.Ethics and Nanopharmacy:value sensitive design of new drugs[J].NanoEthics,2011,5(3): 269-283.
[6] AI HLEG.Ethics guidelines for trustworthy AI[EB/OL].(2019-04-08)[2022-10-24].https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
[7] KITTO K,KNIGHT S.Practical ethics for building learning analytics[J].British Journal of Educational Technology,2019,50(6): 2855-2870.
[8] FRIEDMAN B.Human values and the design of computer technology[M].Cambridge: Cambridge University Press,1997.
[9] SLADE S,PRINSLOO P.Learning analytics:ethical issues and dilemmas[J].American Behavioral Scientist,SAGE Publications Inc,2013,57(10): 1510-1529.
[10] FJELD J,ACHTEN N,HILLIGOSS H,et al.Principled artificial intelligence: mapping consensus in ethical and rights-based approaches to principles for AI [EB/OL].(2020-02-14)[2022-10-24].https://dash.harvard.edu/handle/1/42160420.
[11] HAGENDORFF T.The ethics of AI ethics:an evaluation of guidelines[J].Minds and Machines,2020,30(1): 99-120.
[12] JOBIN A,IENCA M,VAYENA E.The global landscape of AI ethics guidelines[J].Nature Machine Intelligence,2019(1): 389-399.
[13] SCHIFF D,BORENSTEIN J,BIDDLE J,et al.AI ethics in the public,private,and NGO sectors:a review of a global document collection[J].IEEE Transactions on Technology and Society,2021,2(1): 31-42.
[14] ZENG Y,LU E,HUANGFU C.Linking artificial intelligence principles [EB/OL].(2018-12-12)[2022-10-24].https://arxiv.org/abs/1812.04814.
[15] BUZZELLI C,JOHNSTON B.Authority,power,and morality in classroom discourse[J].Teaching and teacher education,2001,17(8): 873-884.
[16] COLNERUD G.Ethical conflicts in teaching[J].Teaching and Teacher Education,1997,13(6): 627-635.
[17] COOPER R.Thought experiments[J].Metaphilosophy,2005,36(3): 328-347.
[18] MACH E.Knowledge and error:sketches on the psychology of enquiry[M].Boston : Reidel,1975.
[19] SKILLING K,STYLIANIDES G J.Using vignettes in educational research: a framework for vignette construction[J].International Journal of Research & Method in Education,Routledge,2020,43(5): 541-556.
[20] TORRES S.Vignette methodology and culture-relevance: lessons learned through a project on successful aging with Iranian immigrants to Sweden[J].Journal of cross-cultural gerontology,Netherlands: 2009,24(1): 93-114.
[21] STRIKE K,SOLTIS J F.The ethics of teaching,5th edition[M].New York:Teachers College Press,2015.
[22] NORTON,J.Thought experiments in Einstein′s work[J].Thought experiments in science and philosophy,1991:129-144.
[23] 白倩,于偉.马修斯儿童哲学的要旨与用境——对儿童哲学 “工具主义”的反思[J].全球教育展望,2017,46(12): 3-11.
[24] HARRé R.The philosophies of science an introductory survey[M].Oxford:Oxford University Press,1972.
[25] 李依贝.思想实验方法在伦理学研究中的应用考察[J].长春师范大学学报,2014,33(7): 20-22.
[26] 何怀宏.伦理学是什么[M].北京: 北京大学出版社,2021.
[27] 李晔.事实与价值关系视域下的描述伦理学——描述伦理学的问题及其视域[J].河南师范大学学报(哲学社会科学版),2003(5): 22-25.
[28] AWAD E,DSOUZA S,KIM R,et al.The moral machine experiment[J].Nature,2018(563): 59-64.
[29] Ryu H J,Kwak S S,Kim M S.A study on external form design factors for robots as elementary school teaching assistants[C]//RO-MAN 2007-The 16th IEEE International Symposium on Robot and Human Interactive Communication.IEEE,2007: 1046-1051.
[30] 张卫,王前.道德可以被物化吗?——维贝克“道德物化”思想评介[J].哲学动态,2013(3): 70-75.
Research on teachers′ ethical value of Artificial Intelligence in education
SHEN Yuan,WANG Qiong
(Graduation School of Education,Peking University,Beijing 100871,China)
AbstractWith the development of technology,the practice of using artificial intelligence to support teaching and management has become common at home and abroad,which has also triggered a lot of ethical issues.Taking the ethical value of teachers as the starting point,this paper proposes that thought experiment can be used as an innovative way to explore the ethical dilemma of applying artificial intelligence to education.Four thought experiments based on vignettes were developed,and teachers' ethical value orientation was explored through teacher questionnaires.The results show that teachers worry about privacy the most,generally hope that AI should be used as a tool for improving teaching instead of replacing human teacher.Also,teachers tend to stress human agency to resolve conflicts of accuracy and transparency,be willing to trade part of privacy for educational wellbeing and disagreement on the balance between autonomy and fairness are found in this research.
Keywordsartificial intelligence in education; ethical value; thought experiment; value conflict; robot tutor
[責任编辑刘冰]