超越“共识”:教育人工智能伦理原则构建的发展方向
2023-06-21白钧溢于伟
白钧溢 于伟
摘要:受各国人工智能发展规划影响,教育人工智能伦理原则研究起步晚于其他领域,塑造了其参照已有原则“共识”的构建取向。目前,对“共识”的反思及对教育领域个性要素的探寻逐渐受到研究者关注,超越“共识”成为教育人工智能伦理原则构建的发展趋势。“共识”暗含的“非共识”要素是制约教育人工智能伦理原则实践效果的根本原因,包括国别间的历史与文化差异,领域间的结构与指向差异,应用间的内容与对象差异,自身间的概念与关系差异。超越“共识”实际上便是在已有研究的基础上弥合“非共识”要素。更直接的说,就是承认教育人工智能伦理原则的有限性,即价值匹配的有限性、领域作用的有限性、指导时效的有限性,从而在构建教育人工智能伦理原则时坚持本土立场,明确目的导向,保持持续开放。
关键词:教育人工智能;伦理原则;超越共识;发展方向
中图分类号:G434 文献标识码:A
本文系2022吉林省社会科学基金项目“中国‘Z世代亚文化圈层语言的区隔性研究”(项目编号:2022C78)、2022东北师范大学教师教育“揭榜领题”一般项目“教师‘社会与情感能力的国际框架与本土转化研究”(项目编号:JSJY20220302)研究成果。
人类社会与人工智能技术的协作目前仍处于试错、纠错的探索阶段[1]。随着人工智能技术在教育领域的广泛应用,算法歧视、学生发展同质化、隐私和安全隐患等伦理问题不断显现,消解伦理风险,实现技术向善已成为全球教育领域面临的共同挑战。“人工智能伦理”被认为是寻求可信赖人工智能的重要组成部分[2]。近年来,政府、国际组织与学界不断开展教育人工智能伦理研究,提出诸多伦理原则框架①,以期明晰教育领域人工智能应用的合理边界与正确做法。然而,现有的教育人工智能伦理原则框架大多来自对其他领域人工智能伦理原则“共识”的梳理与提取,这在当前面临着广泛而尖锐的批评。越来越多的学者与研究指出,教育人工智能的伦理原则必须指向教育的个性要素,基于“共识”的伦理框架既不能明晰教育人工智能的应用边界,更无法影响教育人工智能的应用实践。在这一背景下,明晰基于“共识”的教育人工智能伦理原则研究样态,揭示“共识”隐含的“非共识”要素,探讨超越“共识”的优化路径对于教育人工智能伦理原则的未来构建十分必要。
一、基于“共识”的教育人工智能伦理原则研究样态
教育人工智能伦理原则研究对“共识”的偏好有其特殊的形成背景。受各国人工智能发展规划影响,教育人工智能伦理原则构建起步晚于其他领域,塑造了其参照“共识”的构建取向,表现为以已有伦理原则为依据、侧重宏观原则构建、所构建的原则与其他领域高度相似。但随着人工智能教育应用及其伦理研究的不断深入,对“共识”的反思与超越开始得到教育研究者的关注,成为伦理原则构建的发展趋势。
(一)面临“共识”的后发背景
国家人工智能发展规划是人工智能伦理原则构建的直接推动力。2016年起,随着人工智能技术的社会变革引领作用愈发突出,很多国家都发布了国家层面的人工智能发展规划且绝大多数规划文件都明确强调要重视对人工智能伦理风险的防范与治理[3]。国家层面的治理需要对人工智能伦理原则构建的推动力体现在三个方面。一是促成如欧盟委员会人工智能高级专家组、新加坡人工智能和数据的道德使用咨询委员会及英国上议院人工智能专责委员会等特设专家委员会建立;二是获得如电气与电子工程师协会(IEEE)、美国计算机协会(ACM)及联合国教科文组织(UNESCO)等专业协会与非盈利组织响应;三是得到如思爱普、谷歌等产业界关注。从结果上看,自2014年来,人工智能伦理相关的出版物与之前相比增加了五倍,其中近七成文献发表于发展规划集中出台的2017—2019年[4]。
然而,国家人工智能发展规划却“意外地”制约了教育领域人工智能伦理原则的探索。不同于其他领域人工智能伦理原则研究在2017—2019年的快速发展,直至2019年,与教育人工智能伦理相关的原则、政策、法规研究几乎处于空白[5]。人工智能发展规划对教育的“工具性定位”是造成这一情况的直接原因。虽然绝大多数国家在发展规划中为教育设置了专门章节或给予极大关注,但由于教育人工智能具有“双重角色”①身份,加之各发展规划遵循的是促进社会经济转型与增长、提高国际竞争力的发展逻辑,人工智能的教育应用主题极少受到关注,取而代之的是,规划制定者将教育视为一种战略性工具,旨在通过教育实现培养人工智能专家、培训人工智能相关产业劳动力、提升公民人工智能素养等社会发展目标。这种对教育价值的片面强调限制了通过人工智能技术促进教育变革的想象力,进而影响了对其伦理问题的关注与前瞻。
与此同時,先发的诸领域人工智能伦理原则框架虽然在学科与影响力上存在差异,但在原则的选择方面已走向趋同[6]。人工智能伦理原则的趋同样态可见于与之相关的元分析统计。当前影响力较大的人工智能伦理原则元分析分为两类,一类侧重梳理权威机构发布的伦理框架,如哈佛大学伯克曼·克莱因互联网与社会研究中心的《有原则的人工智能:在基于伦理与权利下达成共识》[7]、南里奥格兰德天主教大学人工智能机器人伦理学会的《全球人工智能伦理:治理指南和建议回顾》[8]。另一类侧重对伦理框架进行跨学科、跨主体的系统分析,如苏黎世联邦理工学院伦理与政策实验室的《人工智能:道德准则的全球格局》[9]及奥卢大学可汗(Khan)等人的《人工智能伦理:原则和挑战的系统综述》[10]。由上述四份元分析(如表1所示)可知,隐私、责任与问责制、安全、透明度与可解释性、公平、以人为本、可持续性原则出现在绝大多数框架中,它们已成为不同时期、不同领域、不同级别人工智能伦理框架的“共识性”原则。国家人工智能发展规划与其他领域伦理原则的研究现状塑造了教育领域面临“共识”的后发背景,这一情况深深影响了教育人工智能伦理原则的构建。
(一)国别间“非共识”:历史与文化差异
当前人工智能伦理研究再现了全球经济与政治的权力分布,以北美与西欧为代表的发达国家主导了人工智能伦理原则的构建[18]。因而,所形成的“共识”更多反映的是发达国家群体的集体意志。如果原则、指南或实践不包括来自亚洲、非洲或拉丁美洲的任何伦理观点、社区参与或社会和历史背景,它们就无法作为“全球性共识”广泛指导人工智能伦理实践[19]。但问题是,广泛认可的共识背后必然掩盖了国家间历史与文化的差异,使得所构建的原则清单只能流于美好但无法落实的宏观层面。
任何人工智能伦理框架都是个性化的框架,因为其提出植根于特定的历史与文化背景。例如,欧盟的人工智能伦理框架很大程度上是基于《欧盟基本权利宪章》(Charter of Fundamental Rights of the European Union)乃至《歐洲人权公约》(European Convention on Human Rights),它们影响了对欧洲政府与其公民之间关系的定义,并将“可解释性”作为与人工智能相关的新元素[20]。然而,这类人权宣言和公约的内容选择与提出有其特殊的历史背景,它们植根于二战的经历,其中的诸多规定与言论可以理解为战后对不应再发生的事情的声明,这使得其及受其影响下的人工智能伦理原则框架带有对种族、性别、宗教、族裔血统以及性取向等特定历史文化主题的关注,较难推广至有着不同历史及文化的地区①。此外,由于这些宣言主要强调政府与公民间的关系,使得据此所构建的人工智能伦理原则既带有较强的价值倾向②,也未能涵盖所有重要的伦理议题。
即使忽略欧盟人工智能伦理框架关注主题与涉及范围的本土性,直接将其借鉴或套用到教育领域是也有问题的。《欧盟基本权利宪章》与《欧洲人权公约》对参与国具有法律约束力,它们表达了共同的价值观,但在其影响下,道德问题很容易变成遵守现有法律的问题[21]。一个突出的例子是欧洲通用数据保护条例(GDPR),该条例在法律和实践方面定义了隐私和身份在欧洲地区的含义。而这种影响同样体现在人工智能伦理框架中,进而存在道德泛法律化风险。诚然,在教育领域,法律固然重要,但教师、学生和其他教育人工智能利益相关者之间是复杂的人际关系,法律仅能提供一般性约束,这也是为什么需要超越现有规则和条例以寻求伦理性指导。
(二)领域间“非共识”:结构与指向差异
从发展历程来看,不同领域的人工智能伦理研究似乎在走向趋同:提出类似的伦理原则,识别类似的伦理问题,得出类似的解决方案[22]。这在某种意义上构成了参照其他领域“共识”的可行性支撑。但是,参照“共识”构建教育人工智能伦理原则的一个方法论挑战是,对“共识”的提炼基于的是各原则名称或其表述句法的相似性,而同一原则在不同领域很可能有着不同的侧重、关联与内涵[23]。这意味着通过比较与归纳构建的教育人工智能伦理原则可能忽略了教育自身的核心目标、逻辑结构与研究旨趣。
首先,不同领域关注的伦理原则有所侧重。例如,“善意”与“非恶意”在医学领域被不成比例地提及,而在法律领域,关注最多的则是“正义”与“问责制”。“隐私”在法律和医学领域被视作一项重要的伦理原则,但在科学、工程和商业领域却鲜有提及。“透明度”主要为涉及算法与设计的科学与工程领域所强调,其他学科则较少关注重这一点。同时,如牛津大学杰西卡·莫莉(Jessica Morley)等人所言,即使某一领域包含了较为全面的伦理原则,这些原则也并非同等重要,如在国家安全系统中,非恶意远比可解释性重要的多[24]。
其次,同一原则在不同领域中存在特定的关联。例如,在法律领域,“正义”通常居于核心位置,与其它原则广泛关联(称之为“正义关联”,Justice Relevance),但医学、商业和营销领域则仅将其与“自治”结合使用。在医学领域,“可解释性”被视为医学人工智能伦理区别于传统医学伦理的关键原则,并主张应将“可解释性”广泛融入自主、仁慈、非恶意和正义这一医学伦理学经典四原则中[25]。在科学与工程领域,“公平”“问责制”与“透明度”往往同时出现,但在其他领域则并非如此。
最后,同一原则在不同的领域及伦理框架中存在指向差异。例如,“透明度”在《可信赖的人工智能伦理准则》中关注“数据、系统及商业模式”,而在联合国教科文组织关于人工智能伦理的建议初稿中,强调的则是“清晰的责任与问责措施”[26]。“以人为本”的“人”在《负责任的数据(第1卷)》中指代“人类”,而在《人工智能的日常伦理》中则将范围缩小至“用户”[27]。“问责制”在不同的框架中存在对设计(人工智能部署前)、监控(人工智能部署期间)及补救(伤害发生后)等特定阶段的关注偏向[28]。
(三)应用间“非共识”:内容与对象差异
即使是在同一领域,人工智能伦理原则的构建与应用也存在着极大的差异。如在教育领域,当前的一个共识是,“教育人工智能开发和使用引发的伦理风险是往往是特定于环境的”[29]。这意味着虽然教育人工智能伦理原则旨在应对、规避人工智能技术在教育领域应用造成的伦理风险,但由于涉及用途不同、目标群体各异,这一愿景很难通过一套共识性伦理原则框架实现。
共识性伦理框架难以实现一方面是由于人工智能在教育中的应用具有多样性。就底层模型而言,教育人工智能大体分为数据驱动的人工智能、基于知识或符号的人工智能、混合人工智能三类,但如果就应用而言,对其的划分则要复杂的多。目前影响力较大的教育人工智能分类法由伦敦大学学院韦恩·霍姆斯(Wayne Holmes)于2019年提出[30]并在2022年进行改进[31]。该分类从学生、教师、机构三个维度出发对现有教育人工智能应用进行归类并从构思(*)、研究(**)、可商用(***)三个层次评估了各应用的发展水平(如表2所示)。由分类表可见,虽然它们都属于教育领域,但发展前景、目的和运作方式却大不相同:它们并非都具有相同水平的(经过验证的)有效性;它们并非都收集相同数量或类型的数据,它们对学生或教师的生活的侵入程度也不尽相同,并且并非所有的教育人工智能应用都会引起特别的伦理问题[32]。更为重要的是,使用不同类别的人工智能应用通常意味着不同的哲学和教育观念[33],这反过来又会强化各应用环境的特殊性。
共识性伦理框架难以实现另一方面是由于人工智能应用所影响的教育群体具有多样性。教育人工智能的伦理研究是一个贯穿开发、使用、评估、改进的连续过程,涉及教育技术产品开发者、教师、学生、教育技术专家、管理领导者等多个利益相关者。他们有着不同的分工与特征,不能在伦理方面划为一谈。另外,即使是同一类利益相关者,在不同的背景下也有着不同的特征。例如,学生间存在不同的性别、年龄及家庭环境,在构建教育人工智能伦理原则时,需要将学段、文化背景等方面纳入考量,不能简单地归为“学生”进行理解。
(四)自身间“非共识”:概念与关系差异
即使抛开各人工智能伦理原则框架的国别、领域、应用差异不论,仅在单个框架内,原则之间乃至原则自身也存在着明显的紧张关系,表现为原则概念与原则关系的差异。其中,概念的差异直接制约了人工智能伦理原则的可操作性,关系的差异则对伦理目标的整体实现提出了挑战。
人工智能伦理原则的概念差异表现为原则自身的模棱两可。当前人工智能伦理研究大多塑造了“模糊的、高层次的原则和价值陈述,这些原则和价值陈述试图指导行动,但在实践中几乎没有提供具体的建议,也未能解决嵌入关键概念中的基本规范”[34]。正义、福祉、非恶意、自主和可解释性等“共识原则”为人工智能实践勾勒了宏大且美好的理想图景。但当追问它们的具体含义时,困难便出现了。例如,人工智能伦理中的“正义”原则通常并没有说明什么是正义或不正义,而是让行为人自己决定[35]。又如,“福祉”在教育框架中被频繁提及,它们均认为“人工智能要在教育中发挥作用,其设计始终要以和谐友好与共建人类命运共同体为核心”。但这一界定同样缺少了对“福祉”的明确解读。福祉包含哪些方面,需要考虑哪些群体的福祉,不同群体的福祉是否存在冲突?从某种意义上说,当前的“福祉”可以用来指代所需要的任何意思。原则中心术语的模棱两可掩盖了概念的复杂性和不同人群的解释差异与道德分歧,必然会使其成为一个无法实现的空谈。
人工智能伦理原则的关系差异表现为原则之间的互相矛盾。共识性伦理框架的原则设置乍一看似乎很合理,因为它们各自对应了人工智能特定的问题领域。然而,当前研究很少讨论的一个话题是,这些框架中的许多原则间相互紧张甚至相互矛盾:公平必然以个性化与准确性为代价,隐私会限制服务质量与效率,透明度会威胁安全与隐私等[36]。一个更为具体的例子是,英国上议院人工智能委员会(Artificial Intelligence Committee)在《英国人工智能发展的计划、能力与志向》报告中指出,“部署任何可能对个人生活造成潜在影响的人工智能系统是不可接受的,除非它能对自己将要作出的决定提供充分且令人满意的解释”。这一表述固然重要,但它制造了“福祉”与“可解释性”的紧张关系,限制了人工智能变革社会的积极作用①。实际上,“可解释性”应服务于“福祉”并保持一定的灵活性,在某些情况下,只要使用算法的好处足够大,准确性足够可靠,其便是值得使用的,即使可能无法对其决策作出全面解释[37]。
三、超越“共识”的教育人工智能伦理原则构建旨归
倫理原则国别间、领域间、应用间、自身间“非共识”的存在使得基于“共识”构建出的教育人工智能伦理原则无论是在自身可靠性方面,还是在实践指导力方面,都面临着极大的挑战。超越“共识”实际上便是在已有研究的基础上弥合“非共识”要素。更直接的说,就是承认教育人工智能伦理原则的有限性,即价值匹配的有限性、领域作用的有限性、指导时效的有限性,进而构建符合国情、目标明确、立足当下、面向未来的教育人工智能伦理原则。
(一)价值匹配的有限性:坚持原则构建的本土立场
坚持本土立场是构建教育人工智能伦理原则的根本方向。《关于加强科技伦理治理的意见》强调,“必须立足我国科技发展的历史阶段及社会文化特点,遵循科技创新规律,建立健全符合我国国情的科技伦理体系”[38]。在构建教育人工智能伦理原则中体现本土立场,必须正确认识技术、伦理以及二者之间的关系。
首先,要正确认识教育人工智能技术的本土性。任何技术都具有价值偏向性,“它承载着一定的价值内涵并因此构成我们难以摆脱和改变的社会环境和生活方式”[39]。也就是说,技术产品同时也是政治产品,因为它反映了特定的文化、社会和政治动态。其中,技术的每一个设计选择都是由具有自己文化背景的设计者做出的决定,并伴随他们有意识或无意识的偏见[40]。即使是最简单的教育人工智能应用,因为其依靠算法、编程、训练,所以也会包含价值导向。因此,教育人工智能伦理原则的构建应打破工具理论思维,警惕算法殖民主义,并揭示技术部署背后的权力关系,将价值审视延伸至教育人工智能设计、运转、应用、评价的全过程。
其次,要正确认识教育人工智能伦理的本土性。教育人工智能应用的“价值有涉”必然意味着其伦理原则同样具有特定的文化与价值特征。在对技术伦理的分析中考虑文化价值的必要性早已得到认可。跨文化技术伦理学的研究已经证明了技术、文化和伦理价值之间的相互作用[41]。它们证实了在评估信息技术的伦理这一问题上存在着来自不同文化的截然不同但同样合理的价值体系[42]。正如哈贝马斯(Habermas)在话语伦理学中所论证的那样,辩护不必基于普遍认同的价值陈述,而在于采用价值的连贯性[43]。因此,教育人工智能伦理原则构建必须依照我国的文化背景与价值观,在把握国际研究进展的同时进行本土转化,做到原则选择回应我国的教育问题、内涵话语体现我国的教育立场。
最后,要正确认识伦理与技术的关系。教育人工智能伦理原则构建的本土化是全原则、全内涵的本土化,要警惕伦理问题的技术解决倾向。当前国际人工智能伦理原则研究在一定程度上出现了技术优化代替价值判断的倾向,可解释性、隐私、安全、公平相较于其他原则得到了更多的讨论,因为这些原则似乎能够得到“技术解决”。例如,可解释性可以通过简化模型(Simplified Model)实现[44];隐私可以通过差别隐私(Differential Privacy)保障[45];安全可以通过红队测试练习(Red Teaming Exercises)加强[46]。但教育人工智能伦理原则的构建不能仅寻求数据或算法这种技术层面的解决,因为虽然技术参考的量化指标可以使用具有明确目标状态和理想化的条件来量化伦理原则,但指标本身是“被选择的”①,选择一种价值就是对其他价值的否定,因此所有的价值选择都需要理由。教育人工智能的各项伦理原则均应与我国的教育价值取向相契合。
(二)领域作用的有限性:明确原则构建的目的导向
明确目的导向是构建教育人工智能伦理原则的前提要求。教育人工智能在借鉴“共识”时面临的诸多“非共识”冲突,如前文提到的结构与指向差异、内容与对象差异、概念与关系差异,很大程度上是由于原则构建目的不明导致的。当前研究对原则构建具有的意义强调颇多,但对原则构建指向的目的探讨甚少。“规避伦理风险,实现技术向善”这一目标固然重要,但还远远不够。未来,需要进一步明确教育人工智能伦理原则构建的目的与教育人工智能应用的目的。
表层来看,需要明确教育人工智能伦理原则的构建目的,即框架目的。一是要明确原则旨在影响的对象与应用。教育人工智能应用涉及技术开发人员和提供者、教育研究人员、教育工作者、管理人员、学生,以及政策制定者、家长和公众等多种利益相关者。这种应用及其利益相关者的多样性必然会推动对共同价值观和规范的追求向高抽象层次发展,导致原则内容成为难以实现的空谈。未来教育人工智能伦理原则构建可能有两种取向,一种是构建应用与利益相关者指向明确的针对性框架。另一种是内容能够调整的整体性框架,当它面对不同的教育人工智能应用场景时,能够通过对自身内涵的调整而变得继续适用;二是要明确原则旨在发挥作用的程度。当前教育人工智能伦理原则就其性质而言是普遍且宏大的,它们的价值在于它们表明了适用于教育领域的重要道德主题与愿景。这意味着它们可以作为在教育场景中需要考虑的一组事项清单。然而,原则的普遍与宏大也限制了它们指导实际行动的能力,甚至会由于各原则要求过高导致原则间互相冲突。如果不承认这些冲突,原则标准可能会被设定的不切实际的高,或者旨在践行一种原则的行为可能会在无意中损害其他重要目标。这意味着各伦理原则的实用价值是有限的,因此每一项伦理原则都应是“有限原则”,对其内涵的说明或追求都是和其他原则不断妥协的结果,只有范围更窄、更具体的原则才可能在实践中发挥作用。
深层来看,需要审视教育人工智能技术的应用目的,即教育目的。如果没有明确清晰的教育目的,在教育中寻找“人工智能伦理”将是徒劳的。重要的伦理原则,例如“福祉”,需要对什么是“利益”或“进步”有明确的理解。在教育人工智能伦理原则的构建中,只有我们清楚地了解教育的目的时,才能解释这些术语及术语组成的框架结构与指向。当前对教育人工智能应用目的的认识可能是不足的。目前,诸多教育人工智能系统以布鲁姆(Bloom)“精通学习”教学策略为起点或受其影响,它支撑了人们普遍认为人工智能在个性化教学中具有巨大潜力的信念[47]。精通学习教学策略在数学与科学领域特别有影响力,许多领先的教育人工智能系统已广泛建立了特定领域的知识模型、学习材料与知识掌握测试[48]。但是,将知识掌握视作教育人工智能的应用目的可能是有局限的。比斯塔(Biesta)认为,教育的目的不能被学习的目的(尤其是知识学习的目的)取代,教育的目的至少包括资质(Qualification)、社会化(Socialization)、主体化(Subjectification)三个方面②[49]。也就是说,教育不仅仅是为了测试或积累知识而进行教学,教育人工智能传统上对认知能力的关注对于指导伦理原则构建来说可能过于狭窄乃至影响对问题识别、原则选择、内涵阐发的把握。
(三)指导时效的有限性:保持原则构建的持续开放
保持持续开放是构建教育人工智能伦理原则的应有追寻。如果说领域作用的有限性强调的是教育人工智能伦理原则如何面对当下,那么指导时效的有限性讨论的则是教育人工智能伦理原则如何面对未来。关于技术的社会和历史研究指出,技术的未来用途与可能后果很难精准预测。教育人工智能伦理原则的构建需要关注未来,通过持续开放回应教育人工智能领域的“科林里奇困境”(The Colling Ridges Dilemma)与“步调问题”(The Pacing Problem)。
首先是原则内涵的持续开放,即如何回应科林里奇困境。科林里奇困境是指技术的逻辑可塑性导致其在与社会的融合过程中充满不确定性,这意味着对教育人工智能的伦理评估与控制总是有限的、被动的,必须保持对个性化、复杂性伦理问题的关注与分析。正如布伦特(Brent)所言,“伦理原则构建的真正风险在于复杂、困难的伦理辩论被过度简化,以使手头的概念能够以简单但浅薄的方式进行计算和实施”[50]。因此,伦理原则的内涵需要保持一定的开放性,即能够对已有原则优化重构或增加新的原则,以适应教育人工智能实践的不断发展及在发展过程中可能出现的新的风险。这意味着原则构建应当成为一个过程,而不只是提出一套以内容为导向的伦理清单。
其次是原則预测的持续开放,即如何回应步调问题。步调问题是指当前教育人工智能技术的创新速度远远超过了法律、伦理规范和管理条例的更新速度,塑造了科学技术发展与道德规范发展之间的差距。如上所述,尽管当前教育人工智能伦理原则研究存在诸多争议,但在原则构建的目的上已基本达成一致,即“教育人工智能伦理原则旨在应对、规避人工智能技术中教育领域应用的伦理风险,实现技术向善”。这一构建目的暗含两个前提假设:一是伦理原则是能够“确定”的;二是伦理原则能够逐一对应教育实践产生的伦理风险。但正如步调问题所表明的那样,人类伦理常常是滞后先于前瞻,“事后诸葛亮”式的教训远多于“未卜先知”式的智慧,对伦理问题的预见必定存在疏漏。因此,教育人工智能伦理原则的构建需要坚持滞后与前瞻的统一,在指向现实问题的同时,也要把握教育人工智能技术的发展趋势,提供预见性伦理原则。
四、结语
教育人工智能伦理原则构建是一个正在生成的领域,目前,其逐渐从参照各领域伦理原则共识向关注教育领域的个性要素转变,这可称之为“超越共识”的研究转向。超越“共识”首先需要明确“共识”中的“非共识”,虽然现有研究已经提出了许多针对教育领域的个性化人工智能伦理原则框架,但总体来看,它们对“非共识”的认识仍然是不足的。实际上,共识性人工智能伦理原则不仅存在国别与领域差异,在教育领域的不同应用甚至同一框架内部,亦存在着明显不同。这意味着似乎难以形成一套具有普适性作用的教育人工智能伦理原则,未来相关原则的构建很可能是个性且多样的。从这一意义上讲,对构建原则讨论的重要性超过对原则构建的讨论。坚持本土立场、明确目的导向、保持持续开放是构建教育人工智能伦理原则时的必要遵循,但可能还不够。未来,还需要对构建原则进行更为全面、深入的研究。总之,构建能够切实影响教育实践的人工智能伦理原则是一个必要但极其困难的研究议题,用路易斯维尔大学教授兼人工智能研究员罗曼·扬波尔斯基(Roman Yampolskiy)的话来说:“那些说人工智能伦理很复杂的人过于乐观了”。
參考文献:
[1] 苗逢春.教育人工智能伦理的解析与治理——《人工智能伦理问题建议书》的教育解读[J].中国电化教育,2022,(6):22-36.
[2] Hagendorff,T.AI ethics and its pitfalls: not living up to its own standards [J].AI and Ethics,2023,3(3):329-336.
[3] Schiff D,Borenstein J,et al.AI ethics in the public,private,and NGO sectors:A review of a global document collection [J].IEEE Transactions on Technology and Society,2021,2(1):31-42.
[4] Corrêa N K,Galv o C,et al.Worldwide AI Ethics:a review of 200 guidelines and recommendations for AI governance [EB/OL].https:// arxiv.org/abs/2206.11922,2023-02-28.
[5] Holmes,W.Ethics in AIED:Who cares [C].Lausanne,Switzerland:Springer, 2019.424-425.
[6][8] Jobin A,Ienca M,et al.The global landscape of AI ethics guidelines [J].Nature Machine Intelligence,2019,1(9):389-399.
[7] Fjeld J,Achten N,et al.Principled Artificial Intelligence:Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI [J].Social Science Electronic Publishing,2019,22(3):20-38.
[9] Hagerty A,Rubinov I.Global AI ethics:a review of the social impacts and ethical implications of artificial intelligence [EB/OL].https://arxiv. org/abs/1907.07892,2019-07-18.
[10] Khan A A,Badshah S,et al.Ethics of AI:A systematic literature review of principles and challenges [C].New York:ACM,2022.383-392.
[11] Agarwal B,Urlings C,et al.Ethical FRAPPE–an adapted draft framework for ethical AIED [C].Toulouse:CEUR-WS.org,2022.46-54.
[12] Armstrong,M.,Dopp,C.,et al.Design-Based Research,The Students Guide to Learning Design and Research [EB/OL].https://edtechbooks. org/studentguide/design-based_research,2022-07-21.
[13] Adams C,Pente P,et al.Artificial Intelligence ethics guidelines for K-12 education:A review of the global landscape [C]. Cham:Springer,2021.24-28.
[14] Hong Y,Nguyen A,et al.Data Ethics Framework for Artificial Intelligence in Education (AIED) [C].New York:IEEE,2022.297-301.
[15] Madaio M,Blodgett S L,et al.The Ethics of Artificial Intelligence in Education [M].New York:Routledge,2022.203-239.
[16] Chaudhry M A,Cukurova M,et al.A transparency index framework for AI in education [C].Cham:Springer,2022.195-198.
[17] Holstein K,McLaren B M,et al.Designing for complementarity:Teacher and student needs for orchestration support in AI-enhanced classrooms [C].Cham:Springer,2019.157-171.
[18] Murphy K,Di Ruggiero E,et al.Artificial intelligence for good health:a scoping review of the ethics literature [J].BMC medical ethics,2021,22(1):1-17.
[19] Hickok M.Lessons learned from AI ethics principles for future actions [J].AI and Ethics,2021,1(1):41-47.
[20][21][23][48] Tuomi I.A framework for socio-developmental ethics in educational AI [C].Hawaii:University of Hawaii,2023.6208-6217.
[22] Bakiner O.What do academics say about artificial intelligence ethics An overview of the scholarship [J].AI and Ethics,2022,1(1):1-13.
[24] Morley J,Floridi L,et al.From what to how:an initial review of publicly available AI ethics tools,methods and research to translate principles into practices [J].Science and engineering ethics,2020,26(4):2141-2168.
[25] Kempt H,Freyer N,et al.Justice and the Normative Standards of Explainability in Healthcare [J].Philosophy & Technology,2022,35(4):100.
[26] Nguyen A,Ngo H N,et al.Ethical principles for artificial intelligence in education [J].Education and Information Technologies,2022,5(2):1-21.[27] IBM Corporation.Everyday ethics for artificial intelligence [EB/OL]. https://www.ibm.com/watson/advantage-reports/everyday-ethics-forai/,2019-05-07.
[28] Berkman Klein Center for Internet & Society.Principled artificial intelligence:mapping consensus in ethical and rights-based approaches to principles for AI [EB/OL].https://dash.harvard.edu/ handle/1/42160420,2020-01-05.
[29][32] Holmes W,Porayska-Pomsta K.The Ethics of Artificial Intelligence in Education:Practices,Challenges,and Debates [M]. London:Taylor & Francis,2022.
[30] [美]韋恩·霍姆斯,玛雅·比利亚克等.冯建超,舒越译.教育中的人工智能:前景与启示[M].上海:华东师范大学出版社,2021.
[31] Holmes W,Tuomi I.State of the art and practice in AI in education [J]. European Journal of Education,2022,57(4):542-570.
[33] Hwang G J,Xie H,et al.Vision,challenges,roles and research issues of Artificial Intelligence in Education [J].Computers and Education:Artificial Intelligence,2020,1(1):1-5.
[34][50] Mittelstadt B.Principles alone cannot guarantee ethical AI [J]. Nature Machine Intelligence,2019,1(11):501-507.
[35][36][40] Whittlestone J,Nyrup R,et al.The role and limits of principles in AI ethics:towards a focus on tensions [C].New York:ACM,2019.195-200.
[37] Herzog C.On the risk of confusing interpretability with explicability [J]. AI and Ethics,2022,2(1):219-225.
[38] 中共中央办公厅 国务院办公厅.关于加强科技伦理治理的意见[EB/OL].http://www.gov.cn/zhengce/2022-03/20/content_5680105. htm,2022-08-04.
[39] 刘同舫.技术的当代哲学视野[M].北京:人民出版社,2017.44.
[41] Capurro R.Privacy.An intercultural perspective [J].Ethics and information technology,2005,1(7):37-47.
[42] Ess C.Ethical pluralism and global information ethics [J].Ethics and Information Technology,2006,1(8):215-226.
[43] Habermas J.Moral consciousness and communicative action [M]. Cambridge:MIT press,1990.
[44] Arrieta A B,Díaz-Rodríguez N,et al.Explainable Artificial Intelligence (XAI):Concepts,taxonomies,opportunities and challenges toward responsible AI [J].Information fusion,2020,58(1):82-115.
[45] Dwork C.Differential privacy:A survey of results [C].Berlin:Springer,2008. 1-19.
[46] Falco G,Shneiderman B,et al.Governing AI safety through independent audits [J].Nature Machine Intelligence,2021,3(7):566-571.
[47] Blikstein P,Zheng Y,et al.Ceci nest pas une éc ole:Discourses of artificial intelligence in education through the lens of semiotic analytics [J].European Journal of Education,2022,57(4):571-583.
[49] Biesta G J J.Good education in an age of measurement:Ethics,politics, democracy [M].London:Routledge,2015.76.
作者簡介:
白钧溢:在读博士,研究方向为教育哲学。
于伟:教授,博士生导师,东北师范大学附属小学校长,研究方向为教育哲学。
Beyond Consensus: Development Directions for Constructing Ethical Principles of AI in Education
Bai Junyi, Yu Wei
(Faculty of Education, Northeast Normal University, Changchun 130024, Jilin)
Abstract: Influenced by the development plans of various countries on artificial intelligence, research on ethical principles of AI education started later than other areas and shaped its construction orientation with reference to existing “consensus” principles. Currently, researchers are gradually paying attention to reflecting on the “consensus” and exploring the individual elements of the education field, surpassing the “consensus” becoming the development trend for constructing ethical principles in AI education. The fundamental reason that limits the practical effect of ethical principles in AI education is the “non-consensus” element implied by the “consensus”, including historical and cultural differences between countries, structural and directional differences between fields, content and object differences between applications, and conceptual and relational differences within themselves. To surpass the “consensus” means bridging the “non-consensus” elements based on existing research. More directly, it is acknowledging the limitations of ethical principles in AI education, including the limitations in value matching,domain applicability, and guidance timeliness, thus adhering to a local stance, clarifying purpose orientation, and maintaining continuous openness when constructing ethical principles in AI education.
Keywords: AI education; ethical principles; beyond consensus; direction of development
责任编辑:李雅瑄
① 教育人工智能伦理原则在政策文件与学术研究中通常不会以单个原则的形式出现,而是一个包含了多个伦理原则的框架,并冠以“指导方针”“责任”“指南”“行为准则”等名称。
① 教育人工智能(AIED)的双重角色是指既可以通过人工智能技术促进教育发展,也可以通过教育促進人工智能技术及其相关领域的发展,亦即“AI for Education”与“Education for AI”。
① 即使是达成共识的伦理原则,不同群体对其的价值排序也有所不同。例如,“隐私”在崇尚个人主义的地区的重视优先级可能高于崇尚集体主义的地区。
② 欧洲人工智能伦理的语料库包含一套价值观和原则体系,将规范应用于具体案例并转化为符合伦理的行动,即一种将道德理想融入公民和社会现实的机制。参见Dubber M D,Pasquale F,et al.The Oxford Handbook of Ethics of AI[M].Oxford:Oxford University Press,2020.649-666。
① 例如,目前人工智能可能比医生更能准确的诊断医疗状况,但不一定能够提供令人满意的解释。
① 例如,当前对于公平的算法定义至少有21种,且没有一种公平性算法能够同时满足不同的公平性条件。参见Mitchell S,Potash E,et al.Algorithmic fairness:Choices,assumptions,and definitions [J].Annual Review of Statistics and Its Application,2021,8(1):141-163.及Kleinberg J,Mullainathan S,et al.Inherent trade-offs in the fair determination of risk scores [EB/OL].https://arxiv.org/abs/1609.05807,2016-11-17.
② 即教育的目的是为了知识构建、社会化还是自我实现。