人工智能与教育融合创新何以“伦理先行”
2024-12-03谢娟
摘要:通用大模型时代,生成式人工智能的教育应用不断“制造”出多种新型伦理交往和道德生活场景,成为教育人工智能伦理治理的重心。“伦理先行”作为科技伦理治理的第一原则,内蕴了风险前瞻、动机溯源和后果预测的基本要义,不仅为人工智能与教育的融合发展提供了理念指引和目标导向,而且对智能环境下的教育创新起到重要的规范约束作用。因此,人工智能与教育融合创新需要“伦理先行”。这既是“人工智能+教育”的基本伦理诉求,也是教育目标统领技术手段的必然选择,其实现离不开敏捷治理理念、伦理审查方案、伦理教育手段的支撑。具体而言,敏捷治理突出了对人工智能赋能教育创新的快速响应和机智决策等特点,有助于相关政策法规的不断更新与优化;伦理审查重在防控人工智能引发教育伦理风险,为把好教育治理的“方向盘”提供了制度支持;伦理教育通过内化人工智能从业者、教育工作者的责任意识,有助于提升相关主体的智能伦理素养。这三大伦理策略相辅相成,共同构成了以政策引领、制度保障、责任内化为目标,由政府管理部门、学校机构、科研创新主体、相关社会团体等多方共同参与的立体化“伦理先行”实践样态,由此也形成了生成式人工智能教育应用的伦理路径。
关键词:生成式人工智能;人工智能教育应用;教育创新;伦理先行;伦理治理;伦理路径
中图分类号:G434 文献标识码:A 文章编号:1009-5195(2024)06-0011-09 doi10.3969/j.issn.1009-5195.2024.06.002
一、问题提出
2024年3月,“人工智能+”首次被写入国务院《政府工作报告》,为催生新质生产力指明了新路径。人工智能与教育融合创新是智能时代教育发展的新趋势,是“人工智能+”在教育领域的具体表现,其强调将人工智能充分应用于教育活动并与其达成深度融合,旨在创造一种教育与智能技术双向赋能、和谐共生的关系。人工智能与教育融合创新的逻辑起点是“人工智能教育应用”,经由“融合发展”的过程,走向“教育创新”的终点。当前,随着以ChatGPT、Sora为代表的生成式人工智能的迭代发展及广泛应用,人工智能与教育的融合创新取得了显著成果,成为推进教育数字化转型的重要途径。然而,伴随人工智能与教育的融合创新进入“深水区”,诸如应用缺防范、融合不全面、创新难深入、伦理治理滞后、育人功能弱化等现实难题亦不断凸显,因而亟需“伦理先行”进行理念疏引和实践指导。
“伦理先行”是近年来频繁出现于科技治理领域的新概念。2022年,中共中央、国务院印发《关于加强科技伦理治理的意见》,提出了伦理先行等5项基本要求(中华人民共和国中央人民政府,2022)。自此,“伦理先行”不断被用于人工智能治理领域。2023年,为进一步系统阐述人工智能治理的中国方案,中央网信办发布《全球人工智能治理倡议》,明确提出“坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制”(中央网络安全和信息化委员会办公室,2023)。随后,“伦理先行”作为人工智能治理的第一原则,为各领域人工智能应用提供了理念与方向。在教育实践中,“伦理审视”“风险规避”等治理要求通常被用来表征对人工智能教育应用问题的“伦理观照”,但这种风险警觉或伦理反思型的治理方式并不能指向“伦理先行”的核心内涵,也未明确“技术先行”还是“伦理先行”的教育决策依据,更难以解释人工智能与教育融合创新需要遵循的基本伦理原则。为此,本文尝试探求“伦理先行”之于人工智能与教育融合创新的引导作用,以期为应对生成式人工智能教育应用中的伦理危机寻找一条“林中路”。
二、“伦理先行”的研究脉络及其基本要义
在学界,“伦理先行”一词最早出现于医学领域,重在规范医疗卫生系统伦理委员会的职能。从2019年开始,“伦理先行”被科技治理领域频繁使用,诸如科技创新要坚持伦理先行(雷瑞鹏等,2019;金观平,2022)、伦理先行重在关口前移和风险前瞻(杨舒,2022)、伦理先行的目的是为科技创新构建伦理软着陆机制(段伟文,2022)等呼吁不绝于耳。相关研究系统回答了何为“伦理先行”、如何落实“伦理先行”等基本问题。例如,有学者指出,伦理先行中的“先行”是指时间上先行,即预防性地指导科技实践(王小伟,2023);“伦理先行”的动因在于风险决策的失范效应(季卫东等,2023),表现为“伦理”先行于科技治理、科技研发、科技应用、法制规制的各个环节(王常柱等,2023)。还有学者把“伦理先行”解读为技术作为人工制品对人的从属、技术作为工具对使用意图的从属(郦平,2023)。在生成式人工智能治理方面,有观点认为,“伦理先行”就是把伦理道德融入生成式人工智能研发和应用的全生命周期,体现了以人为本的价值内涵,实现了对人的人格尊严的维护(商建刚,2023)。在教育人工智能领域,“伦理先行”的观点较早出现于分析人工智能通用大模型的教育应用问题,特别强调人工智能与教育融合发展要坚持伦理为先的原则(吴砥等,2023)。
国外虽没有与“伦理先行”完全一致的表述,但在伦理治理方面的研究也特别强调伦理优先(Ethical Priority)的重要性,比如,诸多学者讨论了人工智能伦理原则的优先制定(Stix,2021)、人工智能哲学分析中的伦理优先(Zapata,2022)、人工智能的伦理警惕(Paola,2022)、脑机接口的伦理优先性(Cabrera et al.,2023)、人工智能治理伦理原则的优先考虑(Koniakou,2023)等问题。实际上,早在2021年,联合国教科文组织就发布了《人工智能伦理建议书》,提出要以负责任和合乎伦理的方式开展人工智能教育应用实践,充分考虑人工智能对学生和教师的影响,保证做好个人数据保护,体现了伦理优先的意识(UNESCO,2021)。另外,欧盟AI治理模式的突出特征也包括了“伦理优先”(王彦雨等,2024)。
综上所述,已有研究对于理解“伦理先行”的基本内涵、核心要素、实践路径具有重要的启示意义。首先,“伦理先行”表征了两种概念形态。一是理念形态,即把“伦理”理解为一种思维、态度或者观念,突出表现为以人为本、科技向善、合乎道德的价值取向。换言之,“伦理先行”是价值理念的全面贯通,即把伦理观念作为贯穿于科技活动全过程的精神统领,以伦理思维审视科技创新,确保科技向善发展的良好初心。这是“伦理先行”的本质属性。二是过程形态,即把“伦理”作为一种手段或方法,突出表现为规制科技发展方向、前瞻研判伦理风险等方案或措施。换言之,“伦理先行”要求通过评估伦理风险、制定伦理原则、建立伦理规范、形成伦理制度、开展伦理审查、解决伦理难题、实现伦理愿望等一系列操作,形成伦理治理的基本路径。这是“伦理先行”的动力机制。这两种概念形态相互依存、彼此依赖,伦理理念的贯通离不开伦理过程的支撑,而伦理过程的实施更需要伦理理念的引导。它们共同组成“伦理先行”的基本内涵,缺少任何一方,“伦理先行”的涵义都是不全面的。
其次,“伦理先行”包含了两个核心要素:伦理治理的对象(即先行于什么)和伦理治理的目标(即先行去干什么)。“伦理先行”属于伦理治理领域的基本概念。伦理治理的内涵被界定为促使社会全体成员形成遵守规则的“道德意识”或“绝对意志”(王立等,2017)。因而伦理治理就是把伦理原则、道德规范当作手段或工具,对相应问题进行治理。伦理治理的真义体现在特定的问题取向中,只有针对具体问题,它才不会是无对象、无边界的治理(田海平,2017)。可见,伦理治理的对象是各种问题,亦即“伦理”要先行于各种问题。对技术活动而言,“伦理先行”就是在开展技术活动之前,主动通过反思回顾、风险评估、伦理审查等方式,对技术设计、开发、应用、管理等各个环节进行前瞻预判,制订出一套伦理规范体系,把伦理要求贯穿于问题解决的全过程。该过程同时也回答了“伦理先行去干什么”的问题。
最后,“伦理先行”指出了一条伦理分析路径。对新兴技术进行系统而全面的前瞻性伦理分析,其基本路径至少包括以下环节:第一,明确“伦理先行”的前提是常规技术治理方法未能考虑到新技术的特殊性。例如,已有的数字技术治理方案无法观照当前生成式人工智能的产品、用途或影响,因而需要为其另行制定治理办法。第二,预测分析新技术的研发与应用所产生的风险和受益、公平可及、知识产权等伦理问题,进而提出监管方案。第三,提出一套对新兴技术监管的暂行办法,并按照一定程序,在技术专家、伦理学家、法学家、公众代表以及监管人员经过充分交流和讨论后达成一致意见,形成技术共同体的伦理规范。第四,提交暂行办法至相关主管部门,经批准后成为具有强制效力的伦理治理办法,并紧跟技术发展步伐,持续改进和修正,使其逐步完善。
三、人工智能与教育融合创新为何需要“伦 理先行”
人工智能与教育融合创新是借助人工智能大模型实现高质量的教育资源整合、全领域的知识体系覆盖、跨学段的多任务场景交互的系统过程。唯有对该过程进行伦理规约,遵循智能时代科技治理的相关规定,走“伦理先行”之路,才能理性认识人工智能的“双刃剑”效应,合理防范其中的育人风险。
1.“伦理先行”与人工智能教育应用的基本理念相一致
人工智能教育应用是人工智能技术在教育教学领域所有应用活动的总称,需要遵循育人为本的价值理念和增进人类福祉的伦理共识。“伦理先行”意味着教育的伦理性要前置于人工智能的技术应用,从而体现教育目标的“价值性”统领技术应用的“工具性”这一伦理治理的基本原则。
一方面,“伦理先行”与人工智能教育应用的基本目标不谋而合。这是由教育与伦理二者所具有的天然连结性所决定的。教育始终以人的未定性、发展性为基础,在本质上是一种把立德树人作为首要目标的伦理型实践活动,具有培养德性、关涉人之成长的伦理特质。教育目标的“伦理先行”特征一目了然。任何技术应用于教育,都应从属于教育目标,体现“伦理先行”的特点。数字化转型时期,教育虽然面临数智赋能的复杂境遇,但“伦理先行”对教育而言的重要地位从未改变。因此,人工智能与教育融合创新必须秉持“伦理先行”的基本理念,促使人工智能技术应用动机从属于教育目标的伦理要求。换言之,“伦理先行”体现了智能时代教育发展的价值追求,是人工智能对教育目标的基本遵循。2024年世界数字教育大会将“人工智能与数字伦理”作为平行会议议题,体现了“以人为本”“数字向善”的宗旨(中华人民共和国教育部,2024),亦契合了“伦理先行”的基本理念。
另一方面,“伦理先行”与人工智能教育应用的治理逻辑不谋同辞。随着生成式人工智能的广泛应用,智能教学技术给各年龄段学生带来普遍的伦理挑战(Akgun et al.,2022)。例如,聊天机器人等智能应用,由于缺少道德规范的加持,而对人的主体性造成不良影响(Chokri,2023)。当前诸如技术向“善”趋于异化、个体崇“善”走向衰微、社会趋“善”面临溃散等人工智能伦理风险已成为教育治理的焦点(冯永刚等,2023)。而生成虚假教育内容、滥用教育数据、带来教育偏见、泄露师生敏感信息、侵犯知识产权等多重伦理问题不断涌现,亦成为人工智能治理的核心任务。可见,不管是教育治理还是人工智能治理,其重点都是“用而不该”“用而不当”“用而不好”的伦理问题。因此,伦理治理已经成为人工智能教育应用的首要任务,体现了“伦理先行”的基本逻辑。只有按照伦理先行的理念与思路开展教育领域人工智能治理,才能预防人工智能对教育可能产生的不良影响,进而守住人工智能赋能教育发展的安全底线,保障人工智能与教育融合创新的正确方向。
2.“伦理先行”是人工智能与教育融合创新的实践诉求
“伦理先行”是在反思当下社会治理现状的基础上提出的,因而适用于社会治理的各个领域(孙春晨,2023)。教育治理属于社会治理的一部分,必然要遵循社会治理的“伦理先行”原则。而人工智能治理属于科技治理的范畴,也需要遵循科技伦理治理的“伦理先行”基本要求。因此,在人工智能与教育融合创新实践中,伦理既不能游离于教育过程之外而充当“旁观者”,也不能局限于对人工智能应用进行“事后反思”,而是应当融入人工智能教育应用的全过程,彰显“伦理先行”特色。实现“伦理先行”,不仅能在理论层面为人工智能与教育“因何融合”提供合理性阐释,也能从实践层面回应人工智能教育应用的“技术隐忧”,为“如何创新”提供伦理型方案。
首先,在引入、研发或应用一项新的智能教育工具之前,需要先行回答一个关键性的现实问题:人工智能与教育融合创新应该遵循“防范原则”还是“先占原则”?显然,前者体现了“伦理先行”的基本立场,后者突出了“技术优先”的价值取向。事实上,“防范”不是保守,“先占”也非创新。以ChatGPT等大模型聊天应用为例,尽管它并非专为教育而研发和设计,但其在阅读、写作、计算等教学领域的应用已引起广泛关注。有观点指出,人工智能的“拟人化”转移了研发者和使用者的责任,破坏了人类特有的人际信任关系(Ryan,2020);ChatGPT生成的回答容易带偏人的道德判断(Sebastian et al.,2023)。因而,用于教学的ChatGPT必须对学生的主体性发展进行保护(张敬威,2023),在不能促进学生学习的情况下要限制ChatGPT的使用(尚智丛等,2023)。这些前瞻性分析注重人的自由全面发展,强调不应丧失人的价值感和意义感,体现了人工智能与教育融合创新的“伦理先行”原则。因此,立足生成式人工智能的“可能性”,审慎决定教育“应该”怎么办,前瞻预判可能出现的伦理风险,就是在践行“防范”导向的“伦理先行”。
其次,在面对人工智能教育应用引发的伦理难题时,需要先行决定选择何种伦理理论以观照教育现实。这也是“伦理先行”的突出表现,标志着教育人工智能伦理治理从风险呼吁走向了伦理分析与决策。有观点指出,当前人工智能伦理困境主要表现在后果论的效用性降低、义务论的适配性可疑和德性论的养成性困难等方面(崔中良等,2023)。根据伦理学的一般理论,后果论、义务论和德性论能够为分析人工智能与教育融合创新提供伦理思路。其中,后果论偏重人工智能教育应用所产生的结果及社会影响,主张符合伦理的人工智能应用行为能够减少对教育的负面影响;义务论强调人工智能与教育融合创新的动机和意图,重视为不同教育情境下的人工智能应用制定规则;德性论关注人工智能如何成为具有德性的教育智能体等问题,其前提是人工智能具有自主意识。鉴于以上伦理理论的启迪,在解决伦理难题之前,只有综合发挥多种理论的优势,做好前瞻研判,才能将“伦理先行”的基本要求贯穿于智能教育活动的全过程。
最后,在开展人工智能与教育融合创新的实践过程中,需要先行判断技术应用的边界问题,思考人工智能应用是否会引发“违背育人原则”“智能向恶”“触犯法律”“走向犯罪”等严重后果。实际上,“伦理先行”蕴含了对伦理规范和法律规范关系的审视(宋华琳,2023)。一般认为,伦理和法律既有区别又有联系:伦理是内在的自律的规范,既规范行为又约束意识,依靠行为主体的自觉遵守,能够指导并影响法律规范;法律是外在的他律的规范,调整范围仅限于伦理最低层次所规范的行为,以国家强制力为后盾,是伦理实现的保障(刘华,2002)。人工智能以伦理和法律为界已成共识。目前,我国虽然制定了人工智能相关伦理规范,却仍没有专门规制人工智能的法律规范。为判定人工智能与教育融合创新的“伦理”或“法律”界限,需要遵循“伦理先行”原则,在我国《新一代人工智能伦理规范》等政策文件中寻找伦理依据,从散见于《中华人民共和国民法典》《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》《中华人民共和国未成年人保护法》等法律条文或其他规范性文件中获得法律保障。
总之,当人工智能应用的后果难预测性,遇到教育发展的不可逆性,二者的融合创新就需要遵循动机溯源和后果预测的“伦理先行”思路,树立审慎的态度,充分测算人工智能教育应用可能出现的风险,并提前做好预防与化解方案,以避免人工智能生成“可能的假象”或“客观的谬误”。
四、人工智能与教育融合创新如何做到“伦 理先行”
“伦理先行”不是对人工智能教育应用“踩刹车”,而是为人工智能赋能教育创新设定可行性条件,以避免盲目随意的融合和不负责任的创新。当前,科技治理面临法规政策更新缓慢、伦理审查不规范、伦理教育缺位等现实问题(宋应登等,2024),而教育治理也尚未形成统一的人工智能应用伦理规范(周洪宇等,2023),以致人工智能与教育融合创新缺少伦理路径。从《关于加强科技伦理治理的意见》中可知,敏捷治理、伦理审查、伦理教育是伦理治理的核心内容和重要抓手。其中,敏捷治理为制定伦理政策与制度提供方法,是推进“伦理先行”的理念引导;伦理审查积极回应敏捷治理的基本要求,是落实“伦理先行”的具体方案;伦理教育重在明确行为主体的责任担当,是实现“伦理先行”的重要保障。因此,人工智能与教育融合创新要实现“伦理先行”,离不开政策引导、制度保障和责任内化等策略支撑。
1.敏捷治理:“伦理先行”的政策引导
“敏捷治理”作为一种快速适应情境变化的动态治理范式,旨在弥合数字技术快速迭代发展与传统政策制定的滞后性之间的矛盾(张凌寒等,2023)。从相关政策文本中可知,敏捷治理就是通过伦理风险预警和跟踪研判,及时动态调整治理方式和伦理规范,进行分类分级管理和快速有效响应,从而灵活应对伦理挑战。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,其中提出的人工智能发展相关各方应遵循的八大原则就包括“敏捷治理”(中华人民共和国科学技术部,2019)。2021年,科技部发布《新一代人工智能伦理规范》,在管理规范部分明确指出了“推动敏捷治理”的要求(中华人民共和国科学技术部,2021)。2022年,《关于加强科技伦理治理的意见》亦明确指出要“敏捷治理”(中华人民共和国中央人民政府,2022)。2023年,中央网信办发布的《全球人工智能治理倡议》亦包括了“敏捷治理”的内容(中央网络安全和信息化委员会办公室,2023)。可见,我国在人工智能伦理治理方面不断强调“敏捷治理”的重要作用。面对传统“应对型”治理模式已无法对科技伦理风险进行源头治理和灵活管控的问题(杨博文等,2023),敏捷治理凭借其快捷感知、快速响应等特点,为落实“伦理先行”提供了制度安排(张春美,2022)。面对人工智能的不确定性、复杂性和快速发展性,原有的人工智能教育应用相关政策不可避免会出现不完全适应的情况,因而需要及时优化和动态调整。具体而言,对教育领域人工智能进行敏捷治理,就是要求教育主管部门等治理主体敏锐地感知人工智能与教育融合创新在动机、过程、结果等环节可能遭遇的商业利益驱动、学生数据泄露、发展预测性干扰、知识产权争议等伦理风险,并快速做出前瞻分析、跟踪研判和升级管理等行动响应,同时灵活进行政策反馈和监管决策,并通过建立多方制衡机制、制定和更新监管政策,以减少政策制定与教育需求的错位,从而快速应对人工智能发展所引发的“政策衰退”问题。
当前,生成式人工智能对教育产生了前所未有的影响,亟须采取“敏捷治理”应对之。有学者主张,ChatGPT等生成式人工智能的应用引发了跨越社会正义、个人自主、文化认同和环境等重大伦理问题,需要不同利益攸关方共同参与规范制定,并在研制过程中全面考虑收益和风险,促进多层次的政策干预(Bernd et al.,2024)。还有观点认为,生成式人工智能的敏捷治理就是将原则和政策相结合,按照“急用先立、成熟先立”的原则,保证在解决问题的同时不破坏潜在的创新(陈万球,2023)。因此,为人工智能与教育融合创新开展敏捷治理,需要避免“一刀切”的处理方式,遵循包容审慎、鼓励创新的监管理念,创设事前预防与事后应对相结合的适应性治理机制。有研究者设计了教育人工智能伦理敏捷治理模型,主要包括伦理风险分析、治理目标设定、治理规则设计、治理过程实施、治理结果评价等5个步骤(王佑镁等,2023)。实际上,“伦理先行”本身就内蕴了新技术治理政策的制定过程:明确伦理前提、开展前瞻分析、提出暂行办法、持续修正完善。这正是敏捷治理的基本思路,体现了政府、学校、企业、学界等社会各领域通力合作以应对伦理风险的特点。例如,为应对生成式人工智能技术应用带来的挑战,教育主管部门应及时协同政府、学校、企业、社会组织、家长等各方,参照《新一代人工智能伦理规范》《个人信息保护法》等的相关规定,不断完善教育相关法律法规,建立人工智能教育应用规范,制定学生和教师的数据保护机制等,以实现风险防范与政策更新相统一的治理目标。
总之,敏捷治理呈现了一种政策制定与更新的程序,有助于教育领域人工智能相关政策法规的不断形成与优化,为人工智能与教育融合创新实现“伦理先行”提供了政策引导,促使人工智能教育应用朝向以人为本、向善而行的发展目标不断前行。
2.伦理审查:“伦理先行”的制度保障
为预防伦理风险的发生,在事前对人工智能与教育融合创新进行伦理审查尤为重要。所谓伦理审查,是指在科技创新方案运行之前,伦理委员会在通用伦理准则范围内,核查创新方案是否合乎伦理规范,并做出批准、修改、暂停以及不批准等决定,以达到保护相关人群安全、健康和权益的目的(张春美,2021)。伦理审查是伦理治理的重要手段,是“伦理先行”的制度保障。为规范科技伦理审查工作,2023年10月,科技部等十部门联合印发《科技伦理审查办法(试行)》,详细规定了包括“涉及以人为研究参与者的科技活动”在内的四类科技活动伦理审查的基本办法(中华人民共和国科学技术部等,2023),为人工智能及其教育应用的伦理审查提供了方法指导。
对人工智能与教育融合创新进行伦理审查,就是由相关伦理委员会审查智能教育创新方案,客观评估和审慎对待人工智能之于教育的不确定性和应用风险,尽早发现违背伦理道德的应用动机,及时阻止或纠正不合乎伦理的计划内容,同时增强教育工作者的人工智能伦理意识,理清人工智能应用自由与法律道德禁区之间的界限,从而实现人工智能赋能教育创新与应用风险防范相统一,达到“伦理先行”的目的。例如,有学校计划引进使用某智能教学工具,经相关伦理委员会审查后,发现该智能工具在算法设计、知识库建设、数据处理等方面具有缺陷,存在输出的答案不准确、不符合社会主义核心价值观、表露出性别歧视或民族歧视等问题,不宜应用于教育教学领域,因而做出不批准的决定。
一般而言,伦理审查主要包括建设伦理审查主体和确定伦理审查方式两个过程。首先,伦理审查的核心主体是伦理(审查)委员会。高校、科研机构、企业等作为《科技伦理审查办法(试行)》规定的伦理审查的主要责任主体,应当及时设立教育人工智能伦理(审查)委员会,以落实“探索建立专业性、区域性科技伦理审查中心”的要求。教育人工智能伦理(审查)委员会的主要职责、工作章程、人员构成、基本要求等具体内容,可遵循《科技伦理审查办法(试行)》的指导,根据人工智能教育应用的特点,按照专业化伦理委员会建设程序逐步进行设计。同时,在建设过程中要考虑在不同伦理审查办法以及伦理委员会之间建立衔接和协同机制(段伟文,2024)。其次,伦理审查的具体方式由伦理(审查)委员会商议制定。伦理审查主要针对风险受益、知情同意、保护脆弱人群权益等内容进行,分为初始审查和跟踪审查两类。其中,前者面向的是初次参与审查的科技活动,后者是对审查批准的科技活动进行跟踪监督。根据程序的不同,伦理审查主要包括免除审查、加快审查和会议审查三种形式。不会带来任何伦理风险挑战的人工智能应用活动,属于免除审查的范围;加快审查又称“简易程序审查”,主要是针对伦理风险发生的可能性和程度不高于最低风险的人工智能应用活动;会议审查也称“完全审查”,是适用性最为广泛的一种审查方式,一般需要通过召开由审查委员会成员出席的评审会议来开展审查。
另外,《科技伦理审查办法(试行)》还规定,经过初始审查后,对可能产生较大伦理风险的新兴科技活动需要开展专家复核。这项规定应当成为教育人工智能伦理审查的重要内容。对人工智能与教育融合创新而言,如果人工智能存在引发较大伦理风险的可能性,比如,涉及对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发,或具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发,或面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发等,都需要开展专家复核。不仅如此,伦理审查还应建立应急审查制度,这在很大程度上回应了“敏捷治理”原则。总之,伦理审查为人工智能与教育融合创新作出“正确”或“最优”的决策提供了有效的制度支持,有助于把好“伦理先行”的“方向盘”。
3.伦理教育:“伦理先行”的责任内化
人工智能的研发与应用过程包含了影响价值主体进行价值判断和价值选择的因素,因而需要对相关从业人员开展伦理教育。近年来,随着生成式人工智能等新兴科技的不断发展,“重视科技伦理教育”已成社会共识。新时代的科技伦理教育必须破除技术价值中立论,培养学生的“伦理先行”意识(刘鹏,2022)。可见,科技伦理教育承载了规范科技行为、构建科技社会良好伦理秩序的重任,是实现“伦理先行”的重要途径。
作为科技伦理教育的重要组成部分,人工智能伦理教育就是为人工智能相关从业者提供伦理指导,以确保人工智能技术从生产到使用的全过程都符合道德标准和社会正义原则(白钧溢等,2024)。人工智能伦理教育秉持价值塑造、知识传授与能力培养的教育理念和全面发展的教育目标,引导学生形成创新应用的勇气和坚守伦理底线的良知,通过传授价值立场、思想观点与实践方法等伦理知识,提升对伦理问题的识别、应对和决策能力(王硕等,2023)。一般而言,人工智能伦理教育可以通过伦理知识普及、咨询宣传和教育培训等形式开展,教育内容主要包括三个方面:一是责任感教育,即通过道德两难、价值澄清等德育方式,宣传正确的人工智能伦理观念,提高人们应对伦理风险的敏感性,增强人工智能场景下的伦理防护意识,强化数智社会责任感。二是规范性教育,即通过宣讲规范伦理、责任伦理等基本理论和以人为本、智能向善等基本原则,引导人们理解人工智能伦理的知识体系,掌握人工智能相关从业者需要具备的职业道德和伦理职责。三是方法论教育,即通过对人工智能应用案例进行哲理论证,促使人们形成伦理问题意识,习得应对人工智能伦理挑战的过程与方法,提高道德推理、伦理反思和伦理决策能力。
人工智能伦理教育主要有学校和企业两个场域。在学校,人工智能伦理教育逐渐被视为德育体系的重要组成部分,一般通过嵌入专业课程或独立开设专门课程的方式,面向人工智能、计算机、自动化等与人工智能密切相关的理工类专业开展教学,同时为伦理学、法学、教育学、社会学等人文社科类专业提供人工智能通识课,形成人工智能伦理学习的氛围,并采用案例分析、情景模拟、伦理辩论等互动型教学方法,提升学生对人工智能的道德判断能力和伦理决策能力。在企业,人工智能伦理培训作为落实科技管理主体责任的必要环节,主要通过开展入职培训和日常伦理宣传等方式持续推进,不仅指导从业人员加强人工智能伦理自律,同时引导人工智能行业和典型应用领域形成伦理实践指南,并将相关伦理经验向产业链上下游企业进行分享,从而提升行业的伦理管理能力。另外,企业也有责任通过人工智能产品或服务等方式,引导社会公众认识人工智能伦理风险,倡导负责任地使用人工智能。
事实上,从实施现状来看,目前我国人工智能伦理教育发展较缓,与国家人工智能快速发展的战略和形势难以相衬(任安波等,2020)。一方面,人工智能伦理教育力度不够,主要体现在课程建设上。有调查发现,目前国内高校开设的与人工智能伦理相关的课程非常欠缺(古天龙,2022)。因此,高校应本着“急用先建”的原则,抓紧建设人工智能等重点领域的科技伦理课程,让立德树人、科技向善成为教育未来发展的亮色(杨斌,2022)。另一方面,人工智能伦理培训机制尚不成熟。尤其针对人工智能从业人员、人工智能伦理(审查)委员会成员的专业伦理培训机制尚未建立,这严重阻碍了伦理治理的进度和效率。因此,高校、科研机构、人工智能相关企业等责任主体应携手合作,组建人工智能教育与培训共同体,积极面向学校和社会开展伦理宣传与科普教育,担负起人工智能伦理教育与培训的职责。
综上可知,人工智能伦理教育是推进人工智能治理之“伦理先行”的内在要求,也是开展人工智能与教育融合创新的德育基础,有助于增强相关主体的责任意识和责任认知,为实现负责任的教育创新提供伦理策略。它与敏捷治理、伦理审查相辅相成,共同构成了“伦理先行”的实践路径。
五、研究总结
传统的信息技术一般在应用阶段才会产生伦理问题,而以通用大模型为代表的新一代人工智能技术则在研发和应用之初就会产生系列伦理问题,体现出明显的伦理始涉性。目前,生成式人工智能尚未深度融入教育教学过程,但教育通用大模型已然来临,其必将冲击或重构现有的教育教学秩序和教育资源布局,引发更为复杂的伦理风险。要治理这些风险,必须坚持“伦理先行”的基本原则,做到“防范”与“拥护”相统一,准确评估生成式人工智能对教育的影响,尽早设计敏捷治Uxe2mQtf3sEOhUqkuuWfdA==理、伦理审查、伦理教育等伦理策略,提前做好通用人工智能融入教育的准备。需要警惕的是,不能把相对宽松的政策视为创新的“伦理优势”,而应当为人工智能应用探求一种将伦理价值融入到技术应用之中的复合模式,实现伦理与创新的协同推进(段伟文,2020)。
总之,实现人工智能与教育融合创新之“伦理先行”的过程,本身就预设了生成式人工智能教育应用的伦理路径。如果缺乏“伦理先行”的辩护和论证,就难以保证智能时代教育目标的纯粹性,也无法制定出教育人工智能健康发展的合理性伦理规范,更不可能对人工智能赋能教育创新进行有效的监管。唯有做到“伦理先行”,打破“先融合再审视”“干了再说”的原有思路,才能建设出更有针对性的教育人工智能伦理规范体系,从而走出一条“负责任创新”的教育道路。
参考文献:
[1]白钧溢,于伟(2024).教育人工智能伦理原则的有限性及其补正——兼论“原则—美德—法律”框架[J].中国电化教育,(2):23-31.
[2]陈万球(2023).中国生成式人工智能顶层设计的伦理视界[J].伦理学研究,(5):100-107.
[3]崔中良,卢艺(2023).国外学者关于人工智能伦理问题研究述评[J].国外理论动态,(2):160-168.
[4]段伟文(2020).信息文明的伦理基础[M].上海:上海人民出版社:256.
[5]段伟文(2022).科技伦理治理,如何伦理先行?[J].中国医学伦理学,35(5):483-488.
[6]段伟文(2024).前沿科技的深层次伦理风险及其应对[J].人民论坛·学术前沿,(1):84-93.
[7]冯永刚,屈玲(2023).ChatGPT运用于教育的伦理风险及其防控[J].内蒙古社会科学,44(4):34-42,213.
[8]古天龙(2022).人工智能伦理及其课程教学[J].中国大学教学,(11):35-40.
[9]季卫东,赵泽睿(2023).人工智能伦理的程序保障——法律与代码的双重正当化机制设计[J].数字法治,(1):57-76.
[10]金观平(2022).科技要创新 伦理须先行[N].经济日报,2022-03-26(001).
[11]雷瑞鹏,邱仁宗(2019).新兴技术中的伦理和监管问题[J].山东科技大学学报(社会科学版),21(4):1-11.
[12]郦平(2023).技术发展何以伦理先行——从第二开端共哲学视角看[J].自然辩证法研究,39(9):134-139.
[13]刘华(2002).法律与伦理的关系新论[J].政治与法律,(3):2-6.
[14]刘鹏(2022).新时代科技伦理教育的理念与实践路径[J].社会科学家,(11):15-20.
[15]任安波,叶斌(2020).我国人工智能伦理教育的缺失及对策[J].科学与社会,10(3):14-21.
[16]商建刚(2023).生成式人工智能风险治理元规则研究[J].东方法学,(3):4-17.
[17]尚智丛,闫禹宏(2023).ChatGPT教育应用及其带来的变革与伦理挑战[J].东北师大学报(哲学社会科学版),(5):44-54.
[18]宋华琳(2023).法治视野下的人工智能伦理规范建构[J].数字法治,(6):1-9.
[19]宋应登,霍竹,邓益志(2024).中国科技伦理治理的问题挑战及对策建议[J].科学学研究,42(8):1569-1576,1595.
[20]孙春晨(2023).应用伦理为社会治理提供实践智慧[J].哲学动态,(9):5-11,126-127.
[21]田海平(2017).伦理治理何以可能——治理什么与如何治理[J].哲学动态,(12):5-14.
[22]王常柱,马佰莲(2023).“伦理先行”的本质内涵、现实根源及实施逻辑[J].伦理学研究,(5):108-114.
[23]王立,胡平(2017).新时期下的伦理治理理念、内涵及路径分析[J].社会科学研究,(6):118-123.
[24]王硕,李正风(2023).科技伦理教育体系的系统发展观——基于“六边形教育模型”的探索[J].科学学研究,41(11):1921-1927.
[25]王小伟(2023).道德物化哲学的当代科技伦理启示[J].道德与文明,(3):46-54.
[26]王彦雨,李正风,高芳(2024).欧美人工智能治理模式比较研究[J].科学学研究,42(3):460-468,491.
[27]王佑镁,王旦,梁炜怡等(2023).敏捷治理:教育人工智能伦理治理新模式[J].电化教育研究,44(7):21-28.
[28]吴砥,李环,陈旭(2023).人工智能通用大模型教育应用影响探析[J].开放教育研究,29(2):19-25,45.
[29]杨斌(2022).加快推进高校科技伦理教育[N].光明日报,2022-05-10(013).
[30]杨博文,孙永军(2023).理性赋能与向善赋权:科技伦理风险预警与敏捷治理体系的建构进路[J].科学技术哲学研究,40(4):122-128.
[31]杨舒(2022).科技向善,伦理先行[N].光明日报,2022-03-24(016).
[32]张春美(2021).负责任研究创新的生成逻辑及其实践[J].上海师范大学学报(哲学社会科学版),50(3):35-43.
[33]张春美(2022).让创新更有温度,加强科技伦理治理正当其时[N].文汇报,2022-03-27(008).
[34]张敬威(2023).ChatGPT的教育审思:他异关系技术的教育挑战及应用伦理限度[J].电化教育研究,44(9):5-11,25.
[35]张凌寒,于琳(2023).从传统治理到敏捷治理:生成式人工智能的治理范式革新[J].电子政务,(9):2-13.
[36]中华人民共和国教育部(2024).2024年世界数字教育大会“人工智能与数字伦理”平行会议举行[EB/OL]. [2024-04-01].http://www.moe.gov.cn/jyb_xwfb/xw_zt/moe_357/2024/2024_zt02/pxhy/pxhy_znll/pxhy_znll_mtbd/202402/t2024
0201_1113906.html.
[37]中华人民共和国科学技术部(2019).发展负责任的人工智能:新一代人工智能治理原则发布[EB/OL].[2023-06-17].https://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.
[38]中华人民共和国科学技术部(2021).《新一代人工智能伦理规范》发布[EB/OL].[2021-09-26].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[39]中华人民共和国科学技术部等(2023).关于印发《科技伦理审查办法(试行)》的通知[EB/OL].[2024-04-01].https://www.most.gov.cn/xxgk/xinxifenlei/fdzdgknr/fgzc/gfxwj/gfxwj2023/
202310/t20231008_188309.html.
[40]中华人民共和国中央人民政府(2022).中共中央办公厅 国务院办公厅印发《关于加强科技伦理治理的意见》[EB/OL].[2024-04-01].https://www.gov.cn/zhengce/2022-03/20/content_5680105.htm.
[41]中央网络安全和信息化委员会办公室(2023).全球人工智能治理倡议[EB/OL].[2023-10-18].http://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm.
[42]周洪宇,李宇阳(2023).生成式人工智能技术ChatGPT与教育治理现代化——兼论数字化时代的教育治理转型[J].华东师范大学学报(教育科学版),41(7):36-46.
[43]Akgun, S., & Greenhow, C. (2022). Artificial Intelligence in Education: Addressing Ethical Challenges in K-12 Settings[J]. AI and Ethics, 2:431-440.
[44]Bernd, C. S., & Damian, E. (2024). The Ethics of ChatGPT - Exploring the Ethical Issues of an Emerging Technology[J]. International Journal of Information Management, 74(2):1-14.
[45]Cabrera, L. Y., & Weber, D. J. (2023). Rethinking the Ethical Priorities for Brain-Computer Interfaces[J]. Nature Electronics, 6(2):99-101.
[46]Chokri, K. (2023). Chatbots in Education and Research: A Critical Examination of Ethical Implications and Solutions[J]. Sustainability, 15(7):5614. DOI:10.3390/su15075614.
[47]Koniakou, V. (2023). From the “Rush to Ethics” to the “Race for Governance” in Artificial Intelligence[J]. Information Systems Frontiers, 25(2):71-102.
[48]Paola, R. (2022). Ethics for the Majority World: AI and the Question of Violence at Scale[J]. Media, Culture & Society, 44(4):726-745.
[49]Ryan, M. (2020). In AI We Trust: Ethics, Artificial Intelligence, and Reliability[J]. Science and Engineering Ethics,26(5):2749-2767.
[50]Sebastian, K., Andreas, O., & Matthias, U. (2023). ChatGPT’s Inconsistent Moral Advice Influences Users’Judgment[J]. Scientific Reports,13(6):1-5.
[51]Stix, C. (2021). Actionable Principles for Artificial Intelligence Policy: Three Pathways[J]. Science and Engineering Ethics, 27:1-17.
[52]UNESCO (2021). Draft Text of the UNESCO Recommendation on the Ethics of Artificial Intelligence[EB/OL].[2021-06-25]. https://unesdoc.unesco.org/ark:/48223/pf0000378426?posInSet=1&queryId=7c60380f-8115-4d66-b96c-e62a07c639ee.
[53]Zapata, F. A. (2022). Cognitive Priority Over Ethical Priority in Artificial Intelligence: The Primordial Philosophical Analysis in Artificial Intelligence[J]. Philosophy International Journal, 5(4):1-10.
Why the Priority of Ethics Is Emphasized in the Integration and Innovation of Artificial
Abstract:In the era of general large model, the application of generative artificial intelligence in education has continuously created a variety of new ethical communication and moral life scenes, which has become the focus of ethical governance of artificial intelligence in education. Priority of ethics is the first principle of ethical governance, which embodies the basic contents including risk foresight, motivation traceability and consequence prediction. This principle can not only provide conceptual guidance and goal orientation for the integration and innovation of artificial intelligence and education, but also play an important role in regulating and restraining the practice of educational innovation in intelligent environment. Therefore, priority of ethics is the indispensable principle for the integration and innovation of artificial intelligence and education, which is not only the basic ethical demand of artificial intelligence plus education, but also the inevitable choice for educational goals to dominate technical means. To achieve this ethical goal is inseparable from the support of agile governance concept, ethical review scheme and ethical education means. In detail, agile governance highlights the characteristics of rapid response and intelligent decision making in empowering educational innovation with artificial intelligence, which helps to continuously update and optimize relevant policies and regulations. Ethical review focuses on preventing and controlling educational ethical risks caused by artificial intelligence, providing institutional support for the direction of good educational governance. Ethical education for the practitioners and educators in the field of artificial intelligence can enhance the ethical literacy by internalizing the sense of responsibility. The three ethical strategies complement each other and form an ethical practice pattern involving multiple parties such as government management departments, school institutions, subjects of scientific research and innovation and relevant social groups, guided by policies, guaranteed by institutions, and internalized with responsibilities. This process also leads to an ethical path for the application of generative artificial intelligence in education.
Keywords: Generative Artificial Intelligence; Application of Artificial Intelligence in Education; Educational Innovation; Priority of Ethics; Ethical Governance; Ethical Path