人工智能教育应用的伦理困境与规避路径
2023-09-15许向东
许向东
(扬州大学 新闻与传媒学院,江苏 扬州 225009)
0 引言
人工智能技术在教育行业中的应用场景十分广泛,可为个性化学习、自适应评估、智能辅导和虚拟现实教学等提供技术支撑[1]。学生可以采取个性化、交互式的高效学习方式,教师可获得准确、实时和科学的学生教学和管理支持。诚然,人工智能技术为教育领域带来了积极影响,但也引发了新的伦理危机,如削弱教师地位、侵犯学生自由、加深教育不公等,对教育正向价值的压制、对教育育人价值的僭越、教育对人工智能的依附等问题愈发凸显[2]。
近年来,生成式人工智能以势不可挡的姿态进入大众生活,其对教育领域也产生了深刻影响。据调查显示,89%的美国大学生使用ChatGPT 完成作业,53%的学生用其写论文,48%的学生使用其完成测试,有些人还获得了极高分数,除非极其专业的检测,一般教师无法察觉学生是否使用过ChatGPT,这种现象引发了学术诚信危机[3]。科学技术是把双刃剑,在为教育领域带来巨大发展可能性的同时又需要在依托现实的伦理困境中进行超越现实的审视,这种审视对于教育主管部门建立合理的人工智能教育应用伦理制度和法律法规至关重要。因此,本文对人工智能技术应用于教育领域存在的伦理问题进行深入剖析,并提出针对性规避路径,助力人工智能技术在教育领域的合理化应用。
1 综合视域下人工智能教育应用的伦理问题
在综合视角下,人工智能教育应用的伦理问题涉及政策视域、学术视域和现实视域3 个方面。从政策视域来看,虽然已有一些政策文件对人工智能教育应用的伦理问题进行了讨论,如《北京共识》和《人工智能与教育制定者指南》,但大多数文件仍停留在框架层面,缺乏具体措施;学术视域下的研究思考了如何划分人工智能教育应用的伦理问题,并关注教师取代、隐私泄露、算法偏见等具体问题;现实视域下的研究敦促政策制定者与相关研究者给予的指导意见不能脱离现实,需具备实践价值。
1.1 政策视域
Holmes 等[4]悲观地认为世界各地几乎没有开展任何研究,没有商定任何准则,没有制定任何政策,也没有颁布任何法规来解决人工智能在教育领域的应用所带来的具体伦理问题。值得庆幸的是,政策制定者们已经认识到这些问题的严峻性,在人工智能应用于教育行业已经产生以及可能产生的伦理问题上进行了广泛讨论。例如,《北京共识——人工智能与教育》[5]文件中提出有关人工智能教育应用的伦理问题,包括人工智能应用程序偏见、数据获取与数据隐私保护、人权与性别平等、数字鸿沟导致的教育不公和包容性问题。为解决以上问题,该共识指出应促进人工智能教育应用的公平性与包容性,应用人工智能促进性别平等,确保教育数据和算法使用合乎伦理、透明且可审核;《人工智能与教育:政策制定者指南》[6]是基于《北京共识》提出的具体思考,其指出要以合乎伦理、包容和公平的方式将人工智能用于教育领域,表达了对数据所有权、知情同意权、隐私权和人权方面的担忧,同时提出6 个伦理问题;国务院发布的《新一代人工智能发展规划》[7]明确提出到2025 年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;教育部印发的《教育信息化2.0 行动计划》[8]提出网络扶智工程攻坚行动,旨在实现“互联网+”条件下的区域教育资源均衡配置,缩小区域、城乡、校际差距,缓解教育数字鸿沟问题,实现公平而有质量的教育。
总体来说,目前大多数政策性文件仅对人工智能教育应用伦理问题的解决方案进行了框架设计,多关注宏观层面的大问题。少数文件虽然关注到了具体的伦理问题,但也只分析了其潜在影响,未能给出相应的规避路径。
1.2 学术视域
学术界从不同角度探讨了人工智能教育应用的伦理问题。例如,邓国民等[9]从角色层面、技术层面和社会层面对人工智能教育应用的伦理问题进行了思考,其中角色层面根据利益关系划分为系统创建者、教师、学生和监测员,分别阐述了其存在的伦理问题和应承担的伦理责任;技术层面提出了自动化决策伦理问责、算法伦理和数据伦理等技术伦理问题;社会层面提出了人工智能可能会转变就业市场、改变人际关系和引发新的社会不公平等伦理问题;吴河江等[10]认为人工智能带来的教育伦理风险可分为两类:一是一般性伦理风险,即所有人工智能应用都要面对的伦理风险,主要为数据伦理与算法伦理风险;二是特殊性伦理风险,即人工智能在教育领域面对的特有伦理风险,主要为教师职业道德与角色扮演、智能化师生间伦理关系等。文献[9]的分层方法体现了递进关系,但未强调因果关系;文献[10]的分类方法体现了并列关系,但未考虑两者的交集。
在人机共存的智能时代,智能技术帮助教师承担的工作越来越多也越来越核心[11],关于人类教师是否会被取代一直是人工智能教育领域的热点话题。对此,刘云杉[12]认为教学是一种生成性活动,不可能完全被预设,教师具备的教学机智与教学艺术才是教学的魅力所在,而这是人工智能技术尚不具备的。
1.3 现实视域
随着ChatGPT 应用场景的不断拓展,虚假知识泛滥、技术异化风险和学术不端行为等问题愈发凸显暴露。首先,因语料库不同,学生使用中文进行提问获得的回答准确率偏低,ChatGPT 可能会编造虚假的内容,这会对那些辨别能力不足的学生造成认知干扰;其次,一个好的论文通常代表作者进行了大量研究,具备优秀的学术素养,但ChatGPT 使论文写作难度大大降低,使论文学术水平与作者学术素养不匹配;最后,ChatGPT 助长了学术不端风气,学生使用它写作业、写毕业论文和写代码等,无需进行独立思考。为抵制AI 生成文本滥用行为,普林斯顿大学开发了GPTZero 软件以确定文本是否由ChatGPT 创作。
除了ChatGPT,还有一项应用的出现引发了诸多争议。浙江一小学引进了一款监控头环[13],用于监测学生是否处于注意力集中状态,并能实时打分上传至教师的电脑中。大众对该头环提出很多质疑:孩子的隐私能否得到保障?头环收集的数据能否真正反映孩子的注意力情况?佩戴头环导致的人格压抑与心理障碍如何解决?如果孩子将注意力的提高归功于头环,长此以往师生关系是否会割裂?目前,教育部门已经责令学校暂停使用该头环。
除了上述两种典型代表,现实中还有大量人工智能教育应用存在潜在的伦理风险。因此,学校、教育机构和科技公司在使用或开发智能教育应用时应进行全面的伦理风险评估,以人为本地实现教育质量提高。而教育监管部门不能放松警惕,将新的智能技术设备引入课堂教学时应有明确的规范,且应为“人工智能+教育”制定应有的操作底线。
2 人工智能教育应用的伦理困境
人工智能教育应用伦理问题的准确界定是对其进行正确研究的前提。当前学术界具有明显的泛伦理化研究特征[14],即将一些技术本身和人本身的问题归纳到伦理问题范畴,如有人认为部分教师学习人工智能技术困难、人工智能技术发展过快等是伦理问题。笔者认为人工智能应用于教育中所引发的问题必须具备伦理性才能被称为伦理问题,即强调技术应用过程中对人的影响。
2.1 算法桎梏与数字鸿沟
算法桎梏主要体现在以下两个方面:①算法黑箱。深度学习是人工智能算法的核心,其通过建立多层次神经网络处理和分析数据。尽管深度学习在教育领域取得了令人瞩目的成果,但人类目前仍无法完全理解其在分析教育数据时采用的逻辑,即算法黑箱。算法的准确性、有效性无从考究,根据算法评估学生的知识基础、学习效率等指标的公平性值得商榷;②算法偏见。人工智能本身不存在偏见问题,但开发者设计的算法和使用的数据存在偏见问题。人被量化、标签化的现象普遍存在,用数据描述人的特性、用算法评价学习结果有将教育标准片面化、教育过程流水线化的嫌疑[15]。学生的个性发展具有独特性和创造性,情绪具有不稳定性,如何设计算法才能准确全面地反映其综合情况将是人工智能技术应用于教育领域的一大难题。
数字鸿沟一方面表现为发达地区与贫困地区教育资源不均衡。近年来较为热门的双师课堂教学模式原本意在促进教育公平,使师资力量薄弱的地区获得优质教师资源,但本地教师缺乏信息化教学经验,无法有效提升信息化教学水平,反而会使课堂教学质量和效率下降[16],因此对于人工智能教学设施普及率不高和人工智能技术人才稀缺的贫困地区而言,反倒是加剧了教育不公;另一方面表现为人工智能技术对少数群体和弱势群体的包容性问题。面向残疾人和老年人的人工智能教育应用匮乏是世界范围内一直存在的现实困境。
2.2 数据所有权归属隐患
ChatGPT 可以帮助学生完成课程资源搜索、论文大纲生成和家庭作业等,然而部分学生无法明确数据使用边界,将论文或科研数据上传至ChatGPT 数据库中[17],极易导致数据泄露,引发知识产权纠纷。在未获得许可或授权的情况下,用户数据信息被过度采集和二次开发利用是 严重侵犯隐私权的行为[18]。例如,2022 年超星学习通被爆出数据库信息泄露,其中包含学校/组织名、姓名、手机号、学号/工号、性别、邮箱、密码等用户个人隐私,泄露数据高达1.727 3 亿条,且这些数据在境外平台被公开售卖。虽然超星学习通官方紧急辟谣,否认用户信息被泄露,但大量用户表示收到大量骚扰电话和境外诈骗电话,对方甚至能准确报出自己的姓名和身份证号,此事引发了网民对于教育数据泄露的深刻担忧。事实上,自2019 年12 月起工信部便开始发布《关于侵害用户权益行为的 APP 通报》,其中违规收集或使用个人信息、欺骗误导强迫用户、强制频繁过度索取权限成为教育类 APP 中出现频率最高的问题[19]。即使是敏感性低的数据,当其关联起来时也能产生一组具有高度意义的数据链,这种现象称为身份重新标识[20]。教育数据所有权归属不当将会直接导致数据安全问题,如果别有用心的人获取到这些数据并加以分析,很容易就能人肉到数据生产者的各种信息,由此引发的连锁效应将是难以预估的。
2.3 人机—人人交互的情感危机
教育是一种知识传递活动,也是一种情感实践活动。当人工智能技术应用于教育时,其是否应该拥有情感识别和情感表达功能(自我意识)以满足教师或学生的情感需求这一议题值得深入探讨。在未来,人工智能技术可能会赋予机器人情感功能,它们的角色可能是家人、老师、宠物和伴侣等,人们无需通过社交即可获得情绪价值,这将会导致人与机器之间的情感链接增强,而人与人之间的情感链接削弱。同样的,人工智能技术应用于教育领域时可能会造成情感遮蔽现象,即教师和学生的情绪、感受被技术屏蔽[2]。课堂教学活动是师生情感交互的重要环节,一旦这种交互被人工智能技术阻断,教育的人文关怀与情感传递将无法得到充分体现。
3 伦理困境根源剖析
3.1 工具理性僭越
技术异化是对育人观的颠覆。教学过程中如果教师和学生过于依赖人工智能技术,使其地位从辅助教学转变为主导教学,将会导致教育目标偏移。我国一直倡导主导与主体相结合的课堂教学结构,人工智能技术的盲目应用将会解构这种课堂教学结构。德国哲学家马克斯韦伯认为价值理性与工具理性是人类行为不可分割的两个方面,二者在本质上是合一的,价值理性解决主体做什么的问题,而工具理性解决如何做的问题[21]。人工智能教育应用长期以来存在着工具理性僭越价值理性的诟病,表面上其是教育教学的辅助工具,但实际上教育行业却对其盲目崇拜,一味追寻工具的高效使用,从而忽略了使用者身心的全面发展,直接导致人机—人人交互的情感危机。
3.2 职业素养失守
此处主要针对应用开发者,因为他们在开发和维护人工智能教育应用方面具有最大权限。应用开发者的职业素养失守可能源于对利润的追求,如果开发者将商业利益置于伦理责任之上,他们可能会放松对人工智能教育应用的伦理审查与测试,导致质量和安全性问题,例如过度索取权限、超范围收集个人信息、私自共享给第三方、强制用户使用定向推送功能、未向用户明示申请的全部隐私权限等。此外,缺乏相关部门监督和规范化管理也是导致应用开发者职业素养失守的原因之一。
3.3 伦理规约与监管缺失
人工智能技术的快速发展使得监管机构和法律制度难以及时跟进,开发者和使用者缺乏必要的约束和规范可能滥用技术或产生不当行为。此外,人工智能教育应用涉及不同国家之间的数据流动和不同法律体系的碰撞,缺乏全球性伦理规约和监管机制的现状增加了伦理问题监管的复杂性和挑战性。
4 伦理困境规避路径
通过将人的全面发展放在首位、注重教育公平和学生需求、制定科技向善的价值取向,以及建立健全的法律保障和监管框架可以最大程度地规避人工智能教育应用中可能出现的伦理困境,为监管部门、教育者、学生和相关从业者提供明确的行为准则和规范,确保人工智能技术的应用目的与教育的最终目标相一致。本文提出的人工智能教育应用伦理困境规避路径如图1所示。
Fig.1 Path for avoiding ethical dilemma in the application of artificial intelligence education图1 人工智能教育应用伦理困境规避路径
4.1 以人为本的原则
教育是以人的发展为中心,关注人发展的未来性、生命性和社会性,这是构建教育伦理的基本价值观念和基本原则[22]。人工智能技术在教育中的应用应以学生需求和利益为中心,促进其认知、情感、社交和创造力发展,因此需要对其进行密切审视,以确保其服务于人的发展目标。目前有些学校在教室中布置了智能监控,可以实时捕捉学生的行为数据,判别其是否处于学习、发呆、打闹等状态。这样做虽然对学生的不良行为有良好的纠正效果,但也存在侵入性和去人性化的嫌疑,会使学生产生焦虑情绪与排斥心理,教师与学生之间也会出现信任危机。一旦在技术的应用过程中忽略了人本位思想,势必发生关系错位与人性压制现象。
践行以人为本的原则应关注学生的个体差异和多样性,通过个性化学习路径和教学策略满足个体需求,促进学生全面发展。教师在教育中扮演着不可替代的角色,即使有人工智能技术的辅助,也需担负主导责任。此外,教师和开发者还需接受伦理培训,提高对伦理问题的认识和敏感度,以便其在使用人工智能应用时作出科学合理的决策。
4.2 科技向善的价值取向
在人工智能教育生态系统中,相关利益者需要有科技向善的价值取向。开发者者应深入了解不同用户的能力、需求和文化差异,避免设计出可能造成伤害或歧视的产品,致力于促进教育公平;教师要充分考虑和避免人工智能应用可能对学生产生的负面影响,如过度依赖和上瘾、社交以及情感发展匮乏等;学生在使用教育应用时应遵守相关准则和道德规范,诚实地提交真实和准确的信息,不应利用系统漏洞或其他不当手段提供虚假数据,同时了解技术的正确用途,避免滥用和错用;监管人员需监督系统运营中产生教育数据的用途,保障数据安全。教育领域中的科技向善归根结底是技术手段与教育价值的内在统一,技术应用的目的需与教育的最终追求相吻合[23]。
4.3 法律保障的伦理规约
道德和法律都是社会规范的重要组成部分。与道德不同的是,法律是由国家制定并强制实施的行为规范,当人们不能在道德层面约束自己时,法律便可发挥作用。目前,大众的人工智能伦理意识薄弱,类似利用AI 换脸侵犯个人隐私权的事件非常普遍,根源在于伦理规约缺失与相关法律法规匮乏。在教育行业中,学生是最易受到伤害的群体,其数据被滥用的现象普遍存在,法律保障是学生利益的最后防线。首先,政府应制定严格的数据保护法规,确保个人数据在人工智能教育应用中合法、合规和安全地被使用;其次,政府应建立独立的监管机构或委员会,负责监管人工智能教育应用的伦理行为及其合规性;再次,政府应加强对人工智能教育应用违法行为的法律责任和追究机制,明确开发者和教育机构在数据使用、隐私保护和伦理规范方面的责任,违反规定者应承担相应的法律后果;最后,政府应加强国际合作与经验分享,积极参与国际标准制定,确保人工智能教育应用的伦理规范具有普适性。
5 结语
人工智能技术在教育领域的应用越来越广泛,发挥的作用也越来越不可替代,我们要密切关注每一个环节可能出现的伦理问题,并及时采取措施解决这些问题,确保人工智能教育应用的合理性、公平性和可持续性。通过坚持人本位思想、倡导科技向善的价值观和建立健全的法律保障可以为人工智能教育应用创造一个适宜的发展环境,实现技术与教育的有机结合,为学生的全面发展和个体潜能的实现提供更好的支持,推动教育领域的创新与进步。然而,人工智能合乎伦理的应用仍然是一条漫长的道路,需要监管部门、教育从业者和学生等各方的持续共同努力。