APP下载

从科技向善到人的向善:教育人工智能伦理规范核心原则

2022-10-07王佑镁柳晨晨

开放教育研究 2022年5期
关键词:受教育者教育领域教育工作者

王佑镁 王 旦 柳晨晨

(温州大学 大数据与智慧教育研究中心,浙江温州 325035)

一、问题提出

人工智能、大数据、物联网等新一代信息技术的快速发展,正引领着科技和产业的变革,引起了全世界的关注(冯锐等,2020)。2019年5月16日,国家主席习近平(2019)在国际人工智能与教育大会上强调,中国要积极推动人工智能与教育的深度融合,加快发展伴随每个人一生的教育、平等面向每个人的教育、适合每个人的教育、更加开放灵活的教育。随着人工智能在教育领域的深入与普及,伦理风险开始涌现,如算法歧视且不透明、教育主体的情感交流危机与隐私数据泄露等(胡小勇等,2022)。近年来,各国开始探讨并相继发布针对人工智能伦理问题的政策文本,提出教育领域人工智能应用的合理边界与正确做法,科技向善成为解决伦理问题的首要原则。然而,教育领域人工智能伦理规范研究缺乏明确指引,总体仍停留在对其抽象价值的提取与共识建构阶段(高山冰等,2022)。科技向善已不能满足当前教育人工智能伦理规范的需求,本质上在于人类是变革的目的和归宿,也是发展的主体和根源。这就需要对教育人工智能伦理问题开展系统研究,探讨多方面的影响,挖掘其治理原则,实现人的向善的最终目标。为推动人工智能在教育领域的健康发展,本研究尝试以人工智能及其教育伦理规范的治理现状为出发点,分析当前世界各国的政策报告与研究成果,构建教育人工智能伦理规范的核心原则,以期为教育人工智能伦理规范的制定提供思路。

二、教育人工智能伦理规范治理现状

(一)人工智能伦理规范政策文本

本研究于2022年4月以“人工智能”并含“伦理”及其英文“Artificial Intelligence”并含“ethics”为关键词,在中国知网、Web of Science数据库中检索相关文献,并以各国政府官网、国家公布的人工智能指数报告为参考,筛选出主要国家或权威国际组织发布的十三份政策文本(见图1)。

政策内容是政策文本的核心,比较分析政策内容有利于掌握政策文本的重点。本研究以十三份人工智能伦理政策内容为研究对象,通过比较研究法和内容分析法,凝练出人工智能伦理规范的核心原则。政策文本共提及二十一条人工智能伦理原则,如人的能动性与监督、技术隐私与安全性、社会与环境福祉、问责制度等。每份政策文本强调的伦理原则数目不同。《人工智能伦理问题建议书》提及的原则最多,有九条,包括可持续性、公平和非歧视、透明度和可解释性等;《人工智能准则:推动国防部以符合伦理的方式运用人工智能的建议》与《人工智能委员会的建议》仅提及五条原则,如以人为本的价值观与公平、负责任、可追溯等。本研究根据政策文本涉及的二十一条人工智能伦理原则的出现次数,重点关注前七条原则。它们从高到低分别为:问责制度、公平公正、隐私保护、技术安全、透明可解释、和谐福祉、以人为本。其中,问责制度原则出现次数最多(13次),指建立相关机制确保对系统及其成果负责和问责,通过政府或机构等构建正式人工智能伦理规范维护人工智能的生态系统;以人为本原则出现次数最少(6次),强调人工智能必须支持人的能动性和监督。

(二)教育人工智能伦理规范政策文本

本研究进一步筛选出认可度较高的四份教育人工智能伦理规范政策文本:澳大利亚教育部发布的《简读:人工智能与学校教育》(Southgate et al,2018)、联合国教科文组织发布的《北京共识—人工智能与教育》(教育部,2019)和《教育中的人工智能:可持续发展的机遇和挑战》(王佑镁等,2019)、白金汉大学教育人工智能伦理研究所发布的《人工智能教育伦理框架》报告(The University of Buckinham,2021),然后从总体目标与内容两个维度剖析,其中总体目标体现了教育人工智能伦理规范的宗旨,内容比较用于掌握教育人工智能伦理规范的组成与特征(见图2)。

1.总体目标

教育人工智能伦理规范的总体目标是使教育领域人工智能利益相关者受益,免受伦理风险的影响。例如,《简读:人工智能与学校教育》提出希望为教师、学校领导人和政策制定者提供全面思考伦理问题的方式。《北京共识—人工智能与教育》强调确保人工智能促进全民优质教育和学习机会。《教育中的人工智能:可持续发展的机遇和挑战》预测人工智能的影响。《人工智能教育伦理框架》倾向于利用人工智能使学习者受益,实现更全面的学习。

2.内容比较

本研究通过报告一级指标发现其中最重要的教育人工智能伦理规范的原则。各文本报告涵盖这方面的内容各有异同,都旨在使所有学习者从教育人工智能中获得最佳收益。

从原则来看,各文本提及最多的是公平。例如,《人工智能教育伦理框架》提及九条原则,《教育中的人工智能:可持续发展的机遇和挑战》提及五条原则。尽管不同文本对教育人工智能伦理原则的划分维度各异,但最终得到十四条原则:公平、自治、评估形式、隐私、知情参与、管理与工作量、透明问责、实现教育目标、伦理设计、以人为本、跨界合作、可解释性、安全与包容。

(三)教育人工智能伦理规范研究

本研究进而筛选代表性强且阐述教育人工智能伦理原则的八篇论文进行分析(见图3),探讨学者们对教育人工智能伦理规范原则的看法。杜静等(2019)提出“APETHICS”框架,从人机共存的角度提出教育人工智能伦理问题解决模型。邓国民等(2020)对比人工智能伦理与教育伦理的异同,提出福祉、是非善恶、公平正义、人权和尊严、自由自治与责任等伦理原则。李晓岩等(2021)基于个体—社会—个体的循环过程将教育人工智能伦理原则分为三类:权力规约原则、形塑自我原则与和谐共生原则。胡小勇等(2022)归纳了面向学生的内涵框架:人机协同与自立自主、学生福祉与发展、公平与持续发展和安全与可控可信。本研究将教育人工智能伦理规范归纳为十四条主要原则:问责、隐私、透明、预警、身份认同、以人为本、是非善恶、安全、自由自治、人权和尊严、福祉、适度、可持续与公平正义

三、认知与行动:教育人工智能伦理规范核心原则探索路径

科技不再是简单的手段和工具,而是凝结人类生存和发展的价值追求(李欣融等,2021)。从教育人工智能伦理科技向善的原则出发,本研究以界定技术伦理、人工智能伦理与教育人工智能伦理的内涵为起点,结合对相关政策文本与研究的述评,寻求教育人工智能伦理规范核心原则的建构路径(见图4)。

技术伦理(ethics of technology),指将伦理思想应用于备受关注的技术应用问题,包括技术专业人士关注的特定领域的问题,乃至与技术相关的更广泛的社会、伦理和法律问题(Luppicini, 2010)。赵磊磊等(2021)将技术伦理界定为:技术开发、应用等过程中涉及的技术与人、技术与社会之间关系的道理和准则。随着技术的发展,学界对技术伦理的研究逐渐细化。新冠肺炎流行期间出台的《欧洲人权公约》与《联合国公民权利和政治权力国际公约》提供了有关如何合乎道德地开发和设计技术的指南。技术发展虽然增强了获取、跟踪和共享数据的能力,但是政府应以不破坏公众信任的方式设计和部署技术(Morley et al., 2021)。未来,我们不应追问技术发展的奇点临近与否,真正的问题是技术应用中出现的伦理危机,我们需加快从技术向善转到人的向善,把握主动权。

人工智能伦理指在道德上约束人工智能的开发、管理、应用等应遵循的道理与准则(赵磊磊等,2020)。于雪等(2019)按照“界定—理解—表述”的逻辑将人工智能伦理定义为在人工智能产品、服务、应用和治理中,智能体(人与智能机器)应遵循的一般伦理原则和行为规范。从技术发展角度看,人工智能仍处于初级阶段,发展空间很大,但其地位的转变促使人类加快掌控人工智能技术,积极应对复杂的伦理问题,如威胁人类与公共安全、隐私泄露、种族歧视等。近年来,各国纷纷发布人工智能伦理规范政策文本。2019年欧盟发布《可信赖的人工智能准则》,提出七条措施:人的参与和监督、问责、技术稳健性和安全性、透明度等。有学者基于全球84份人工智能伦理规范指南,得出透明、公平、隐私、福祉等十一条人工智能伦理原则(Jobin et al., 2019)。基于对人工智能伦理规范政策文本数量的统计分析,本研究得出七条主要的伦理原则:问责制度、公平公正、隐私保护、技术安全、透明可解释、和谐福祉、以人为本,为确立教育领域人工智能伦理规范的核心原则提供参考。

基于对技术伦理与人工智能伦理的内涵解读,本研究认为,教育人工智能伦理是人工智能技术在教育领域应用中需遵守的规范与准则。“人工智能”与“教育”密不可分,人工智能赋能教育的行动从未停止。2018年4月,教育部(2021)发布的《高等学校人工智能创新行动计划》指出,“须加快人工智能在教育领域的创新应用,利用其支持教育治理能力的提升”。刘三女牙等(2021)认为教育人工智能伦理是教育领域人工智能伦理的具体体现,其本质仍属于技术伦理的范畴,涉及教育主体与具有技术属性的人工智能之间的道德关系。然而,随着教育人工智能的快速发展和变革,伦理问题日益凸显。现有的人工智能伦理政策文本着眼于遵守基本的科技向善原则,不足以覆盖所有的伦理问题。唯有制定行之有效的核心原则,使人类向善成为治理教育人工智能伦理问题的主要方向,成为编制有效指南的基底,才能促进人工智能健康与可持续的应用与发展。

四、精准践行:教育人工智能伦理规范核心原则的建构

在明确人工智能伦理规范及其在教育领域的核心内容与原则的基础上,立足教育人工智能的发展现状,以科技向善到人的向善,本研究提出教育人工智能伦理规范的十二条核心原则,包括:公平(Fairness)、以人为本(Human-Centric)、隐私安全(Privacy and safety)、透明和可解释性(Transparency and explainability)、问责(Accountability)、评估形式(Forms of assessment)、管理与工作量(Administration and workload)、知情参与和合作(Informed participation and cooperation)、自治和预警(Autonomy and precaution)、福祉(Well-being)、伦理设计(Ethical design)和 实 现 教 育 目 标(Achieving educational goals)。为探索其在教育领域的贴合度,本研究从设计开发者、教育工作者、受教育者、管理者、其他利益相关者等教育主体维度展开,以人的向善的角度讨论各核心原则的内涵,尽力解决人工智能在教育领域隐含的伦理问题(见图5)。科技向善不再是人类的外在愿望与使命,人的向善才是教育人工智能伦理规范的内在要求与动力源泉。本文应以人类为主体结合十二条核心原则,编制广泛与全面的指南鼓励践行人的向善,化被动为主动,把握伦理问题解决的决定权。

(一)公平

公平指不以偏见创造或行事,在人工智能的整个生命周期尽可能减少和避免带有歧视或偏见的应用程序和结果,坚持包容性和普惠性,促进社会的公平正义和机会均等。已有研究表明,建立在数据基础上的算法系统也会犯错和带有偏见,且比以往的数字歧视更加隐秘。《罗马人工智能伦理宣言》指出:“通过人工智能的创新改变世界,必须以不歧视且提供机会和平等的方法来实现,必须以公平的原则实现普及教育的机会。”在数字技术过渡时期,老年人、残障人士等教育保障需更加关注,减少受教育者群体之间出现数字鸿沟。在面向未来的战略规划中,国家、社会、学校和教育机构等应主动消除数字知识鸿沟,制定针对性的标准保障公平权益,让所有人被公平对待,消除基于性别、年龄和政治信仰等背景的无理歧视。在教学方面,人工智能产品仍存在着不准确性、争议性等问题。例如,教育工作者采用人脸识别技术获得受教育者的上课行为、表情等记录,会因个人特点、长相等因素导致最终结果的不公平等。由此看来,制定教育人工智能伦理核心原则的第一要义是公平,这也是实现教育公平的先决条件。

(二)以人为本

以人为本指人工智能应用应尊重、促进和保护国际公认的人权以及履行人类监督、控制的要求,确保人工智能不会破坏人类的主体性。日本《以人为本的人工智能社会原则》指出:1)人工智能不仅可以取代人类劳动,还能够作为先进的技术工具帮助人类提升能力与创造力;2)在使用人工智能时,人类必须拥有自己的判断;3)利益相关者应友好相处,避免造成数字鸿沟。管理者可以在教育领域建立扫盲系统与互动环境,为幼儿、中小学生、成年人或老年人提供受教育机会,为受教育者学习人工智能、数据科学等知识提供便利,彰显以人为本的重要性。人工智能课程体系的建构与跨学科发展,同样必须体现以人为本的原则,充分保证人类的自主性。2016年,欧盟将人工智能定义为电子人,赋予其著作权、劳动权等权力与义务,对人类的主体地位有一定削弱(唐林垚,2020)。未来人工智能的水平可能会超越人类,但绝不能取代人类,甚至破坏人的权益。因此,“以人为本”是底线伦理,无论人工智能多么强大,都必须服务于人的教育与发展的根本宗旨,任何教育应用都不能改变这一真谛,从“科技向善”走向“人的向善”才是正确的选择(冯锐等,2020)。

(三)隐私安全

一直以来,隐私与安全问题是常见的伦理风险,人工智能应保护人的尊严、能动性和自主权。从隐私方面说,《新一代人工智能治理原则—发展负责任的人工智能》规定:1)为个人信息的收集、处理、使用等设置边界;2)完善个人数据授权的撤销机制;3)反对任何窃取、篡改等非法利用个人信息的行为。《以人为本的人工智能社会原则》与《负责任的人工智能:全球政策框架》从利益相关者的角度指出国家需立法,开发、使用人工智能的组织须任命一名人工智能道德官员,个人用户参与管理。设计开发者与管理者应在隐私安全和合法使用数据保持平衡。收集的健康数据、行为数据等应是教育目标必需的,数据处理过程应有利于改善受教育者的学习,避免、预防和消除安全与安保风险,确保人类生态环境健康发展。

教学仍应遵守隐私安全原则。例如,人脸识别技术进校园,不仅能应用于控制校园门禁、管理受教育者考勤,还能全程监控课堂,识别受教育者发呆、玩手机等行为,这会涉及受教育者的隐私泄露与安全隐患。教育部科学技术司司长雷朝滋表示人脸识别、肢体识别等技术软件,对学生个人信息能不采集就不采集,能少采集就少采集,尤其是个人生物信息(巩帅等,2019)。不可否认,人工智能扩大了优质教育资源的可获得性,实现了智能化的教育服务模式,然而教育工作者必须谨慎防范其衍生出的隐私安全问题,切实做到技术服务于教育,坚守教育本位。

(四)透明和可解释性

透明即算法可解释性,指人工智能系统的决策结果必须是可解释的。阿瑞塔(Arrieta)提出可解释性需要与反思社会技术和实践的其他伦理原则相结合(托雷·霍尔等,2022)。《负责任的人工智能:全球政策框架》提出,使用人工智能有义务提供以下信息:1)组织决策过程中使用人工智能系统的事实;2)人工智能系统的预期用途以及人工智能系统将如何使用;3)人工智能系统使用的数据集类型;4)涉及的有意义信息。透明可解释性可以保持公众对人工智能的信任,提供足够充分的信息帮助人工智能的管理者、设计开发者和其他利益相关者等之间建立正确的问责制度,证明人工智能的决策是公平的。教育领域大力推进人工智能教育产品,如利用人工智能技术监测受教育者学习行为、记录成绩与评估学习结果,其数据结果应有据可查,做到透明与可解释,人工智能分析结果要避免给受教育者带来心理伤害。透明可解释能够确保人工智能对人类生活产生重大影响时进行负责任的披露,它是教育人工智能伦理的关键原则,可支持问责、公平和隐私安全等原则。

(五)问责

问责原则主要指利用任何方式基于人工智能做出的决定与行动,其伦理责任和义务最终应由人工智能的设计开发者、管理者等来承担,并建立适当的监督、审计和调查机制来实施问责,做到可追溯、可追责。《可信赖的人工智能伦理准则》提到,人工智能系统的可审计性是关键。此类评估报告的可用性有助于提高技术的可信度,应建立机制对人工智能系统及其实施结果进行责任监督和问责。2016年,深圳举办的第十八届中国国际高新技术成果交易会上发生“机器人伤人”事件,机器在无人操作的情况下砸伤路人(邹丹丹,2020)。由于问责制度的缺失,受害者的权益没有得到正当的保障。随着教育人工智能的发展,此类事件若发生在教育领域,教育工作者或受教育者的权益将被动摇,引发不良影响。《新一代人工智能伦理规范》明确坚持人类是最终的责任主体,应做到在人工智能的生命周期中自省自律,不回避责任审查,不逃避追究责任,人类向善才是构建核心原则的根本宗旨。

(六)评估形式

人工智能应被用来评估和识别受教育者的才能,它的关键能力之一是理解受教育者的进步、受教育者如何学习及获得什么技能,这些数据支持受教育者和教育工作者以更客观的数据驱动方式做出决策。教育评估的原则主要适用于教育工作者与受教育者的互相协调,教育工作者采用人工智能评估受教育者的形式不可单一化、机械化,应考虑协作性、持久性、动机和信心等,促进学生全面发展,更好地应对变化的世界。

(七)管理与工作量

人工智能应尊重人际关系,它可以完成原先由教育工作者承担的管理任务。人工智能善于收集、处理和分析数据,减少教育工作者的工作量。有公司提出,教育工作者40%的工作可以通过技术实现,节省的时间可以让教育工作者从事其他更有价值的工作。然而,这也带来新的问题,比如人工智能代替教师批改作业,它可能无法欣赏作品的个性化特征而作出正确判断。因此,教师利用人工智能减轻压力的同时需对其产生的结果进行客观验证。

(八)知情参与和合作

无论是教育工作者还是受教育者都需对人工智能及其含义有合理的理解,并通力合作实现利益最大化。这就需要为教育工作者与受教育者提供培训,使教育工作者有效地使用人工智能;受教育者有权了解什么是人工智能,如何通过它分析数据、了解技术运作原理及产生的社会影响。此外,多利益方建立合作伙伴关系,有助于守住伦理底线,加强对教育人工智能领域的投资力度,缩小人工智能的数字鸿沟。

(九)自治和预警

自治指人工智能需通过民主的方式实现决策自由,人工智能的角色是保护人类的自主权与控制权。教育人工智能的设计不能强迫受教育者,应积极影响受教育者的行为,防止不利结果产生。当人工智能出现伤害人类行为时,设计开发人员需有相应的预警技术。钱小龙等(2021)指出教育人工智能的自治原则体现在两方面:1)尊重教育工作者的教学主导地位,教师有权决定如何将人工智能教育产品与教学活动融合;2)尊重受教育者的主体性,受教育者有权决定是否运用人工智能教育产品进行学习。科技的发展为教育带来的好处显而易见,受教育者、教育工作者、管理者等都有权决定自己的态度与选择,其他利益相关者无权强制他们,且使用过程中杜绝出现危害人类的行为。

(十)福祉

人工智能的发展以增进人类共同福祉为最终目标,促进人机和谐,打造安全的社会环境,推动人工智能的可持续发展。《人工智能的原则:伦理和权利为基础的共识》认为,“人类价值与人类繁荣”是根据流行的社会规范、核心文化和人类最佳利益来发展和使用人工智能。也有政策文本指出在代码中嵌入人类价值观是有可能的。《以伦理为基准的设计:人工智能及自主系统以人类福祉为先的愿景(第一版)》断言,人工智能要盈利,安全与合法是完全不够的,必须将人类福祉作为发展的主要目标。人工智能要在教育中发挥作用,其设计始终要以和谐友好与共建人类命运共同体为核心。

(十一)伦理性设计

人工智能设计开发者应了解潜在影响,明确人工智能的“社会身份”,即是否赋予人工智能公民身份或人类权利。同时,教育工作者与受教育者参与人工智能产品设计或许能为人工智能的开发带来好处,包括扩大受教育者的需求、公平设计资源、提高用户使用信心等。此外,受教育者是多样的,设计开发者应代表潜在受教育者的多样需求,预测、发现和审查不公平、偏见等问题,判断人工智能应用可能引发的伦理问题,这是教育人工智能产品的首要防线。其他利益相关者参与咨询,也能保证教育人工智能产品的伦理性。

(十二)实现教育目标

实现教育目标指人工智能应被用来实现教育目标,实现受教育者的利益最大化。人工智能可应用于个性化学习,即识别受教育者的需求,定制学习体验。例如,人工智能系统可捕捉和分析数据,助力教育工作者或受教育者调整教或学。然而,人工智能并不总能有效地实现量身定制的教与学。因此,利用人工智能不能改变课程的核心结构,有效的学习成果取决于人工智能是否真正改善了人类的教与学。相关人员需通力合作实现预定的教育目标,克服人工智能可能产生的负面影响。实现教育目标是构建教育人工智能伦理规范核心原则的首要前提,应从根源上实现设计开发者、教育者、受教育者、管理者等的积极向善。

五、结 语

人工智能技术对人类生活产生的影响巨大,已经成为新时期国际竞争的重要领域之一(殷佳章等,2020)。教育人工智能的发展潜力引起了广泛关注,教育是受人工智能冲击最大的行业之一(李德毅等,2018)。与此同时,教育人工智能面临的伦理挑战越来越多,如数据泄露、行政主体责任不明、算法歧视等。仅依赖于科技向善的基础原则已不适用于教育人工智能伦理的发展现状。本研究通过梳理人工智能伦理规范及其在教育领域应用的政策文本和研究论文,探讨教育人工智能伦理问题出现的内在原因,从行动上建构教育人工智能伦理规范的十二条核心原则:公平、以人为本、隐私安全、透明和可解释性、问责、评估形式、管理与工作量、知情参与和合作、自治和预警、福祉、伦理设计和实现教育目标。为了厘清教育人工智能伦理规范的发展态势,制定教育人工智能开发与应用基本指南,本研究从教育主体角度阐释了十二条核心原则,以期通过人类自主的向善本质发挥原则的内涵价值,推动人工智能技术在教育领域的理性应用。

(编辑:魏志慧)

猜你喜欢

受教育者教育领域教育工作者
浅论党风廉政教育实践中的隐性教育
教育“内卷”如何破解?——教育工作者谈立德树人
初中历史教学方法初探
高中英语阅读教学中常用的导入活动及其有效性分析
牢记使命 勇于担当
——浅析如何成为一名党校教育工作者
我们真的懂孩子吗?——一个教育工作者谈0-3岁婴幼儿早期教育
德国早期儿童教育工作者严重短缺
“生活教育”
基于文献计量的数据素养及其教育领域研究态势分析
江江西率先突破高考、教师交流、民办教育深化综合改革