可解释的人工智能:打开未来智能教育“黑箱”的钥匙
2022-05-13孙波
孙波
众所周知,人工智能的精准和高效使其在很多领域的应用已经超出了人类自身所具备的计算和执行能力。随着技术逐步朝着自动感知、学习、决策和行动的自主系统方向发展,机器学习、深度学习等人工智能关键技术因缺少透明度和对结果的逻辑解释,导致人工智能应用中存在的“黑箱”与数据偏见、算法不公等问题逐渐显现。人工智能需要解释它是如何做出决策的,这样才能避免模型和算法的误用滥用,从而成为推动人工智能治理从原则到实践有效落地的有力工具和手段。因此,联合国教科文组织于2021年发布了《人工智能伦理建议书》(Recommendation on the Ethics of Artificial Intelligence),明确提出人工智能伦理的十大原则,其中特别强调了人工智能的“透明性和可解释性”。
可解释的人工智能并不是一个新的概念。它是指算法模块的输入、输出和性能及其系统结果可以被理解,并提供阐释说明,帮助用户充分理解算法的决策机制、决策过程和决策结果的公正性。可解释性是构建教育领域对人工智能准确认知和良好信心的必然要求。教育作为特定环境下,通过人与人互动所形成的认知建构的过程和结果,其对人工智能可解释性的要求更高,也更迫切。未来智能教育的目标是推动人工智能技术与教育教学的深度融合,并促进学生高阶能力的培养。随着越来越多学校开始使用人工智能技术,帮助教师了解人工智能技术的决策过程和决策依据变得越来越重要。教师不仅需要了解学习者学到了什么,还需要了解他们是如何学习的。因此,人工智能技术的提供者需要解释它如何决定特定的行动方案。可以说,可解释性带来透明度,而透明度将带来更大的信任度。
目前,许多智能教育产品片面关注机器学习、深度学习等技术结果的精准度,而忽视技术应用的可解釋性与可理解性。我们通过人工智能技术对教育数据进行收集、输入和处理,获得输出的结果和决策,但却无法理解和解读模型中的工作原理,因此导致人工智能得出的结论无法解释。不可避免地,具有偏见的教育数据集与算法有可能带来不公平或错误的结论或决策,因此,亟需建立有效的机制对其结果进行解释或验证。由此可见,智能技术存在的“黑箱”问题,使智能教育系统的决策结果缺乏透明度和可解释性。在此基础上,智能教育的有效性因缺乏解释能力和因果机制而受到限制和质疑。
在自适应学习系统中,智能教育的可解释性包括模型理论、学习路径和训练数据,以及针对某些特定的学习场景和任务训练的人工智能模型。一方面,开发人员需要了解算法的真实性能和局限因素并对公众阐释说明,从而达到可解释的效果;另一方面,科技公司需要提供可解释性机制、工具和服务,从而减少算法偏见和歧视,使教师和学生从透明的算法中受益,增强对人工智能系统的信任。
需要指出的是,可解释的智能教育系统不是一个单纯的技术问题,更是一个教育理论和教学原理问题。在可解释的人工智能教育的研究中,要充分利用不同学科的知识和经验,共同研究、开发和应用人们可以理解的智能教育系统。
在此基础上,需要提高教师和学生的人工智能素养。它要求将人工智能知识、技能和伦理方面的教育纳入各级各类学科的教学中,以便教师和学生能够了解和掌握与人工智能系统进行互动的知识和技能,理解人工智能的算法和模型,并做出明智的决定和行动。一方面,智能教育系统的实际效用取决于机器是否能够被充分理解,并向管理者、教师、学生解释其特定决策和行动的理由;另一方面,教师和学生的人工智能素养直接决定他们是否能够理解智能系统给出的建议和结果,进而优化教学和学习过程。
因此,可解释的人工智能是打开智能教育“黑箱”的前提,而人工智能素养是确保智能技术在教学过程和教育评价中有效应用,以及教育系统决策可理解、可信任、可管理的基础。
本期专栏刊登托雷·霍尔(Tore Hoel)教授等人撰写的《可解释人工智能的教育视角:基于伦理和素养的思考》(AI Explicability from an Educational Perspective: Rethinking Ethics and Literacy)一文,探讨人工智能可解释性在不同层面的应用以及未来人工智能给教育可能带来的机会和挑战。文章介绍了机器学习等技术以及可解释人工智能的工作原理,并从教育视角提出为了实现人工智能的可解释性,还需要普及人工智能教育,通过系统的人工智能课程来提高人们的人工智能素养;强调人工智能首先需要被理解,人们才可能建立对人工智能的信任。因此,加强人工智能素养教育,特别是人工智能伦理方面的培训,是教育在促进未来社会发展中所担负的重要责任和义务。