人工智能时代教育研究的算法逻辑、可能风险及规制策略
2023-05-30阴祖宝容中逵
阴祖宝 容中逵
[摘 要] 在教育数字化转型背景下,基于算法的教育研究已呈现出蓬勃发展之势,正推动着教育研究由以个体数据为主的实证分析向以海量关系数据为主的智能预测转型。基于算法的教育研究具有独特的运行逻辑,表现为指向计算主义的研究本体论规定,指向算法表征的研究认识论预设,指向数据驱动的研究方法论实践,指向模型预测的研究价值论诉求。但基于算法的教育研究也面临量化一切的算法崇拜、人之主体性的僭越、唯数据论的方法圭臬以及教育研究的非正义性等潜在风险。为防范和化解算法风险需要建立相应的规制机制,具体包括嵌入基于人文主义的研究立场,构建主体间性的“人—算”协同关系,推进基于数据效能的算法公开,重塑基于教育逻辑的算法正义等。
[关键词] 人工智能; 教育研究; 算法; 算法风险
[中图分类号] G434 [文献标志码] A
[作者简介] 阴祖宝(1988—),男,山东泰安人。博士研究生,主要从事教育基本理论研究。E-mail:yinzubao@yeah.net。
一、引 言
教育研究的“算法转向”是人工智能赋能教育研究再造升级的集中体现,对创新教育研究范式,促进教育研究数字化转型具有重要意义。然而,算法并非完美无缺的,其自身存在的算法理性、算法鸿沟、算法歧视等问题,也给教育研究带来了潜在风险和挑战。而这正是基于算法的教育研究亟待克服和解决的重要问题。有鉴于此,本文在阐明算法作用于教育研究的内在逻辑基础上,辩证审视和追问算法研究可能存在的风险及产生原因,并提出规制算法风险的策略,以期对教育研究范式创新有所助益。
二、算法逻辑:教育研究的当下之“维”
基于算法的教育研究以数据关联思维构建教育数据关系模型,并以可计算的方式将具体问题置于算法模型中,从而依托智能算法技术对教育社会结构和运行规则加以解构和分析。由此可见,算法为教育研究提供了一种全新视角,是对传统教育研究范式从思维、认识再到方法、实践的全面突破,这种突破反映了算法研究所具有的独特运行逻辑。具体而言,可以从研究本体论、认识论、方法论、价值论四个维度予以诠释。
(一)指向计算主义的研究本体论规定
若要探究人工智能时代教育研究的算法逻辑,首先必须明晰其背后隐含的本体论立场。哲学领域的本体论是指一切“实在”的本原或基质,其要回答的是世界是什么,以及如何解释、理解世界的问题。本體论代表着一个具有最高、最普遍的逻辑规定性的先验原理系统,旨在为人们认识世界提供哲学立场[1]。就教育研究而言,本体论所要解决的是研究方法或范式的指导思想问题,即何种本体论立场决定何种研究方法或范式。事实证明,不同教育研究范式有着不同的本体论立场。如实证主义范式秉持主客二分观,相信原子论、还原论;解释主义范式坚持人与世界一体观,反对主客体截然分开;批判理论范式则主张教育是意识形态过程,存在于对现实的否定和批判之中[2]。当前,计算主义作为认识世界、理解世界的新的认知范畴,逐渐成为人工智能发展的哲学思想基础,为各学科结合领域需求开展算法实践提供了本体论框架和指导。计算主义认为,整个世界由算法控制,物理世界、生命过程、认知意识皆可计算,所谓的存在实质上不过是以不同的方式所显现的信息形式,整个宇宙犹如一台巨型计算机,世界从根本上是按照一定算法或程序计算的过程;生命、心灵和智能也是计算演化的结果,而人类大脑及意识则被视为宇宙计算机中的虚拟机,其既是宇宙计算的产物,也可以模拟和推演整个宇宙的本质[3]。从本质上讲,计算主义是通过数学的方式将人类的认知行为和模式转化为某种特定的算法,然后映射到“比特世界”中,实现世界算法化、算法世界化。就教育领域而言,基于算法的教育研究需要依托智能科技赋能,以数智世界中的教育问题为主要研究对象,利用海量教育数据从算法设计、数据构造等方面对教育研究问题进行可计算、可控制的建模分析,并以量化方式呈现各要素及要素间的互动关系,进而建立多维度、多层序的问题分析与预测模型,据此研究和解释复杂教育问题及其内在作用规律。
(二)指向算法表征的研究认识论预设
在人工智能时代,算法成为解释和认识人、教育、社会关系的基本思维方式。以算法表征世界、重构世界的认识论与以往的研究认识论具有显著不同,其根本差异在于算法思维绝不只是一种空洞的思辨,也不是单纯基于实验操作的关于事物本体意义的溯源,而是“基于功能模拟、结构模拟和行为模拟,以算法语言的方式描述领域世界的实体、对象、关系以及过程等,实现理性推导、深度学习、智能模拟的动态互释,即走向一种可以整合理性主义、经验主义和具身认知的新的认识论”[4]。指向算法表征的教育研究认识论内含表征主体和表征关系两个操作规定。表征主体规定的是“谁来表征”的问题,即“机器”在一定程度上具备了类人化的认识能力,被赋予了虚拟的表征主体身份。传统研究的数据分析是以人脑为媒介的命题澄清过程,而算法思维则侧重以电脑、云平台等机器为媒介,通过数据化、模型化的方式将教育问题的产生机理、作用关系等表达出来,此时呈现的研究结果已不再是单纯的人的主观意志,而是互渗机器算法意志的表达。研究者与算法之间演化为一种“赛博格”式的认识结构关系,即人与技、人与机之间的关系由传统的主客“器用”关系转变为新形态的主体间性关系。算法表征实质是人机协同的结果,并由此使教育研究的知识表征呈现出“人类编码知识+智能代理编码知识”的双重性[5]。表征关系规定的是“表征什么”的问题,即算法表征教育现象之间的相关关系。在传统教育研究中,对因果关系的探索一直被视为研究的基本使命,严密的因果推理和关系验证是揭示教育现象与问题本质的最基本的思维模式。此间,因果关系得以表征的前提是数据、变量的“人为操纵性”,即研究者在精确控制足以影响研究实验结果的无关干扰变量之下,方能了解自变量与因变量之间是否存在因果关系。而在算法时代,研究者获得的则是大量的非人为操纵的原始真实数据,同时,数据繁杂、变量多元且难控。在此情况下,普遍意义上的因果关系已难以“捕捉”,而更适合的是相关关系的“抓取”。由此,教育研究从关注因果关系转向关注相关关系。
(三)指向数据驱动的研究方法论实践
数据驱动科学发现是基于算法的教育研究所遵循的方法论原则。与传统研究范式相比,基于算法的教育研究对数据性质定位、研究进路选择有着不同理解和把握。人工智能技术和计算社会科学的发展使数据采集突破了时间、空间及体量限制的瓶颈,而以机器学习、神经网络模型、图像智能识别为代表的算法技术则使大数据分析突破了多源异构、多维多类教育数据耦合应用的障碍。此时,数据成为一种新型的生产要素。正如佩德罗·多明戈斯(Pedro Domingos)所言,“所有知识,无论过去的、现在的还是未来的,都有可能利用某个单一的、通用的学习算法而从数据中获得。”[6]如此数据被赋予了“知识发现”的功能,数据本身具有了表征教育事实的意义,而研究者所要做的就是从数据中提取这些意义。在大数据教育研究中,研究者直接作用的对象是大规模、全样本、多模态、全流程的教育元数据“本身”,并通过对数据的算法分析获得那些之前未曾知道或知道但未觉其价值的复杂现象和规律。研究者不需要基于现象考察事先确定某种理论假设后再展开研究,而是直接基于数据达成知识发现的目的。这实则代表了两种不同的研究理路,前者是“始于假设”的理论驱动型进路,而后者则是“基于数据”的数据驱动型进路[7]。“基于数据”的教育研究遵循“数据挖掘—数据清洗—数据分析—预测服务”的自下而上的归纳推理路径,其目的不在于理论验证,而是旨在数据解释和理论建构。这在一定程度上颠覆了以前置性理论预设为前提的“观察现象—提出假设—验证假设—形成结论”的研究传统,规避了研究者非中立的意识判定可能存在的偏见和干扰,同时以高维、高频大数据算法,弥补了传统研究用“小样本”证明“大逻辑”(用简单的数量关系外推复杂的教育因果关系),用“小数据”演绎“大定律”的缺陷(用有限的数据模拟阐释教育宏观系统问题),从而提升研究结果的可靠性、解释力,以及可适用性。
(四)指向模型预测的研究价值论诉求
教育研究价值论是对教育科学研究存在意义的阐释,是对研究自身价值构造和功能承载的抽象概括。算法之所以具有强大的变革潜力和认知世界的智慧,关键在于其创建的数字化模型能够刻画物质世界乃至人类思想的内隐秩序。就教育研究而言,创建算法模型的目的在于参照教育系统的特征以及各种教育现象、教育对象的依存关系,以智能模拟或拟态仿真的方式,赋予数据表征价值,并利用数学公式、图形图表等呈现特定教育研究问题或对象之间的关系和规律,借以解释和预测未来的发展趋势。沿循以上逻辑,基于算法的教育研究价值论在现实层面表现为解释规律性和预测可能性两个功能承载。在解释功能上,基于算法的教育研究依托人工智能技術,以超强算力和智能算法为保障,以教育学科为基础,综合运用统计学、社会学、经济学、计算科学等学科资源,构建具有复杂自适应性的广域、开放的教育问题算法模型。这种建模可以“实现对教育实践中复杂变量关系的准确把握和对教育系统的整体认识,使研究人员能够真正关注复杂教育系统具有的非线性特征,为教育研究构造新的时空关系,”[8]进而揭示和解释以往常规方法难以洞见或无法触及的教育深层问题、规律或事实,并为探讨复杂智慧网络和数字化空间中的一系列新兴教育议题提供研究理路。在预测功能上,建立在相关分析基础上的“预测”是基于算法的教育研究的核心功能。预测原本就是教育研究的应有功能。现如今,在大数据、算法技术助力下,研究者可以通过模型配置对诸多教育现象之间的相关关系加以量化分析和定性阐释,创设虚拟仿真情境,对有关教育问题进行趋势性、概率性预测。尤其是在教育规划和政策制定中,基于算法的教育预测能够破解教育决策中选择性偏差和时效性制约,将教育决策需要考虑的多方面因素进行量化和可视化,使教育决策者能够对潜在的教育管理问题和未来发展方向加以预测,促进教育规划编制科学化和决策精准化[9]。
三、可能风险:教育研究的算法之“危”
相较于传统教育研究范式,基于算法的教育研究在逻辑构造的关系呈现、研究数据的规模保障、逻辑推演的智能水平、研究结果的预测水平等方面实现了难以匹及的技术飞跃。然而,算法是一把双刃剑,其在赋能教育研究的同时,也将自身技术缺陷和意识偏见渗透到了教育研究活动中,从而引发一系列潜在风险。
(一)量化一切:教育研究的“乌托邦”
计算主义“一切皆可计算”的核心理念清楚地展现了人工智能时代以数据和算法为基础认识事物本质及其特征的思维逻辑。而智能技术的本质就是人类精神和心灵的技术化或者说计算化(算法化)[10]。在计算语境下,教育自然被置于某种算法的运行模式中,关乎教育本质的一切,包括教育主体的认知和意识都是计算的结果,任何教育行为都可以通过某种算法程序加以呈现和解释。在此意义上,教育成为可算度的教育,教育研究的过程就是利用算法技术对教育问题进行代码化与算法化的处理,从而获得可量化的确定性规律或结果。不难看出,基于算法的教育研究力图将教育问题置于一个可计算的空间中加以研究,并借此展现教育研究“科学化”的曙光。然而,对于教育而言,算法的应用范围有其局限性,教育并非一个绝对可算的世界,不是所有情境中的教育问题都适合用算法加以模拟和解析。一旦忽视这一点,基于算法逻辑的教育研究将面临算法崇拜、研究简约化等风险。具体表现为:
一是教育研究极易陷入“把一切交由算法,一切靠数据说话”的算法控制论误区。算法世界是确定性的、物化的,其处理的是一些本身能够被计算或精确定义的现象或问题。当然这也是算法得以发挥作用的重要前提。但教育世界却具有复杂性和模糊性,其充满了诸多不确定且难以算度的因素。对算法的盲目崇拜,让人们误以为算法技术能够克服教育不确定性的羁绊,让教育变得客观、可测,甚至将“量化一切”视为衡量教育研究科学性的唯一标准。由此演变为对思辨研究的排斥,及其方法科学性的否定。
二是教育研究可能沦为一种简约化、单向度、线性化的思维模式。“量化一切”背后隐藏着算法本体论的魔咒,即为实现可量化、可计算的目标而借用某种算法机制将教育生活中模糊性的动态数据,简约化为确定性的静态数据,并将整个教育社会生活当成一个没有生命力的静态数据集。这种简约化实则是对教育数据本身所具有的复杂性和客观性的排斥,其使数据失去了丰富的内涵和诸多有价值的成分,并导致数据的单一化和残缺化,进而影响对问题本质的呈现。
(二)算法理性:人之主体性的僭越
由于算法对人类生活的全方位介入,以及算法较之人类所具有的先天技术势差,以算法表征为认识论基础的算法理性在教育研究中日益凸显,并不断冲击着人的认识主体地位。尤其是在更加自动化、自主化、意识化的强智能算法面前,研究者更加倚重算法实现教育数据的自动演算和分析,并期望获得令人惊喜的研究发现,而其自身在研究中的主导和支配作用却渐趋虚置。对于算法技术的过度迷恋,使研究者在无意识中将主体性让渡于算法,最终沦为算法的附庸,由此引发人的主体性危机。具体表现为:
一是面临算法反向驯化的风险。作为研究工具的算法在被研究者设计、编制的同时,也在以自身的技术负载影响着研究者的认知和思维,从而产生反向驯化作用。与此同时,算法所固有的“自我生产能力”,使其能够按照自身运作逻辑,改造既有的教育研究认识范式,建构不依赖于教育主体意志的规则机制。在此机制下,“没有人能够理解这些算法的内在逻辑或者解释我们接收到这些信息的原因”,“算法逐渐成为隐藏在人类社会幕后的控制者,并以它们的方式对待我们,而我们却对此毫不知情”[11]。这种反向驯化使研究者从对算法的技术性依赖转变为价值性服从,以致越来越难逃算法的操纵与规制。人反而成了表达算法意义的工具,而所获得的研究结果或许只是算法想要我们看到的结果,并不一定是教育问题的真实反映。
二是面临理论阐释弱化的风险。基于算法的教育研究试图以相关关系取代因果關系。然而,相关关系作为一种表象的、非本质的思维路径,其回答的仅是事物“是什么”的问题,而不是“为什么”的问题,对于教育规律的揭示仍需借助于教育现象背后因果关系的解释。因果关系判断和推理是作为主体的人所具有的独特能力,更是理论阐释得以实现的基础。尽管运用算法可以对海量教育数据加以分析,并从中发现各类复杂教育行为和现象之间的相关性,但是数据相关性只是描述性的表象发现,却不能告诉我们这些现象的内在机制和运作规律,有时反而会掩盖事物的本质,从而给我们的认识过程带来误导,这也是相关性分析固有的缺陷。
(三)算法滥用:唯数据论的方法圭臬
基于数据驱动的教育研究方法论并非绝对完美,事实上隐含着唯数据论的倾向。如过分夸大数据在研究中的价值,一味强调“数据会自己说话”,罔顾并非一切现象都能以数据形式表征的客观事实和应用限制;又如盲目扩大算法适用范围,简单将“量大”等同于“质优”,以数据规模代表数据的有效性和正确性。唯数据论的倾向致使人们无法客观识别算法滥用对教育研究结果和过程造成的潜在风险。具体表现为:
一是数据噪声导致研究结果偏差。数据噪声是指在获得的总体数据中存在着偏离期望值的异常乃至错误的数据,这些数据会影响算法模型的性能,从而大大降低模型在研究结果分析上的准确性。数据噪声是不可避免的,大数据技术在捕捉所谓有研究价值数据的同时,也将个体日常生活中无意义的情节、社会活动中非目的性活动、人际交往中偶然性事件等数据信息一并囊括其中。同时,当教育卷入一种虚拟与现实并行的智能生活模式时,个体在虚拟空间中会刻意表现出他人期待、认可或被智能技术人为设计的行为,这就造成虚拟空间与现实空间中个体心理意向、行为表现的偏差。基于此所获取的数据势必会存在偏误,而在此基础上经由算法所得到的研究结果的可靠性必然大打折扣。
二是算法黑箱导致研究过程失真。算法黑箱是指算法的计算过程犹如一个密闭而不透明的“黑箱”,人们所能看到的只是算法的输入和输出环节,却无法获知和理解算法内部的运算程序、决策机制以及目标意图。对于算法使用者而言,算法运行是看不见、摸不着的,是脱离于人的控制而独立进行的。由于算法黑箱的存在,研究者始终无法知道算法处理分析教育问题以及得出研究结论的逻辑思路和研究过程。尽管从计算主义拥护者的立场出发,科学的研究结论足以为“轻视过程”提供辩护,并默认研究过程是科学合理的[12]。但科学清晰的研究过程是保障研究可重复性和结论可再现性的基础,这也是研究信度的重要体现。而算法黑箱所造成的研究过程的不透明性、不可理解性,却加剧了教育研究的信度危机。
(四)算法歧视:看不见的教育非正义
尽管基于算法的教育研究总是试图借用技术优势将自身标榜为客观、公正的化身。但是,作为人类思维外化的产物,算法却存在固有的偏见属性。同时,随着算法决策深度介入教育研究和教育管理的各个领域,算法歧视得以潜藏于算法模型和数据代码之中,以更加隐蔽、不易察觉的方式影响教育生活,并持续生产偏见,导致对教育主体或教育问题的差别对待,侵害教育利益相关者的权益和尊严,进而造成教育偏见和决策误判,引发教育非正义的伦理风险。具体表现为:
一是引发教育偏见。算法模型的建立依赖于教育大数据,但并不是所有的数据都会被纳入模型的演算之中,能够作为模型基础数据的都是那些“训练数据”。训练数据往往是在数据挖掘阶段出现频率高的数据,这些数据与数据模型性能直接相关,是算法预测分析过程中使用的关键元素,也是构成算法推荐的基础。一旦训练数据中涵盖错误的、片面的或带有歧视的成分,或捕捉范围是具有偏见意识人群的样本,则建立的模型也会带有先天的歧视和偏见,由此所输出的结果也会体现出价值偏见,从而导致研究结论的片面、失实。
二是引发决策误判。算法决策的本质是在过去数据基础上对未来作出预测。然而,过去数据是基于过去教育情境形成的,当我们用这些数据所建立的模型去分析处于新的教育情境中的问题和现象时,可能会水土不服,从而无法对当下问题作出准确的判断和预测,甚至会导致决策失误。同时,对算法模型的过度依赖可能会弱化研究者的批判意识,全盘接受由算法生产的各种研究结论和趋势预测而全无价值判定和取舍,隐藏着极大的误判风险。此外,算法本身具有价值负载性,算法设计者的价值立场或社会偏见也会不自觉地嵌入模型之中,从而影响结果公正。
四、规制策略:教育研究的算法之“位”
为有效推动教育研究的数字化转型,必须对基于算法的教育研究所存在的潜在风险加以规制,让算法在合理轨道上运行,而不越“位”,从而使其真正发挥驱动教育变革和塑造研究新范式的作用。
(一)嵌入基于人文主义的研究立场
教育研究本质上是科学性与人文性相统一的活动,并由此形成了科学主义和人文主义两种传统研究立场。两种立场虽各有侧重,但不可割裂,且以人文主义为基础。正如有学者所言,“教育研究离不开思想性与人文性,甚至它的实证与科学化也要以人文性为前提。过于倚重实证、量化、技术及其效率,教育研究过程就有可能沦陷于机械化的工具与程序,势必偏离了以人的存在为目的的教育本身”[13]。尽管算法正深刻改造着教育研究范式与思维方式,但这种改造不能违背人存在的意义。为此,基于算法的教育研究必须嵌入人文主义价值立场,以此破除对“量化一切”的过度膜拜。首先,“必须承认算法不是全能的,并停止科技乌托邦的幻想,即无根据地寄希望于用算法解决一切问题”[11]。算法研究是有限度的,其发挥作用有其特定时空限制,研究者不能无限夸大算法能力。算法研究也只是多种教育研究范式中的一类而已,凭其一己之力无法完全解释整个教育世界。其次,基于算法的教育研究要指向人的发展,在对教育问题进行技术化审视和诊断的同时,更要关注人的意义的探讨,要从文化和人文层面探讨影响教育问题演进的各种情感、个性等非理性因素,将教育研究引入更为广阔的人文性视野思考框架之中。此外,为避免人文主义倾向的研究陷入碎片化、个体化的境地,基于算法的教育研究必须符合所处时代社会文化语境的要求,对人文化场景中的人、物、事进行整体性研究,并借助算法技术手段,實现由个体经验、感受、判断上升到对社会意义、群体意义的建构上,从而建立科学性与人文性的关联渠道,实现人文性与科学性的统一。
(二)实现基于主体间性的“人—算”协同
在基于算法的教育研究中,之所以会存在人之主体性被算法理性僭越的风险,其根本原因在于人与算法关系的异化和错位。为此,要规制算法理性风险,必须科学理解和定义人与算法的关系,并在此基础上,实现人之主体性的回归。具体而言:一方面,在认知层面重塑人与算法的主体间性关系。人与算法的关系不是简单的主体与客体、改造与被改造的关系,而是一种主体间性关系,其所要达成的是人与算法的协同共生。人之主体性的真正回归并不是将算法置于人的强力控制之下,而是在承认算法的智能化、类人化特性基础上,赋予算法智能主体身份,实现人与算法的有机结合,从而形成一种“新形态的认识主体”[14]。“人—算法”作为一种新形态的认识主体,其目的不是要创造一个所谓的“人工认识主体”,而是要利用算法弥补人之局限,进而拓展教育研究的深度和广度,同时又利用人的意识洞察和纠正算法表征结果中的偏见和误识。另一方面,在实践层面实现相关表征与因果推理的协同互促。教育研究中主体性的回归还体现在对算法表征结果的阐释上,即研究者要在相关关系分析基础上,论证其因果推理和判断。就教育研究而言,相关关系是应对复杂系统的一种横向思维方式,而因果关系则是应对现实情境的一种纵向思维方式。这两种思维针对不同教育问题,且分属不同思维向度,不存在替代可能。因此,基于算法的教育研究不仅要关注相关,而且要探明相关背后的深刻原因。这既是去伪存真、剔除假相关的过程,也是揭示教育规律和生成教育理论的必然历程。
(三)推进基于数据效能的算法公开
防范算法滥用风险是实现教育数据价值最大化,推进算法在教育研究领域科学高效运用的关键。而保障数据导向正确、安全可控,算法公开透明、监管有序是规避算法滥用带来的风险隐患的有效举措。具体而言:一是规范数据质量监控机制。建立涵盖教育数据获取、收集、存储、使用、分析等整个数据生命周期的全链条、全流程质量管理体系。研究者要避免“贪大求全”“量大则质优”的算法研究误识,并以教育研究问题域为基准确定数据获取的范围、规模、对象、标准等;要构建数据质量校验的模型方法,并据此甄别和清理无效数据、冗余数据、僵尸数据、冷数据等,从而确保数据质量和安全使用。二是健全数据隐私保护机制。教育数据的获取与处理必须遵守伦理规约,要保障原始数据权利人(如教师、学生、学校等)的知情权,只有在获得其授权情况下才能对教育数据加以采集、使用或共享。同时,针对师生个人身份信息、兴趣行为偏好、成绩考评、学籍学历等敏感数据,要构建教育系统敏感数据安全储存和传输机制,保障隐私信息、敏感信息不被篡改、窃取、盗用、泄露等。三是建立算法程序公开机制。尽管算法黑箱本质上并非人为刻意制造,而是由算法自身的隐蔽性技术特征导致的。但这并不意味着算法黑箱是无解命题,人们通过开源技术手段能够在一定程度上实现算法程序的透明与公开。基于算法的教育研究要及时、合理、有效地公开研究过程中的算法原理、维度变量、模型参数、决策标准等信息,并建立算法研究程序解释机制,对数据处理、决策过程及应用情况加以解释说明,从而提升研究公信力。同时加强算法程序公开的监督审查,有学者提出,“由学校、教师、家长、政府等教育利益攸关方组成一个监督委员会,对算法教育程序合理公开加以审查”[15],这不失为一个可行举措。
(四)重塑基于教育逻辑的算法正义
算法秩序的构建并不只是一个技术问题,而是一个实实在在的社会正义问题[16]。而算法歧视却是对社会正义评价的扭曲。为此,基于算法的教育研究必须重塑教育世界的算法正义空间和秩序,最大限度地减少算法偏见和歧视,保障教育主体的平等权利,维护教育公平正义。具体而言:一是要以正义原则引领算法运行。算法应用于教育研究要以实现算法效率和保障个人权利与自由为基本准则。为此,要将算法正义贯穿于教育研究算法设计、数据挖掘、结果输出等全过程,以正义价值防范算法权力的无限扩张,规避算法霸权对教育价值的侵蚀以及对弱势群体的歧视,保障教育决策和行动的正义性与公平性。二是要以教育逻辑规制算法设计。任何形式的教育研究都必须以教育的本质属性为逻辑基础,这是确保教育研究独立性,避免成为其他学科附庸的前提。基于算法的教育研究要坚持教育逻辑,而不是算法技术逻辑,即要由教育的需求决定选用何种适合的算法,而不是由算法决定何种教育才是适合的教育。也就是说,教育算法必须是基于教育实际问题和应用场景的“原创者”,而不是做其他领域应用场景的“跟随者”[17]。这是解决算法歧视的根本所在,只有如此才能保障以教育思维去思考教育问题,而避免算法逻辑的宰制与操控。三是要以监测机制服务算法决策。实现以算法为核心的教育自动化决策是算法参与教育治理的重要方式,也是基于算法的教育研究的内在追求。但算法决策却潜藏误判风险。为此,有必要加强对算法决策过程及实践应用的动态监测,及时发现和预警偏离教育现实或引发教育行动偏差的情况;同时建立算法决策纠偏机制,及时调整教育政策或措施,并对教育预测模型加以修正。
[參考文献]
[1] 俞宣孟.本体论研究[M].上海:上海人民出版社,2012:19.
[2] 张羽,刘惠琴,石中英.指向教育实践改进的系统范式——主流教育研究范式的危机与重构[J].清华大学教育研究,2021,42(4):78-90.
[3] 李建会,符征,张江.计算主义:一种新的世界观[M].北京:中国社会科学出版社,2012:2-5.
[4] 肖峰.人工智能与认识论的哲学互释:从认知分型到演进逻辑[J].中国社会科学,2020(6):49-71.
[5] 邓国民.智能时代教育研究的认识论变革与方法论转变[J].现代教育技术,2020,30(5):26-32.
[6] 佩德罗·多明戈斯.终极算法:机器学习和人工智能如何重塑世界[M].黄芳萍,译,北京:中信出版社,2017:33.
[7] 邹太龙,易连云.从“始于假设”到“基于数据”——大数据时代教育研究范式的转型[J].教育研究与实验,2017(4):74-79.
[8] 刘三女牙,周子荷,李卿.再论“计算教育学”:人工智能何以改变教育研究[J].教育研究,2022,43(4):18-27.
[9] 万力勇.算法时代的教育预测及其研究范式转变[J].远程教育杂志,2022,40(3):35-44.
[10] 孙周兴.人类世的哲学[M].北京:商务印书馆,2018:85.
[11] 凯西·奥尼尔.算法霸权:数学杀伤性武器的威胁[M].马青玲,译.北京:中信出版社,2018:201,243.
[12] 靖东阁.人工智能时代教育研究的计算主义及超越[J].电化教育研究,2021,42(2):18-24.
[13] 阎光才.如何理解中国当下教育实证研究取向[J].大学教育科学,2020(5):4-11.
[14] 王治东.人工智能研究路径的四重哲学维度[J].南京社会科学,2019(9):39-47.
[15] 肖凤翔,张双志.算法教育治理:技术逻辑、风险挑战与公共政策[J].中国电化教育,2020(1):76-84.
[16] 董青岭,朱玥.人工智能时代的算法正义与秩序构建[J].探索与争鸣,2021(3):82-86.
[17] 谭维智.人工智能教育应用的算法风险[J].开放教育研究,2019,25(6):20-30.
Algorithmic Logic, Possible Risks and Regulatory Strategies of
Educational Research in the Era of Artificial Intelligence
YIN Zubao, RONG Zhongkui
(Research Institute for Rural Education, Hunan Normal University, Changsha Hunan 410081)
[Abstract] In the context of digital transformation of education, algorithm-based educational research has shown a booming trend and is driving the transformation of educational research from empirical analysis based on individual data to intelligent prediction based on massive relational data. Algorithm-based educational research has a unique operating logic, which is manifested as the research ontological prescriptions of computationalism, the research epistemological presuppositions of algorithmic representations, the data-driven research methodological practices, and the research axiological appeal of model prediction. However, algorithm-based educational research also faces potential risks such as the cult of the algorithm that quantifies everything, the arrogation of individual subjectivity, the principle of data-only method and the injustice of educational research. In order to prevent and resolve algorithmic risks, it is necessary to establish corresponding regulatory mechanisms, including adhering to a humanistic research standpoint, constructing an intersubjective "human-algorithm" cooperative relationship, promoting an algorithm openness based on data efficiency, and reshaping the algorithmic justice based on the logic of education.
[Keywords] Artificial Intelligence; Educational Research; Algorithm; Algorithmic Risk