智能技术赋能虚拟科学探究学习过程评价与适应性反馈研究
2024-05-17郑娅峰
[摘 要] 虚拟科学探究学习过程的自动评价和适应性反馈是提升探究学习效果的重要支撑手段。研究首先从虚拟科学探究学习过程要素表征和分析模型、自动分析与实时评价、适应性反馈三个方面概述了智能技术在虚拟科学探究学习中的应用现状,总结了当前技术应用面临的深层次探究要素表征难、不确定探究过程刻画难、适应性反馈生成难等现实挑战。其次,在此基础上,提出了基于活动流的底层计算模型构建、复杂探究过程动态监测与自动评价、可解释性归因的自适应反馈内容生成三个关键技术。再次,基于关键技术设计了虚拟科学实验自主探究学习平台的技术架构。最后,研究总结了当前研究的创新之处并提出未来建议,为智能技术赋能虚拟科学探究学习领域开展更深入的技术探索提供有益参考。
[关键词] 智能技术; 虚拟科学探究学习; 过程评价; 适应性反馈; 平台设计
[中图分类号] G434 [文献标志码] A
[作者简介] 郑娅峰(1979—),女,河南洛阳人。研究员,博士,主要从事在线学习分析、教育数据挖掘、人工智能赋能科学教育研究。E-mail:zhengyafeng@bnu.edu.cn。
一、引 言
让学生参与科学探究学习是当前全球科学教育改革的核心[1],是实现我国基础科学教育目标和公民科学素养提升的关键路径。近年来,基于计算机仿真等虚拟实验环境开展科学探究学习(简称“虚拟科学探究学习”)成为国际科学教育发展的重要趋势。然而,实现高质量虚拟科学探究学习并非易事[2]。虚拟科学探究学习具有环境复杂度高、教学交互度强和学习路径开放等特征,使得学生在虚拟科学探究学习中存在實验资源利用率低、学习投入不足、学习体验不佳等现实问题[3]。
已有研究表明,采用智能技术对科学探究学习中学生的探究行为、认知水平、情感态度等深度学习要素进行实时监控和问题诊断,并提供及时的个性化反馈,可以有效提升学生实验技能、学习兴趣和学习效果[4],但国内外尚无在虚拟探究学习领域的系统化研究。因此,本研究通过对虚拟科学探究学习进行现状和现实挑战的分析,提出解决问题的关键技术方案。并以此为依托,自主研制“小水滴虚拟科学实验自主探究学习平台”,为该领域开展更深入的技术探索提供有益参考。
二、研究现状
(一)虚拟科学探究学习过程的要素表征和分析模型研究
针对虚拟科学探究学习复杂的交互过程,构建有效的过程分析模型是准确理解学生探究学习中技能习得、认知发展和情感状态的基础。现有针对科学探究学习的理论模型多集中在探究能力评价模型,常采用描述性语言构建总结性评价体系[5]。如李春密等从科学内容、科学过程和科学品质三个维度构建了包含科学现象、科学概念、提出问题、深刻性、灵活性等15个二级因子[6]。李英明构建了包括知识与技能、科学探究过程、情感态度与价值观3个一级维度以及学科知识、实验技能、探索调查等11个二级维度的理论模型[7]。尽管现有研究基于科学探究表现构建了比较全面的探究能力评价维度,但由于分析维度主要采用了描述性语言刻画,适用于领域专家人工编码和评价,难以客观描述科学探究行为的动态变化过程。因而无法对虚拟科学探究学习过程进行定量、连续和伴随式的实时自动刻画[8]。
近年来,部分学者针对学生科学建模、实验操作和科学论证等关键环节的行为特征,提取关键过程要素进行自动化建模研究[9]。如Mulder等人基于学生科学建模过程的日志数据,从变量命名、关系设置和类型选择等要素对科学建模质量进行自动化评价[10]。Jiang等人将虚拟环境中的实验技能刻画为实验设置、观察和证据记录三个要素,并具体化了要素涉及的移动温度计、保存图片等9种实验操作行为[9]。针对科学论证环节,Mao等人构建了科学声明、证据解释、不确定性评级和不确定性推理四个分析要素[11]。但是这些模型大多只针对虚拟科学探究学习的单一环节,缺少虚拟科学探究学习全过程、内隐特征要素的全面刻画。
(二)智能技术赋能虚拟科学探究学习过程自动分析与评价
与一般在线学习系统遵循固定学习流程不同,虚拟科学探究学习具有开放性、自主性的特征,学习路径具有不确定性,探究行为和学习产出都表现出明显个体差异性,因而虚拟科学探究过程难以通过传统统计分析方法精准分析和评价[12]。
机器学习(ML)算法在识别和检测学生科学探究中复杂的行为、认知和情感状态的潜力已经受到部分研究者的关注[13]。当前ML算法主要用于分析虚拟科学探究学习中仿真实验操作和科学论证环节。其中,仿真实验操作分析主要是基于大量学生与实验系统交互的行为操作和探究轨迹,利用样本熵等方法对学生的实验操作正确性[14]、仿真实验行为模式[15]等进行实时分析与诊断,有效识别出学生的实验技能水平或认知状态。科学论证过程分析与评估主要采用文本自动评分技术对论证文本实现自动评价。目前,常用科学论证文本评分技术包括支持向量回归(SVR)、支持向量机(SVM)、决策树(DT)等机器学习方法。如著名的ETS(Educational Testing Service)机构开发的c-rater-ML就使用SVR技术对学生的论证文本和分数映射关系进行建模,并得到广泛应用[16]。此外,鉴于学习情感和态度是影响探究学习效果和高阶思维能力的重要因素,基于文本的情感分析也是虚拟科学探究学习过程分析的新兴领域[17]。近年来,基于机器学习的文本情感、文本意图分析研究取得了显著成果,但目前虚拟科学探究学习领域对情感态度的分析还主要基于学生自我反馈报告,难以实现对探求欲、情绪调节等隐性特征的自动分析和识别。此外,已有研究多数基于特定的主题和任务环境,难以适应科学探究中多种主题场景的泛化要求[2]。
(三)智能技术赋能虚拟科学探究学习过程的适应性反馈研究
在科学探究学习过程中为学生提供可解释、可理解的归因性反馈,对于实时开展精准教学干预、提升科学探究学习效果至关重要[18]。机器学习技术的发展为探究过程的实时反馈提供了新思路和有效途径。一些研究使用机器学习方法为学习者提供实验操作行为、科学论证过程的反馈和指导。如Chen等人针对学生在虚拟科学探究中的实验流程错误和科学知识欠缺等问题提供及时的问题反馈和操作引导[19]。Zhu等人采用机器学习对学生的科学论证文本进行评分并提出改进建议,促进学生对科学论证文本的不断修改完善[16]。除此以外,评估结果还常常与可视化呈现相结合,为学生提供关于学习过程和进展的反馈[20]。这些研究表明,基于机器学习的科学探究评估与反馈具有支持适应性学习的潜力,且通过可视化方法能够更好地传递过程状态信息和指导建议。然而,已有研究的不足之处在于仅将分析或预测的结果直接反馈给学生,而未能解释其背后的原因[21]。尽管此类反馈对指导学生的探究行为具有一定的促进作用,但研究发现,简单的模式化反馈与错误提示,难以真正促进学生深层次的观念转变和知识理解[22]。如Mao等人对论证文本得分相同的学生给出同样的反馈内容,但实际中相同分数的学生在观点提出、证据使用等诸多方面存在差异,仅仅呈现固定分数对应的反馈建议仍无法指导学生进行精准有效地修改[11]。
三、现存挑战
(一)细粒度、深层次的探究要素难以动态表征与建模
从分析维度来看,当前研究仅从科学论证或科学建模等单一视角对探究过程要素进行静态描述性定义,存在要素边界不明确、视角维度单一、多指向静态能力水平表征等问题。从量化表征来看,缺乏对探究学习过程行为、认知、情感等要素的全面刻画,且常用的描述性语言刻画,难以满足实时自动化分析需求。因此,如何从探究学习理论和教学实践需求出发,合理构建全过程、全维度、可计算的虚拟科学探究学习过程分析模型和要素量化表征方法,是当前研究领域具有挑战性的研究难点之一。
(二)开放性、不确定性的探究过程难以刻画和揭示
现有针对虚拟科学探究学习过程的自动分析仍以浅表性过程数据分析为主,较少对探究过程中的实验操作、科学论证、反思交流等重要环节进行有效的动态分析和评价,难以刻画学习者实验技能、认知发展、情绪调节等隐性特征行为。更进一步,大多数已有分析方法都建立在特定的探究主题和任务环境下,难以迁移到不同的主题场景下。因此,如何综合运用人工智能领域的文本分类、动态贝叶斯行为建模等技术方法,突破主题局限,实现对不同主题探究过程的全面刻画和规律揭示是当前研究面临的重要挑战。
(三)可解释、适应性的反馈建议难以自动生成
已有虚拟科学探究学习过程自动反馈内容大多是通用的固定反馈,导致反馈服务存在针对性低、理解困难等问题,未能满足虚拟科学探究个性化动态反馈需求。另外,现有反馈以直接的结果指导为主,缺少对探究过程的解释和建议,无法支持学生有效改进科学探究行为[23]。如何对探究过程的自动化评价结果进行可解释归因,从而实现高适应性的个性化反馈,是这一领域的重要挑战[24]。
四、关键技术路径
面对复杂的虚拟科学探究学习过程,构建全过程、多要素、可计算的分析模型,依据分析模型对复杂探究过程进行实时分析、精准评价,提供适应性反馈,促进探究学习效果的提升,是智能技术赋能虚拟科学探究学习过程的关键技术问题。其关键技术路径如下:
(一)基于活动流的底层计算模型构建
针对开放复杂的虚拟探究学习过程关键环节和内在要素,需要构建虚拟科学探究学习过程计算模型。计算模型以探究操作为依据,应明确定义流序列的动词(Verb)库和对象(Object)库内容,形成针对交互操作的活动流实例,实现关键交互操作和深层学习状态的多维联结,为复杂的虚拟探究过程提供统一的计算模型和形式化规约。
构建过程包含以下三个环节。首先,虚拟探究学习过程的底层活动流参考Experience API(xAPI)标准规范,以“角色(Actor)+动作(Verb)+对象(Object)+时间戳(Timestamp)+结果(Result)+情境(Context)”六元組进行刻画,即:
(二)复杂探究过程动态监测与自动评价
探究学习行为建模面临的最大挑战是探究行为高度不确定性。由于动态贝叶斯网络可用于模拟不同时刻中变量的相互依赖关系,表示不确定的知识并执行推理计算,且其概率推理可以实时发生。因此,可以利用动态贝叶斯网络为复杂探究过程动态监测和自动评价提供关键技术支撑。具体技术路线包含静态贝叶斯网络构建、动态贝叶斯网络构建、关键探究路径挖掘、实验技能自动评价四个主要步骤。
第一,静态贝叶斯网络构建。利用专家先验知识依据具体探究主题任务确定探究操作、事件和技能之间的关系,并将探究操作、事件和子技能分别置于网络的不同层次和分支,用以反映操作和子技能之间的关系,其中将实验技能作为顶层节点,构建初始静态贝叶斯网络。第二,构建动态贝叶斯网络。在所构建的静态贝叶斯网络结构基础上,进一步表征相邻时刻操作、事件、子技能之间的影响关系,构成转移网络,并与静态贝叶斯网络共同构成初始的动态贝叶斯网络结构。同时,为方便后期推理,需要进行动态贝叶斯网络的参数学习,即构建条件概率表。第三,挖掘关键探究路径。关键探究路径挖掘将利用互信息值筛选出当前时刻对整体学生实验技能评分影响最大的操作序列,进而对比学生个体操作序列发现学生已完成的关键探究路径。具体实施时,首先计算t时刻下各操作与实验技能之间的互信息值。设置互信息阈值,仅保留互信息值超过阈值的操作,将保留的操作按照互信息值大小排序,得到t时刻个体学生的关键操作序列。其次,检查t时刻个体学生操作序列中的每一个操作,若其在关键操作序列中,则将该操作并入该学生已完成的探究操作序列,最终获得学生关键探究路径。第四,实验技能自动评价。实验技能评价是利用动态贝叶斯网络以当前时刻t学生关键探究路径为依据,评估其当前时刻下各项技能的掌握程度。具体做法是将该学生当前关键探究路径作为新证据输入动态贝叶斯网络,计算在新证据的条件下t时刻实验技能的后验概率,从而评估个体在t时刻的技能水平。
(三)可解释自适应反馈内容自动生成与调节支持
为形成准确的适应性反馈,可以依据学生当前探究路径和技能水平,利用联合树计算该技能水平下每个操作或事件的后验概率并排序,获得影响学生实验技能水平的关键影响因素,形成准确的问题归因。具体做法上可以将学生t时刻时探究子技能或总技能作为证据加入联合树,求得当前在该技能水平下任一操作行为发生的后验概率,依据后验概率大小能够判定当前达成该技能水平的关键影响因素及其重要性排序。利用评价数据和可解释的归因数据就可以进行反馈文本的自适应生成。反馈文本的生成过程可以看作是通过某种处理方式将反馈模板中的可变信息与输入数据进行匹配的过程,从输入数据中找到需要的信息,填充至模板规定位置。这种方法具备可解释性与可控制性,更容易保证生成文本的正确性和规范性。如基于规则的定制反馈模板可以是:“你在实验技能上表现{实验技能水平},{提出假设表现的映射词}地提出假设,{仪器使用表现的映射词}地使用仪器,但你还需要{变量选择表现的映射词}选择变量,并{数据整理表现的映射词}进行数据整理,以帮助你更好的分析实验结果”。其中,{}内的内容为可变项,生成文本时根据过程評价和归因挖掘后输入数据的具体取值,匹配规则映射形成文本表述填入。在此基础上,可以利用专家经验,形成不同的调节支持策略,将反馈文本在不同的触发条件下以智能代理的形式推送给学习者,实现教学主体与智能分析引擎的相互合作,共同实现对教学过程精准分析与结果呈现,完成复杂任务决策并优化教育教学过程。
五、智能技术支持的虚拟科学探究学习
平台架构
依据上述关键技术,结合探究教学的要求,本研究基于自主研发的“小水滴虚拟科学实验自主探究学习平台”开展技术整合。整合后的平台架构设计如图1所示:(1)在应用层,智能对话、调节配置、可视分析、探究设置、自动反馈、探究评价六个功能构建了完整的应用。前端使用Vue,ElementUI技术栈进行功能布局和展示;(2)在通用配置层,主要通过前端发送请求到后端,后端协议解析并权限验证,保证接口的安全性。前端会将学生的所有信息发送至后端,进行数据采集,同时对学生的所有行为进行调度和分析;(3)在业务层,主要包含评价计算、反馈生成、评价归因三大模块。其中,评价计算模块主要使用基于贝叶斯网络的关键路径挖掘,通过关键路径获得过程评价数据。反馈生成模块结合定制的反馈模板和映射规则,形成自适应的反馈内容。评价归因模块主要通过基于联合树推理的关键因素归因,获得评价数据计算背后的最关键影响因素,并将关键因素归因数据和评价数据传递给反馈生成模块;(4)在数据层,对采集到的学生数据进行缓存,以应对高并发的情况,用Mybatis Plus框架将数据持久化,存至MySQL数据库中。同时,所有行为活动流都以xAPI规范进行记录,然后传送到学习记录存储(LRS)中。将课件PPT、文档、题目、图片等存储到OSS中。平台应用NodeJS为开发的主要语言,在代码管理中,前端使用NPM进行管理和打包,后端使用Maven进行管理Jar包和版本控制,使用Docker进行环境搭建和打包。
基于该平台,学生可开展科学探究自主学习,在技术支持下完成预测、探究、解释、反思等多种学习活动任务。在这个过程中,系统整合教师反馈策略,依据反馈策略基于学生答题情况进行自动判断,并给予反思性、解释性等多种反馈。还可以基于社会调节理论,利用对话机器人,通过多种约束条件和触发策略的调节给予学生适当的鼓励与学习过程支持。
六、讨论与建议
智能技术赋能虚拟科学探究学习是提升科学探究效果,促进学生科学核心素养发展的关键。为真正解决智能技术赋能复杂探究学习的瓶颈问题,研究针对虚拟科学探究学习过程已有分析模型静态化、浅表化的局限,提出基于活动流的计算分析模型,将“行为—认知—情感”核心要素映射到统一的计算表征空间,构建了关键交互操作和深层学习状态的多维联结,实现了复杂动态探究过程建模与量化表征,在理论层面提供了虚拟科学探究学习过程分析模型建构的新理念。特别是,与以往研究中直接采集所需操作行为并进行定制处理不同[14-15],研究先设定了整个探究活动所需的角色对象、资源对象、行为动作等,并基于活动流完整地记录了整个过程的全流程信息,为后期统一的计算表征奠定了理论基础。
除此以外,当前虚拟科学探究学习行为分析研究大多数都基于特定的任务场景和环境,其方法本身具有定制性,不易扩展和迁移到不同场景的学习行为建模,这也是当前不同场景科学探究学习行为建模面临的行为不确定性挑战[25]。为了解决这一挑战,研究使用贝叶斯网络,能够用来模拟真实场景中变量的相互关系并处理不确定性这一特征[26],选用动态贝叶斯网络,并纳入专家判断,不仅提高了行为识别的准确性,且在数据样本较少的情况下也能达到较高的预测精度[27]。此外,贝叶斯网络通过标准的树状结构将可观察的特征与对应的技能进行层级关联,并在输入新的证据时以概率推断的形式立即更新结果[26],以提供实时诊断与反馈[28]。因此,这一方法针对不确定行为评价准确度低、方法可迁移性差等问题,在技术层面探索了虚拟科学探究学习过程自动分析和评价的新途径和新方法。针对虚拟科学探究学习反馈针对性低、可解释性差的问题,研究突破自适应反馈内容自动生成方法,使得可解释方法不仅仅应用于提升对分析结果的信任和归因,更是将归因结果与自动反馈文本生成技术深度融合,提升了反馈建议的个性化、精准性和适应性,在可解释人工智能与自适应反馈领域提出了新的交叉应用方法。
未来,该领域研究可以持续优化反馈的形式,通过教学智能体,生成式对话语言模型、可视化仪表板等技术深化过程监测、诊断和适应性反馈等支持服务,在自动化的对话引导、学习调节、情感支持等方面开展更为广泛的探索,更好地支持虚拟科学探究学习效果的达成。同时,还需关注学习科学、认知神经科学研究对虚拟科学探究学习平台和活动设计的驱动作用,深化以人为中心的人机智能协同的学习反馈模式,助力虚拟科学探究学习更好地服务科学教育。
[参考文献]
[1] SCHWARTZ L, ADLER I, MADJAR N, et al. Rising to the challenge: the effect of individual and social metacognitive scaffolds on students' expressions of autonomy and competence throughout an inquiry process[J]. Journal of science education and technology, 2021,30(4):582-593.
[2] LIN X, HWANG G, WANG J, et al. Effects of a contextualised reflective mechanism-based augmented reality learning model on students' scientific inquiry learning performances, behavioural patterns, and higher order thinking[J]. Interactive learning environments, 2023,31(10):6931-6951.
[3] 彭麗宇. 促进深度学习的虚拟实验教学改革[J].西南师范大学学报:自然科学版,2023,48(1):102-107.
[4] ZHU M, LIU O L, LEE H. The effect of automated feedback on revision behavior and learning gains in formative assessment of scientific argument writing[J]. Computers & education, 2020,143:103668.
[5] 刘东方.科学探究能力表现模型的建构及其在评价中的应用[J].课程·教材·教法,2018,38(9):122-127.
[6] 李春密,梁洁,蔡美洁.中学生科学探究能力结构模型初探[J].课程·教材·教法,2004(6):86-90.
[7] 李英明.虚实融合实验环境中探究式学习评价体系的构建[D].杭州:杭州师范大学,2021.
[8] DICKLER R. Using innovative methods to explore the potential of an alerting dashboard for science inquiry[J]. Journal of learning analytics,2021,8(2):1-18.
[9] JIANG S, HUANG X, SUNG S H, et al. Learning analytics for assessing hands-on laboratory skills in science classrooms using bayesian network analysis[J]. Research in science education,2023,53:425-444.
[10] MULDER Y G, BOLLEN L, DE JONG T, et al. Scaffolding learning by modelling: the effects of partially worked-out models[J]. Journal of research in science teaching, 2016,53(3):502-523.
[11] MAO L, LIU O L, ROOHR K, et al. Validation of automated scoring for a formative assessment that employs scientific argumentation[J]. Educational assessment, 2018,23(2):121-138.
[12] 张立山,冯硕,李亭亭.面向课堂教学评价的形式化建模与智能计算[J].现代远程教育研究,2021,33(1):13-25.
[13] ZHAI X, YIN Y, PELLEGRINO J W, et al. Applying machine learning in science assessment: a systematic review[J]. Studies in science education, 2020,56(1):111-151.
[14] GOBERT J D, SAO PEDRO M, RAZIUDDIN J, et al. From log files to assessment metrics: measuring students' science inquiry skills using educational data mining[J]. Journal of the learning sciences, 2013,22(4):521-563.
[15] LEE H, GWEON G, LORD T, et al. Machine learning-enabled automated feedback: supporting students' revision of scientific arguments based on data drawn from simulation[J]. Journal of science education and technology, 2021,30(2):168-192.
[16] ZHU M, LEE H, WANG T, et al. Investigating the impact of automated feedback on students' scientific argumentation[J]. International journal of science education, 2017,39(12):1648-1668.
[17] AVILA-GARZON C, BACCA-ACOSTA J, KINSHUK, et al. Augmented reality in education: an overview of twenty-five years of research[J]. Contemporary educational technology, 2021,13(3):1-29.
[18] 武法提,高姝睿,田浩.人机智能协同的精准学习干预:动因、模型与路向[J]. 电化教育研究,2022,43(4):70-76.
[19] CHEN C H, HUANG K, LIU J H. Inquiry-enhanced digital game-based learning: effects on secondary students' conceptual understanding in science, game performance, and behavioral patterns[J]. The Asia-Pacific education researcher,2020,29(4):319-330.
[20] SCHWENDIMANN B A, RODRIGUEZ-TRIANA M J, VOZNIUK A, et al. Perceiving learning at a glance: a systematic literature review of learning dashboard research[J]. IEEE transactions on learning technologies, 2017,10(1):30-41.
[21] AFZAAL M, NOURI J, ZIA A, et al. Generation of automatic data-driven feedback to students using explainable machine learning[C]//International Conference on Artificial Intelligence in Education. Cham: Springer International Publishing, 2021: 37-42.
[22] BANERES D, RODRIGUEZ M E, SERRA M. An early feedback prediction system for learners at-risk within a first-year higher education course[J]. IEEE transactions on learning technologies, 2019,12(2):249-263.
[23] SEDRAKYAN G, MALMBERG J, VERBERT K, et al. Linking learning behavior analytics and learning science concepts: Designing a learning analytics dashboard for feedback to support learning regulation[J]. Computers in human behavior, 2020,107:105512.
[24] 王萍,田小勇,孫侨羽.可解释教育人工智能研究:系统框架,应用价值与案例分析[J].远程教育杂志,2021,39(6):20-29.
[25] CONATI C, GERTNER A, VANLEHN K. Using bayesian networks to manage uncertainty in student modeling[J]. User modeling and user-adapted interaction, 2002,12(4):371-417.
[26] FAN Y, ZHANG J, ZU D, et al. An automatic optimal course recommendation method for online math education platforms based on bayesian model[J]. International journal of emerging technologies in learning, 2021,16(13):95-107.
[27] ZHOU Y, FENTON N, NEIL M. Bayesian network approach to multinomial parameter learning using data and expert judgments[J]. International journal of approximate reasoning, 2014,55(5):1252-1268.
[28] TADLAOUI M A, AAMMOU S, KHALDI M, et al. Learner modeling in adaptive educational systems: a comparative study[J]. International journal of modern education and computer science, 2016,8(3):1-10.
A Study on the Process Evaluation and Adaptive Feedback of Virtual Science Inquiry Learning Enabled by Intelligent Technology
ZHENG Yafeng
(Center for Educational Science and Technology, Beijing Normal University, Zhuhai Guangdong 519087)
[Abstract] Automatic evaluation and adaptive feedback of virtual science inquiry learning are important supporting means to improve the effectiveness of inquiry learning. Firstly, this study outlines the application status of intelligent technology in virtual science inquiry learning from three aspects, namely, the element representation and analysis model, the automatic analysis and real-time evaluation, and the adaptive feedback. And this study summarizes the practical challenges faced by the current application of the technology, such as the difficulty in deeply exploring the element representation, portraying uncertain inquiry processes, and generating adaptive feedback. Secondly, on this basis, three key technologies are proposed: the construction of underlying computing model based on activity flow, the dynamic monitoring and automatic evaluation of complex inquiry process, and the generation of self-adaptive feedback content with explainable attribution. Thirdly, based on the key technologies, a technical architecture of the independent inquiry learning platform for virtual science experiments is designed. Finally, the study summarizes the innovation of the current research and puts forward future suggestions to provide a useful reference for further technical exploration in the field of virtual science inquiry learning enabled by intelligent technology.
[Keywords] Intelligent Technology; Virtual Science Inquiry Learning; Process Evaluation; Adaptive Feedback; Platform Design