数据驱动的数学试题难度预测
2019-05-15陈恩红
佟 威 汪 飞 刘 淇 陈恩红
(中国科学技术大学计算机学院 合肥 230027)
教育是人才培养的重要途径,而考试自古以来就是评价教育成果、进行人才选拔的重要方式,在国家经济社会发展中发挥着重要的作用.党和国家高度重视教育工作,提出了加快建设教育现代化、建设教育强国以及办好人民满意的教育的总体要求.新时代的教育考试改革要紧密结合当前和今后一个时期国家和社会层面对人才价值的需求和判断,紧密结合先进的信息技术手段,为新一轮高考改革和政策制定提供更多的体现着中国智慧的中国解决方案.
长久以来,试题难度,特别是高考试题难度,都是教育考试国家题库建设,甚至全社会重点关注的指标参数,对保障考试安全平稳顺利实施、服务高校人才选拔、合理引导中学教学都有关键影响.如今教育越来越受重视,对教育质量的要求逐渐增加,如何高效、准确地评估试题难度自然也成为了一个重要的研究问题.
传统方法中,试题难度评估大多是由人工进行[1].通常考试的命题人员和审校人员由具有充足专业知识和丰富教学经验的老师或专家担任,在设计试题时除了考虑涵盖的必备知识和关键能力等内容相关的属性和维度,也需要控制试题难度在合理范围,命题和审校人员以自身知识和经验评估试题难度.另外也有以试测的形式请部分样本学生试做样题,根据学生实际答题情况评估试题难度,之后对样题稍作更改和重组投入使用,例如TOEFL考试和SAT(scholastic assessment test)考试题等[1].
在教育数据挖掘领域,试题评估是一个重要的研究方向,现有方法已经对试题多种参数(如难度、区分度、猜测度等)进行了评估分析[2-3].其中应用最为广泛的是来自教育心理学的认知诊断理论.认知诊断通过利用学生答题记录对学生试题得分进行建模,从而评估试题参数和学生能力.常见的认知诊断模型包括基于项目反映理论(item response theory,IRT)[4]的潜在特质模型和以DINA(deterministic inputs, noisy “and” gate)模型[5]为代表的潜在分类模型等.其中IRT通过类逻辑斯蒂回归模型,结合学生的潜在能力,可以评估试题在难度、区分度和猜测度属性上的数值;而DINA进一步结合Q矩阵(或称“试题关联知识点矩阵”),且将学生能力描述成多维知识点掌握向量,建模学生得分,可以得到试题失误率、猜测率等参数.其中Q矩阵是人工标注的用以表示试题包含知识点的矩阵.表1是一个简单的Q矩阵示例,其中每一行代表一个试题,每一列代表一个知识点.如表1第1行表示试题q1包含知识点s1和s4,但不包含知识点s2和s3.Q矩阵的完备性将影响到建模结果的准确性,然而Q矩阵通常由人工提供,因此其完备性也常常难以保证.另外,也有学者通过特征工程的方式,提取试题诸如考察点、迷惑性、复杂性等特征后利用机器学习方法(如线性回归、神经网络等)实现难度预测[1,6].
Table 1 Example of Item Associated Q-matrix表1 试题关联知识点Q矩阵示例
然而,不论是传统的人工评估,还是现有的认知诊断或机器学习建模,在国家教育日益深化改革的背景下,应对试题难度预测这个问题上,都有各自的局限性,具体体现在3个方面:
1) 人力、时间消耗大.人工的试题难度评估较为耗时耗力,而入库试题资源量庞大,且某些学科试题更迭频繁,这些都使得纯人工的试题难度预测变得不切实际.且认知诊断中的Q矩阵也由人工标注,同样需要消耗较多的人力与时间.
2) 对先验知识的依赖.人工的试题难度评估结果除试题本身外,很大程度上依赖于评估者自身的水平和对试题的认知程度;同样,认知诊断模型通常也需要预先提供试题的Q矩阵.这些都使得评估或预测结果客观性或准确性不足.
3) 特征工程中人工定义的特征较为缺少试题语义,是试题的浅层表示.且部分特征(如试题复杂性、灵活性、干扰性等)的判定仍然需要人工进行,非客观性和界限模糊等问题同样存在.
我国国家考试具有高利害性、社会关注度极高等特点,很难通过考前试测等方式提前获取试题难度参数,目前仍然按照传统的试题难度评估方式,由人工进行[1].随着大数据、人工智能时代的到来,众多先进的机器学习、深度学习算法为国家题库现代化建设和入库试题的难度参数估计赋予了更多方法和途径.基于人工智能的试题难度预测以往年产生的大量数据作为训练样本,能够有效解决试题安全保密要求和试测曝光两者之间的矛盾,有效调整传统人工估计难度中存在的偏差和波动.要实现高效、准确的试题难度评估,需要解决3个挑战:
1) 如何从包含复杂语义的试题文本出发,挖掘其中可用于难度预测的重要信息.高效的试题难度预测自动化方法应尽量避免知识点标注等人工劳动,因此要求模型具有较强的文本信息挖掘能力.
2) 如何减少人工干预,使得评价结果更加客观.诸如试题知识点标注或经验性的特征设计等都难以避免地引入个人倾向,使得结果客观性难以保证.
3) 如何克服不同考生群体在不同试卷版本中作答数据的比较.这些数据得到的试题得分率往往具有样本依赖性,实际难度差异很大的试题从数据呈现的结果来看可能非常接近,反之亦然.如果不能克服这个问题,预估结果会出现很大误差.
各项考试,特别是国家考试,都在一定程度上存在此类问题.本文从数学试题难度预测着手,提出了针对数学试题的模型C-MIDP(CNN for mathematical item difficulty prediction),R-MIDP(RNN for mathe-matical item difficulty prediction)和H-MIDP(hybrid model for mathematical item difficulty prediction),利用试题文本和学生答题记录进行难度预测.3种模型均为神经网络结构,其中C-MIDP以CNN(convolutional neural network)为基础,R-MIDP以RNN(recurrent neural network)为基础,H-MIDP则为二者的混合模型.难度的预测分为3步:1)使用word2vec词向量对训练集的试题文本进行表征,作为模型输入.以word2vec词向量构建的试题表征,可以较好地保留试题语义,使得神经网络能够基于试题文本自身挖掘出重要信息,同时保证客观性.2)从答题记录中获取各场考试中试题的得分率,考虑得分率的适用范围,设计context相关的方式进行模型训练,将“以偏概全”变为“以小见大”.3)将需要预测难度的试题文本进行表征,输入到训练好的模型中,获得难度预测值.本文的主要贡献点有3个方面:
1) 提出针对数学试题的难度预测模型,实现高效的数学试题难度预测,并在真实数据集上取得了较好的实验结果;
2) 模型是数据驱动的,训练和预测都不需要人工提供关于试题的先验知识,提高了预测结果的客观性,且因减少了人工参与因而提高了预测效率;
3) 考虑到不同考试中学生群体能力的差异性,训练时采用的是context相关的训练方式,提高了预测的准确率.
1 相关工作
本节将从难度预测和文本建模2个方面介绍相关工作.
1.1 难度预测
传统教育中,难度评估大多是人工进行的.教育者利用自己的知识储备和教学经验评估试题难度,以设计或选择合适的试题,评估的结果通常随评估者知识、经验的差异出现不同.
在教育学领域中,有学者研究影响试题难度的具体因素,如Beck等人[7]认为试题特征和学生能力都是试题难度的影响因素.在试题方面,Kubinger等人[8]指出试题类型、试题结构以及知识深度等因素都与试题难度有关;而在学生能力方面,也有许多理论和模型被提出,其中认知诊断是重要的研究方向,其目标是利用试题和学生的答题记录,对学生的学习过程进行建模,挖掘学生对知识或技能的掌握程度.
在教育数据挖掘领域,认知诊断是一类重要的研究方向,其目标是利用试题和学生的答题记录,对学生的学习过程进行建模,挖掘学生对知识或技能的掌握程度,从而通过能力分析、试题推荐、学生分组等方式优化学生的学习过程[9-10].认知诊断模型根据不同的分类方式可分为离散模型和连续模型,或分为一维技能模型和多维技能模型.常见认知诊断模型包括基于项目反应理论(item response theory, IRT)的模型、DINA模型和它们的改进模型[1,4,11-13]等,模型中通常会考虑试题的难度、区分度、失误可能性、猜对可能性等因素[11,14],有些研究中还会融合教育学理论,如学习曲线和遗忘曲线[15]等.尽管这些模型考虑了试题难度等因素,但通常作为参数,或是通过已知的Q矩阵计算,因而需要人为提供较多的先验知识.
有学者将传统机器学习结合特征工程的方法运用到试题难度预测中.文献[1]中作者定义了试题考察的能力、知识点重要程度、试题迷惑性、复杂性、灵活性等特征,将这些特征值作为神经网络的输入,预测试题难度.尽管这些人工定义的特征能够反映试题的一些重要信息,但是基于经验人工筛选出的试题表征,对试题语义没有加以利用.且部分此类特征值的确定并非是可统计的,而是由经验判断的,其客观性和准确性难以保证.
以上工作具有相同的局限性:即都需要较多的人为干预,如提供先验知识或教学经验和劳动力.而本文所提出的模型是数据驱动的,所需要的只是试题文本和答题记录,从而避免上述问题.
目前已有学者进行了针对英语试题的难度预测工作[16],受其启发,本文提出了针对数学试题的难度预测模型.
1.2 文本建模
本文提出的模型针对试题的纯文本输入,且不需要提供试题的诸如知识点等先验信息,因此对模型的文本建模与信息提取能力要求较高.
随着大数据时代的到来,文本数据挖掘现已广泛运用于互联网[17]、教育[18]、医疗[19]、媒体[20]等领域,涉及的技术包括文本聚类、文本分类[21]、情感分析[22]、文本推荐[23]等.与之相关的自然语言处理(natural language process, NLP)也在文本处理、自然语言理解、人机交互等领域具有重要意义.Mikolov等人[24-25]提出word2vec和doc2vec,尽管作为语言模型训练的副产物,但由于其维度低和保持部分语义特征等优点,被大量运用到文本建模的数据表征中,使得许多模型的效果得以提升.
在模型方面,过去文本数据挖掘方法通常需要分析文本的词法、语法、语义特征,人为地构造一些具体的结构.近年来,深度学习的兴起使得文本数据挖掘有了新的探索路径,CNN[26]和RNN[27]对文本类数据具有较好的拟合能力,避免了对词法、语法等先验知识的要求.相关工作如情感识别[28]、文本蕴含[29]、机器理解[30]等.
多层CNN神经网络可从词、短语、句子等不同层次挖掘文本信息;RNN则适合挖掘长程的逻辑关系.因此2种模型都可用于试题难度预测的建模当中.基于此,本文提出了基于CNN的难度预测模型C-MIDP和基于RNN的难度预测模型R-MIDP,并且考虑到CNN和RNN各自的优缺点,将CNN和RNN结合,提出H-MIDP,进一步提高预测的准确率.
2 数据驱动的试题难度预测模型
本节中将给出问题的形式化定义,介绍模型的整体框架,具体介绍3种不同的难度预测模型.
2.1 问题定义
模型训练所需要的数据为真实的数学考试试题及答题记录,考试为正式的统一测评(如期中考试、期末考试、月考等),试题为常规考试题型(如选择、填空或简答题).表2为1道数学试题文本数据示例,数据包括试题ID、题面、答案和解析.表3为答题记录结构示例,1条记录代表1个学生在1场考试中某道题的得分,将具有相同试卷ID、学校ID和考试日期的答题记录集合定义为同一场考试Ti记录集合.
对于考试、试题、得分率等概念的形式化定义及本文应对的问题定义如下:
(1)
Table 2 Example of Mathematical Item表2 数学试题示例
Table 3 Example of Answer Log表3 答题记录示例
定义1.给定数学试题集合Q和数学考试记录集合T,其中Q包含每道试题的文本,T包含每场考试的试题和对应的得分率,目标是对数学试题建模,使得通过输入试题特征到模型中可以得到试题的难度预测值.
表4给出了问题涉及到的符号和对应的描述:
Table 4 Related Symbols and Explanations表4 试题难度预测问题涉及的符号及解释
2.2 模型整体框架
本节介绍本文提出的数学试题难度预测模型的整体框架,整体流程如图1,分成2个阶段:训练阶段和预测阶段.在训练阶段,根据将答题记录中的试题文本进行表征后得到训练特征,作为模型训练的输入,并从答题记录获取每一场考试中各道试题的得分率作为试题难度的标签,考虑不同考试中试题得分率的不可比性,训练时采用context相关的成对试题目标函数;在预测阶段,将待预测试题的文本经同样的表征方式得到预测特征,将其输入训练得到的模型,获得难度的预测值.模型分3部分介绍:
1) 模型结构.C-MIDP,R-MIDP,H-MIDP这3个模型均为神经网络模型,其中C-MIDP以CNN网络为基础,R-MIDP以RNN网络为基础,H-MIDP为前两者的融合.
2) 模型训练.训练时以试题文本的词向量特征作为输入,试题得分率作为标签.考虑到不同考试中不同学生群体的得分率具有一定的不可比性,本模型采用context相关(context-dependent)的方式,将同一场考试中成对试题预测难度的差值与实际差值比较,计算目标函数值.
3) 预测.试题难度预测是context无关的,将预处理过的试题特征作为输入,得到试题的绝对难度.
Fig. 1 Model framework图1 模型框架图
2.3 模型结构
本文提出的3种模型接受试题特征作为输入,输出为试题的预测难度.试题特征通过对文本字符的词向量拼接获得,具体步骤:
将试题文本转换成向量特征后,输入模型进行语义理解.图2是3种模型的结构图,其中图2(a)~(c)分别是C-MIDP模型、R-MIDP模型和H-MIDP模型.
Fig. 2 Model structures图2 模型结构
2.3.1 C-MIDP模型
试题文本包含较丰富的语义,要使模型能够不依赖Q矩阵等先验知识,就必须能够从文本中挖掘足够的信息.相关研究表示,局部重要的词句对于文本理解具有重要的意义[30].例如在理解试题时,我们只需理解其中最重要的知识概念描述(如公式、定义等)即可理解整个试题的语义.因此,本文利用CNN中的卷积-池化从局部到整体的方式挖掘试题文本中的主要信息[30].具体地,本文提出C-MIDP模型,它以CNN为基础,使用的多层卷积与池化层可以从不同层次学习试题信息.例如C-MIDP可以以试题中的数字或运算符为基础扩大范围,提取由这些数字或运算符等组成公式信息;再进一步联系公式的上下文获取更大范围的信息,逐步获取整个试题的主要信息,这个过程也符合人真实的阅读习惯.
(2)
(3)
2.3.2 R-MIDP模型
除此之外,文本的序列语义与逻辑信息对于理解试题也非常重要.例如公式中的一个数字本身可能不包含多少信息,但若与它前面的若干个字符联系,可能就表现出重要的语义.基于此,本文提出R-MIDP模型,它以RNN为基础,利用RNN中的Cell模块保存历史信息,学习到试题文本的序列语义或逻辑信息.具体地,R-MIDP模型是一个双向LSTM的网络结构,LSTM采用经典的3门结构[31-32],在理解试题的过程中,可以从正向和反向2个方向学习试题语义逻辑,使语义更加完整.
it=σ(Wiiwt+bii+Whiyt-1+bhi),
(4)
ft=σ(Wifwt+bif+Whfyt-1+bhf),
(5)
gt=σ(Wigwt+big+Whgyt-1+bhg),
(6)
ot=σ(Wiowt+bio+Whoyt-1+bho),
(7)
ct=ft*ct-1+it*gt,
(8)
yt=ot*tanh(ct),
(9)
Hrp再经过一层全连接层,最终输出试题难度的预测值Pq.
2.3.3 H-MIDP模型
2.4 模型训练
在通常的有监督模型中,常规的训练方法是以训练数据的试题表征向量作为输入,以试题得分率作为标签,模型的损失函数(loss function):
(10)
其中,T为整个数学考试训练集,Pq和Rq分别为试题q的预测难度和实际得分率.
这种方式在计算试题得分率时常以试题为单位进行,其训练时其实是不区分不同学生群体或不同场考试的.但实际上,不同考试中由于学生群体的不同,得分率是具有一定不可比性的.例如假设A校和B校使用同一份试卷进行考试,A校的试题a得分率为0.8,B校的试题b得分率为0.7,不能简单地认为试题b比试题a更难,因为A校学生的整体水平可能强于B校学生,而实际A校的试题b得分率为0.9,B校的试题a得分率0.6,因而判断试题a的难于试题b更合理.
由此可知,试题得分率受到学生群体水平差异性的影响.为了能够消除这种影响,本文认为,当考试学生群体处于相同的context范围下,通过考试计算的试题得分率才具有可比性.此处,context可以定义为同一个班级、同一所学校、同一场考试等.例如,在同一场考试中,若试题a得分率低于试题b,即可认为a比b难.本文将在实验部分中具体对此范围进行实验说明.
具体地,本文的3种模型采用context相关的训练方式,模型的损失函数:
(11)
使用这样的模型损失函数可以消除不同学生群体的差异性,获取其中的共性,使得训练得到的模型能够预测试题的真实难度(对于所有答题记录涉及到的学生全体而言的难度,而不是对于其中某场考试的学生群体).
2.5 难度预测
模型训练完毕,进行试题难度的预测时,将需要预测的试题表征向量输入训练得到的模型中(C-MIDP或R-MIDP或H-MIDP),得到的模型输出值即为试题难度的预测值.在实际应用情境下,如果收集的群体答题数据量充足且答题分布均匀,则可以认为模型的输出值可以预测试题对于该群体的难度值(或得分率).
3 模型验证实验
3.1 数据集介绍
数据来自科大讯飞股份有限公司采集的国内多个中学2014—2017年的考试试题和答题记录,相关统计见表5.
Fig. 4 Scoring rates of 6 schools in a final exam图4 6所学校在同场期末考试中的得分率
AttributeValueAmount of Schools1314Amount of Tests5185Average Amount of Items per Test18.33Amount of Different Items53027Amount of Logs57457353Amount of Students1035526
对试题文本数据预处理后统计每道题的特征长度(即分词后有效词项数目),得到其分布如图3所示,图3中横坐标为特征长度,纵坐标为试题数量.由统计结果知特征长度大于600的不到总试题数的0.2%,因此实验中取特征向量长度N=600,实际少于600的试题用零填充,多于600的试题截取前600个词项作为试题特征.
Fig. 3 Distribution of item feature length图3 试题特征长度分布
选取使用某一份试卷不同场考试的答题记录,绘制不同学校的试题得分率折线图如图4所示,可以看到,不同学校在各个试题上的得分率虽有明显差异,但试题之间的得分率相对差异却相近.图4中A校(最上方绿色折线)的试题Q10的得分率为0.3,B校(最下方橙色折线)的试题Q9的得分率为0.22,但不能简单以此判断试题Q10的难度低于Q9,因为A校的整体能力强于B校.实际上,A校的试题Q9的得分率为0.4,B校的试题Q10的得分率为0.08,可以看到不论是A校还是B校,试题Q9的得分率高于试题Q10的得分率,因此判断试题Q9的难度低于Q10更合理.这正验证了2.4节中的观点.
3.2 实验评价指标
3.2.1 皮尔森相关系数(Pearson correlation coeffi-cient, PCC)
PCC是教育学常用的评价指标,可以衡量每一场考试中试题实际难度与模型预测难度之间的相关性[33].实验中PCC具体定义为
(12)
PCC取值在区间[-1,1],越大的绝对值意味着越高的线性相关性,且PCC>0表示正相关,PCC<0表示负相关.
3.2.2 一致性(degree of agreement, DOA)
DOA可以衡量一场考试中试题对之间难度预测值相对大小的准确性[34].其计算为
(13)
(14)
DOA取值范围在区间[0,1],DOA越大表明预测的试题对之间相对难度大小关系越准确.
3.3 对比实验
为验证本文提出的模型效果,将与4种baseline预测方法进行对比:
1) logistic回归[35].传统的线性回归模型,模型输入特征为试题的词袋特征,采用context无关的训练方式.
2) 支持向量机(SVM)[36].SVM在线性和非线性回归问题中都比较常见,是机器学习中重要的算法.对比模型采用非线性高斯核,输入为试题的词袋特征,并采用context无关的训练方式.
3) 随机森林(random forest)[37].随机森林回归模型是常用的非线性模型,在许多回归任务上具有良好的表现.模型输入同样采用试题的词袋特征,且采用context无关的训练方式.
4) 神经网络context无关训练方式.本文的3种模型结构不变,但训练方式改为context无关,即采用式(10)作为损失函数,以试题的预测难度与实际得分率的差值平方和作为目标函数.3种模型分别以CNN-I,RNN-I,Hybrid-I指代.
3.4 实验结果及分析
3.4.1 模型对比实验
本节将比较C-MIDP,R-MIDP,H-MIDP这3种模型的实验结果,以及分析与baseline模型实验结果的对比.此处,C-MIDP,R-MIDP,H-MIDP这3种模型中的context定义为同一场考试范围,即式(11)中的Tt表示第t场考试.实验分别取数据集中考试数量的40%,30%,20%,10%作为测试集,同时删除训练集中在测试集出现的试题,这些重复试题若在训练集中得到拟合,将不适合用作模型测试.注意到,考试可能是一个班级单独的测试,也可能是整个年级统考,或者多所学校联考,这里我们采取的划分方式是:同一所学校同一天使用同一份试卷划分为一场考试,作为计算试题得分率的context,在此基础上训练C-MIDP,R-MIDP,H-MIDP模型.最终得到各个模型在测试集上的 PCC与DOA指标的值如图5所示.
Fig. 5 Experiment results of three models图5 3种模型实验结果
从图5中实验结果可知,C-MIDP,R-MIDP,H-MIDP模型都有良好的表现,并且可以看到,在测试集比例为40%,30%,20%,10%情况下,H-MIDP的测试指标均高于C-MIDP和R-MIDP.
图6是本文3种模型与对比模型实验结果,从图6中可以看出3项对比信息:
1) 在使用context无关的训练方式前提下,logistic回归效果最差,显然线性回归不能够胜任试题难度预测任务;SVM回归效果较logistic回归更好;随机森林回归在3种非神经网络baseline模型中表现最好;CNN-I,RNN-I,Hybrid-I这3种神经网络模型的实验结果明显优于前3种非神经网络模型,说明神经网络对此任务的建模能力更强.
2) 比较3种神经网络模型的context相关与context无关2种训练方式的实验结果,可以看到,尽管使用context无关训练方式(CNN-I,RNN-I,Hybrid-I)已经获得良好的实验结果,但使用context相关训练方式后,模型效果有了进一步的提升,说明在试题难度预测这个任务当中,context相关的训练方式更适合.
3) 随着测试集比例的降低(即训练数据的增加),3种模型的效果均提升.测试集的比例降到10%时,3种神经网络模型的PCC达到0.66以上,DOA达到0.74以上.在实际教育环境中,数据量足够的情况下,能够达到良好的预测效果.
3.4.2 context划分方式对预测结果的影响
本节将讨论不同的context划分对于试题难度预测结果的影响.这里的context划分等价于考试的划分,例如在一场多校联考中,可以将一个班级的记录划分为一场考试,也可以将一所学校的记录划分为一场考试,或者将各个学校的所有记录共同作为一场考试.本节针对数据采用2种不同的划分方式:1)将同一所学校同一天使用相同试卷划分为一个context;2)将使用相同试卷的所有记录划分为一个context.依此进行实验,研究context划分方式对试题难度预测结果的影响.
图7是2种划分方式的在测试集上的PCC和DOA指标的直方图.可以看到2种划分方式的实验结果有明显差距,第1种划分方式的实验结果优于第2种划分方式,说明context的划分方式对预测结果是有影响的.在本实验数据集上,若将考试的范围细化到学校层面,可以更好地区分来自不同学校学生群体的差异性,从而获得更稳定的试题难度.在实际应用中,模型的实际训练与使用中需根据测试结果选择合适的context划分方式.
3.5 案例分析
本节选取测试集比例为40%时测试集中的1场考试试题,使用C-MIDP,R-MIDP,H-MIDP模型进行难度预测,比较预测结果,以说明本文的3种模型的有效性.图8是各模型预测结果折线图,其中实际得分率是将数据集中所有使用该份试卷试题的答题记录得分率取平均得到,以更准确反映试题实际难度.
Fig. 8 Comparison between score rates predicted by 3 models and ground truth on a test paper图8 某试卷3种模型预测得分率与真实值比较
表6是评价指标PCC,DOA,RMSE值.可以看到H-MIDP的3种指标的值均优于C-MIDP和R-MIDP,但C-MIDP和R-MIDP的评价值也在可接受范围.观察图8,可以看到3种模型在大多数试题上的预测值能够接近实际得分率,或者在试题相对难度关系上接近,其中H-MIDP的预测曲线与真实值最为接近,说明模型能够通过context相关的训练方式来预测试题绝对难度.
Table 6 Metrics Values of Models in Case Study表6 案例分析各模型评价指标值
4 结 论
为解决准确、高效地预测数学试题难度所面临的难题,辅助中国特色教育考试国家题库建设,本文提出了数据驱动的基于神经网络的难度预测模型.具体地,首先设计了基于卷积神经网络的C-MIDP模型和基于循环神经网络的R-MIDP模型学习试题文本的序列逻辑信息;进一步,结合2种模型的优势,提出混合H-MIDP模型.3种模型均直接对试题文本进行理解和语义表征,可保留试题描述的局部语义和语序信息;然后,为应对不同考试中学生群体具有不可比性的问题,在模型训练时考虑答题记录的上下文,采用context相关的训练方式;最后,所提出的模型只需根据试题文本即可预测新试题难度属性,无需人工标注先验知识信息.本文在真实数据集上进行了大量实验,实验结果表明了本文所提出的模型具有良好的性能.
本文的模型具有进一步改良的空间和向其他学科扩展的可能性.在未来研究中,可以考虑新的模型结构对试题文本理解的影响,如Attention网络、Memory网络等.其次,探索更为准确和稳定的context的划分方式,以减少对试题难度预估结果的影响.我们还将考虑针对不同试题类型设计更为精准的预测模型.