APP下载

高等教育学习收获的测量研究

2021-03-24惠良虹惠晓萌谷秋菊

现代教育科学 2021年1期
关键词:国际比较质量保障高等教育

惠良虹 惠晓萌 谷秋菊

[摘 要]学习收获研究是高等教育质量评估的重要环节。本文主要对欧美国家的学习收获测量研究进行了回顾与梳理,介绍了美国、英国、加拿大、澳大利亚等国家和地区在高等教育学习收获测量方面的研究概貌。研究发现,在国际高等教育学习收获测量领域,美国一直居于领先地位,其理论和测量工具对其他国家都产生了深远的影响。测量方式主要包括标准化的直接评价法和自我报告式的间接评价法两种,这两类评价方法各具优势,互为补充。受到制度、语言、文化等方面的制约,很难开发适用于所有国家和机构的测量工具,各个国家和机构需要根据各自的测量目的选择适切的工具。我国高等教育领域亟需在已有国际经验基础上开发符合中国特色的本土化测量工具。

[关键词]学习收获;学习评估;质量保障;高等教育;国际比较

[中图分类号]G642 [文献标识码]A [文章编号]1005-5843(2021)01-0149-08

[DOI]10.13980/j.cnki.xdjykx.2021.01.025

一、引言

在高等教育领域有关学生学习收获的测量自20世纪70年代末以来受到了全世界众多研究机构的广泛关注。学习收获是评定高等教育质量的一个重要指标,是衡量高等教育投入与产出的关键因素,是评判高等教育为社会输入人才合格与否的核心标尺。因此有关学习收获的测量研究对评判教师的教学质量、衡量学校的课程设置、评价教育管理的有效性都起到重要的作用,对改进高等教育教学,促进教育公平公开起到推动效应,为高等教育院校之间的横向比较提供了可能。

学习收获测量对于高等教育的利益相关者都具有重要的意义。从政府层面来看,测量学习收获有利于高等教育质量评估的落地,促进高等教育问责制的实施,从而对高等教育投入进行调整和市场引导;从用人单位来看,学习收获测量有助于企业在多元化的市场中寻找到合适的员工;从高校层面来看,有助于管理层做出战略调整、评估课程质量、考核教师绩效,并与同类院校进行横向比较,从而提升高校的服务质量;对于学生而言,能够帮助学生进一步反思自身的学习情况,提升自我学习调节能力,促进其终身学习技能的发展;同时对高等教育的潜在消费者而言,能够帮助“准”大学生和家长们做出更加明智的选择。

二、学习收获的概念

国外对学习收获研究的相关术语主要有“learning outcomes”和“learning gains”。在美国,这两个名词经常交替使用,例如印第安纳大学知名学者乔治·库(George Kuh)教授主持的大学生就读经验调查第四版(CSEQ)报告中就将二者交替使用[1]。国内学者在学术研究中倾向于使用 “learning outcomes”, 针对这一术语的翻译包括“学习成果[2]”“学习结果[3]”“学业成就[4]”。美国学者还会使用学习迁移这一概念(learning transfer)。学习迁移主要指与工作相关的培训知识、技能和能力在实际工作中的体现[5],事實上与学习收获这一概念相比学习迁移所含范畴较小。在英国,学者们更多地使用“learning gains”这一术语[6][7],我国学者对学习收获这一术语也有使用[8]。虽然不同学者在术语的选择上有所不同,但其根本都是探讨学生在经历了高等教育课程和活动之后所获得的成长,包括知识、技能、认知、情感和文化等各个方面。本研究中遵循国际惯例将学习收获和学习成果交替使用,并未将二者进行严格区分。

三、美国的学习收获研究

(一)美国学习收获研究理论基础

美国是目前国际上学习收获研究时间最早、成果最为丰硕的国家,并对其他国家的相关研究产生了深远的影响。针对学习收获的测量是了解美国高等教育质量有效性的基础[9]。最早可以追溯到20世纪30年代,被称为美国教育测量和评估之父的拉尔夫·泰勒( Ralph Tyler) 在俄亥俄州立大学开展了帮助教师提升教学和防止学生辍学的项目,其中报告了学生在学业上的投入与学习成就之间的关系。此后他与罗伯特·佩斯 ( Robert Pace)等知名学者共同研究学校的校园环境对于学生学习收获的影响。佩斯认为,学生如何利用学校环境,即“努力的质量”是学生成功的重要因素,因此提出要重视教育过程的观点。他认为学生学习投入的多少决定了学习的成败[10]。亚历山大·阿斯汀(Alexander Astin)也提出了类似的观点,他认为学生的参与(involvement)与其学习收获成正比;同时与学习动机这一心理层面的因素相比,学习参与更多的涉及行为层面[11]。可见,佩斯和阿斯汀都强调学生能动性的投入,以及对学校资源的利用决定了学生的学习收获。另一方面文森特·汀托(Vincent Tinto)的融合理论(integration)对学习收获也产生了重要影响,该理论原本是为了解释美国高校学生退学的原因。他认为当学生能够在社会情感与学术两方面融入校园环境时,便会继续学业,相反则会辍学,他还提出了学校在防止学生退学方面的行动框架[12][13]。融合理论相对于以往研究的创新点在于:学生提出退学不仅仅是个体原因,而是个体与学校环境无法融合的结果。该理论给我们的启示是:学生的学习收获取决于个体和校园环境的匹配与适应。当学生能够很好地融入同伴、教师、学校规章制度时,便能够有所收获,反之可能导致失败。欧内斯特·帕斯卡雷拉(Ernest Pascarella)提出了“因果模型”,他强调了不同的校园环境对学生学习与认知发展的影响[14]。他的理论不仅仅重视学校特征和学生努力,同时还认为学生入学前的一些个人特征对学习收获也会产生影响。具体而言,学生的个人背景、入学前的特征、校园环境以及社会化互动都会影响学生的努力程度,进而影响学习收获。此外,帕斯卡雷拉与特伦兹尼(Terenzini)的总结性研究发现了学生主观努力的重要性,他们认为学生主动参与和投入对学习收获有更加重要的影响[15][16]。可见,高等教育中的学习收获是学生主观努力与学校所提供的支持性环境互动作用的结果。主客观因素的复杂、协同作用共同决定了学生的学习收获,是一种动态交互的结果。总之,汀托与帕斯卡雷拉观点的共同之处在于:重视学校环境对于学生投入的影响。

(二)美国高等教育评估的测量工具

20世纪80年代,美国出现了对高等教育成本增加和质量下降的不满,因此兴起了对学生学习成果进行评估和问责的浪潮[17]。 2006年,美国高等教育未来研究委员会(The Commission on the Future of Higher Education)的报告质疑美国高校学生的学习结果,并建议高等学校测量有意义的学习成果。该研究在美国高等教育界产生了广泛的影响。这一报告结果促使2007年美国高校领导和高等教育委员会建立了自愿问责制(Voluntary System of Accountability),从而向公众和政策制定者提供有关学习成果的透明、可比较的信息。在美国高等教育評估繁荣发展的大背景下,在学界主要产生了两大类学习收获评价工具,即直接评价和间接评价。直接评价主要是通过测试等客观方式评价学生学习结果;间接评价主要通过调查问卷等自我反思式主观评价,实现对于学习收获的测量[18]。

1.美国高等教育评估中的直接评价及其局限性。直接评价是对学习收获的一种客观测量方法,也有研究称之为标准化测量。测量后通常会形成一个类似考试分数的结果,这种评价方式以测量认知收获为主。认知收获通常包括:知识性收获(包含一般性知识和特定领域知识)和技能性收获(批判性思维、量化推理、口头表达、理解、信息处理、分析执行和评估等)。直接评价有两种类型:特定学科测试和通用技能测试。特定学科测试可以使用进度测试评估的方法,该方法通常用于医学院校中[19][20][21]。而通用技能测试不同于特定学科测试,主要测量学生常用技能,如早期的标准化测试大多采取选择题的方式。其中代表性测试包括:大学学业水平评估考试(Collegiate Assessment of Academic Proficiency, 简称CAAP)、 学术精熟度和进步测量(the Measure of Academic Proficiency and Progress,简称MAPP)、 学院基础学术科目考试(College Basic Academic Subjects Examination,简称CBASE)。此外,近年最具影响力的标准化测试——大学学习评估(Collegiate Learning Assessment, 简称CLA),其问题形式以分析写作和表现性任务为主,通过测量学生的批判性思维、分析推理、问题解决和写作沟通能力,来测量高等教育中的一般性收获。该测试采用计算机自然语言处理软件来对学生的写作进行评分,以减少人为评分的误差[22]。标准化测试是一种较好的测量方法,通过较客观的方式来测量学生的能力,这也使得不同群体或院校之间的比较更加容易[23]。同时,标准化测量也被视为一种更有效的学习收获测量方法,因为它不受学生个人思想的影响,注重对学生技能的综合测量[24]。目前,标准化测量主要在美国流行[25]。

在考虑测量方法时,应多考虑测量工具的适用性、实用性及可行性。直接评价具有客观、标准化、院校可比性的优点,但是也存在一些不足。首先,标准化的测试很难测量出个人道德、跨文化意识等软技能[26] 。有学者认为,标准化测试所测量的技能和成果仅仅是学生在高等教育学习中所获得的一小部分,而无法测量学生的情感、社会和文化方面的收获,因此不能代表学习收获的全部[27] 。例如,加利福尼亚大学拒绝使用标准化的测量方法来评估学生的学习收获,他们认为这种测量方法没有意识到学科特定知识及学习内容的广度、深度和多样性[28]。 还有学者提出,虽然有些技能是通用的,但是不同的科目教授方式不同,所以一般的测试仍然不适用于每个学科。如:以人文知识为基础的学科对学生批判性思维的要求与自然科学类学科的要求就不甚相同[29] 。在美国,高等教育更注重教授方法,并不专注于所教授的内容,因此标准化测量效应较小。同时,由于标准化的测量方法耗时耗力,所以通常只能测试一个小的群体作为样本,因此测量结果的代表性不强[30]。

2.美国高等教育评估中的间接评价及其局限性。美国大学广泛使用的另一评估方法是调查研究法,这是一种间接研究方法[31]。该方法主要基于学生主观的自我汇报来搜集学生的学习经验、行为和态度等。其中较具有代表性的包括,全国学生参与度调查(National Survey of Student Engagements 简称NSSE)、大学生就读经验调查(College Student Experience Questionnaire,简称CSEQ)、合作性院校研究项目(Cooperative Institutional Research Program,简称CIRP)、研究型大学就读经验调查(Student Experience in the Research University,简称SERU)、加州大学本科生就读经验调查 ( University of California Undergraduate Experience Survey,简称UCUES)。这一方法的优势在于可以在各个机构以及各个项目中进行横向和纵向的对比[32]。这些在全美使用广泛、影响较大的问卷均设置了学习收获的题目内容。通过分析这些问卷中涉及学习收获的题目,我们发现这些问卷存在很多彼此借鉴、相互影响的情况。例如NSSE的调查工具为大学生学习报告(College Student Report CSR),这一工具借鉴了CSEQ、CIRP这两个开发较早的工具中的诸多题目。CSEQ从1979年开始实施调查,到2014年春季结束,并逐渐被NSSE所取代。目前NSSE不仅仅在美国广泛使用,在全世界都具有广泛的影响[33]。 SERU与UCUES同作为加州大学发起的调查,在学习收获的题目设置方面有很多相互借鉴的地方。可见,对学生学习收获的测量在高等教育评估中占据重要地位。美国主流的5个自我报告式评估工具内容显示,学习收获维度受到重视,是这5个测量工具的重要组成部分。

自我汇报的调查研究结果固然能够反映出情感、社会收获等直接测量无法反应的结果,但是自我汇报的结果会面临不够客观的质疑。有学者在一项元分析中的研究发现,自我汇报成绩的可靠性与学业表现相关,即对于成绩好的学生来说,自我报告的成绩能够比较真实客观,但是对于成绩低的学生来说,自我报告的数据并不能反映出他们的真实成绩[34]。同时也有学者提出,在认知、社会和自我成长收获方面自我报告的测量方式可能存在偏差,无法反映学生真实的学习行为[35]。因此,为了得出全面客观的结果,学者认为,应该将直接的认知测量与自我报告的间接测量相结合,二者不可偏废[36]。国内学者也认为,鉴于评价工具各有所长,高校应结合人才培养目标及自身特点,有针对性地选取恰当的评价工具[37]。

四、其他国家的学习收获测量

(一)英国的学习收获研究

英國学者倾向于使用学习收获(learning gains)这一术语。英国的学生事务办公室(Office for Students,简称OFS)(原英格兰高等教育拨款委员会(Higher Education Funding Council for England,简称HEFCE))将学习收获定义为“测量学生在高等教育阶段知识、技能、工作准备和个人发展方面的进步”[38]。麦克格雷思(McGrath)等人在兰德公司的报告中将学习收获定义为,学习者在两个时间点展现出的技术、能力、内容知识和个人发展方面的差异或者说是“经历的距离”(the distance travelled)[39]。学习收获研究是高等教育追求卓越和质量保障的关键。英国学者还分析了教育的“附加价值”与学习收获这两个概念的区别,认为学习收获考察的是,学生在两个不同时间点上所展现出来的差异,而附加价值则体现了学业开始时对学生学业表现的预期与实际学业表现的差异[40]。

在英国,学习收获测量以自我报告的主观测量为主,影响最广泛的是全国学生调查(National Student Survey,简称NSS)。该调查从2005年开始,是一个由政府资助的在英国具有较大影响力的调查。内容改编自澳大利亚的课程经验问卷(Course Experience Questionnaire,简称CEQ)[41],调查倾向于将学生看成是高等教育的消费者,因此主要针对学生的满意度进行调查。2007年,全英国超过30万名学生和530所大学参与,其中68%的参与者反馈了调查结果。该调查在督促院校改进课程质量,提升学生满意度的同时也受到了一些质疑。例如将学生看成是消费者会忽视他们作为学习主体所应承担的责任;同时,针对学生满意度的调查虽然能够提供校际间的比较,但是却无法帮助学校进行内部提升。针对NSS的不满促使英国高等教育学会(Higher Education Academy)在2012年发起了英国学习投入调查(UK Engagement Survey,简称UKES)。该调查根据美国的NSSE改编而来的,更加注重对于学生投入和校园环境的考察[42]。NSS和UKES都包括针对学习收获的测量,NSS的第三部分是由9个题目构成的知识和技能收获,题目内容涉及学科知识、问题解决、分析、工作技能,以及沟通、表达、实践能力等方面[43]。UKES 包括两个主要学习收获的维度共12个条目,分别是与学业相关的“硬技能”和与文化相关的“软技能”[44]。UKES结果显示,学生对校园各项活动的投入越多,其各方面技能收获越大,这进一步支持了“参与度是学生学习的一个重要因素”的观点[45]。显然,英国的学习收获测量主要受美国的自我报告式学习收获测量的影响,大多针对一般性学习活动的收获展开,体现的是通识教育学习成果。

(二)加拿大的学习收获研究

加拿大在2005年制定了改善教学成果的计划,并将教育问责制确定为改善措施之一[46]。该计划主要包含以下4个方面:(1)明确促进高等教育卓越性和可持续发展的必备条件;(2)高等教育的利益相关方设定改善教学成果的目标和策略;(3)确定改善的方法和实践;(4)探索在计划执行后学生能够获取的知识。该计划实施的目标是“追求教育高质量和创新,同时使学生在教育上的付出得到回报进而取得成功”。该计划主要涉及学习成果和基准数据两方面,具体内容包括对学生学业表现的测量、搜集加拿大高等教育系统的基准数据,以及对学生和高等教育系统的质量和绩效进行监控、评估和报告。

2011年,加拿大安大略省政府还宣布可以在高等教育中使用标准化的测量方法评估学生的学习,因此安大略省有8所大学使用大学学习评估(Collegiate Learning Assessment,CLA)对学生进行了测试[47]。例如,女王大学(Queens University)就是组成安省教育素质委员会(Higher Education Quality of Ontario,HEQCO)学习成果评估联盟(Learning Outcomes Assessment Consortium)的6个机构之一,该联盟在加拿大的高等教育中对学生进行了大学学习评估(Collegiate Learning Assessment,CLA)的测量。同时该校在汇报学生表现时就将学生解决问题、经济推理、伦理推理等方面的个人表现提交给任课教师,以便教师对课程进行改进,提高教学质量。虽然加拿大在高等教育测量领域并非世界领先,但是加拿大政府一直在探寻适合自己国家高等教育环境的测量方法[48]。

(三)澳大利亚的学习收获研究

2009年,澳大利亚政府提出了一项新的激励措施来促进实现高等教育部门的多元化,并试图通过更高质量的教育来培养高技能员工[49]。从2007年开始,有20所澳大利亚和5所新西兰大学开始使用澳洲大学学生参与度调查量表(Australasian University Survey of Student Engagement AUSSE)[50]。该问卷主要基于美国的NSSE进行澳大利亚的本土化调研。该量表除学习投入外还包含了一些学习收获维度,分别为:高阶思维、一般性学习成果、个人社会发展能力、平均分、辍学意向和整体满意度。另一项标准化的测量手段也在澳洲展开,由经合组织(OECD)资助的高等教育学业学生成就跨国评估项目(the Assessments of Learning Outcomes in Higher Education,AHELO)于2009年至2013年在澳大利亚实施[51]。在澳洲该研究的主要测试群体是大四学生,研究小组还与学生们一起进行了分析和讨论,获得了学生对学习测量项目草案的建议。这些意见反馈使得测量方案得到进一步的修改和完善,这同样支持了知名学者乔治·库等人的观点,即学生自身的创造性有利于项目的发展。这项研究的突出成果也引起了澳大利亚高校对测量学生学习成果的重要性和影响的进一步讨论[52]。

(四)其他国际化视角

2008年,经合组织(Organization For Economic Cooperation And Development,简称OECD)开展了《高等教育学习成果评估》(the Assessments of Learning Outcomes in Higher Education,AHELO)的专题研究,目的是推断能否对学习成果进行测量[53]。这项研究的结果表明,不同国家在使用相同的学习测量方法时存在差异。这说明,由于教育政策的不同,目前尚未有一个可以在国际上通用的测量方法,所以各国在进行学习测量时要根据自己国家的具体情况进行。大多数国家对学生学习的测量主要是从参与度和满意度两方面入手。例如,澳大利亚、加拿大、日本、墨西哥、新西兰和南非等国家,都在使用全国学生参与度调查(the National Survey of Student Engagement,NSSE)来进行测量[54]。但是,NSSE侧重学习投入,而对学习成果的关注度不够[55]。

五、我国的高等教育测量研究

我国高等教育测量领域较多采用间接测量方法。主要包括:清华大学开发的中国大学生学习与发展追踪调查(CCSS)[56][57]、北京大学展开的首都高校教学质量与学生发展监测研究[58][59]、北京师范大学开发的中国大学课程学习经验调查(CCSEQ)[60][61]、厦门大学开发的中国大学生学习情况调查研究项目(NCSS)等[62]。同时北京航空航天大学也开展了针对美国标准化测试EPP的汉化研究[63]。总体而言,国内在引介间接评价工具方面更加积极,并且取得了一定的成就。在标准化测试的引介开发方面稍逊一筹,主要原因是标准化测量的本土化不僅仅受到语言和文化的制约,同时也受到教育理念方面的挑战。中西方在教育制度、教育内容和教育方式方面仍然有比较大的差异,照搬西方标准化测试,难以准确、客观地测量我国高校学生的学习收获,需要在借鉴国外工具的基础上做出较大调整。此外,经合组织研究认为,任何单一的工具都无法全面测量学习收获,不同机构需要根据各自的目的,选择恰当的测量手段。在间接测量工具的开发方面,国内外仍旧比较缺乏针对特定学科的大学生学习收获专项研究。随着信息技术的发展,现代化教学手段应用过程中学生的学习收获呈现出更加多面的结果。国内在标准化测量和自我汇报式测量领域的深入研究仍旧有很大的发展空间,需要学者根据我国的国情和人才培养目标进行充分研讨。既需要制订高等教育通识性学习收获的标准,也要结合专业特点开发具有学科特色的学习收获测量工具。在充分借鉴国际经验的基础上,实现有中国特色的社会主义高等教育学习收获测量领域的繁荣发展。

参考文献:

[1]Gonyea R M, Kish K A, Kuh G D, et al. College Student Experiences Questionnaire: Norms for the Fourth Edition[EB/OL].2003.https://files.eric.ed.gov/fulltext/ED512547.

[2]赵婷婷, 杨翊.大学生学习成果评价: 五种思维能力测试的对比分析[J]. 中国高教研究, 2017(3): 49-55.

[3][37]夏欢欢, 钟秉林.大学生学习结果评价: 高等教育质量保障的新视角[J]. 中国高等教育, 2018(12): 21-24.

[4]王小青, 王九民.中国大学生学业成就评估研究: 二十年的回顾 (1998—2017年)[J]. 苏州大学学报 (教育科学版), 2018(23): 62-73.

[5]Bates R, Holton III E F, Hatala J P. A revised learning transfer system inventory: factorial replication and validation[J]. Human Resource Development International, 2012(5): 549-569.

[6]Evans C, Kandiko Howson C, Forsythe A. Making sense of learning gain in higher education[J]. Higher Education Pedagogies, 2018(1): 1-45.

[7]Rogaten J, Rienties B, Sharpe R, et al. Reviewing affective, behavioural and cognitive learning gains in higher education[J]. Assessment & Evaluation in Higher Education, 2019(3): 321-337.

[8]李湘萍, 马娜, 梁显平.美国大学生学习评估工具分析和比较[J]. 现代大学教育, 2012(1): 30-35.

[9]Kuh G D, Ikenberry S O, Jankowski N A, et al. Using evidence of student learning to improve higher education[M]. San Francisco: Jossey Bass, 2014:ix.

[10]Pace C R. Measuring the Quality of College Student Experiences. An Account of the Development and Use of the College Student Experiences Questionnaire[EB/OL]. 1984.https://files.eric.ed.gov/fulltext/ED255099.pdf.

[11]Astin A W. Student involvement: A developmental theory for higher education[J]. Journal of college student personnel, 1984(4): 297-308.

[12]Tinto V. Dropout from higher education: A theoretical synthesis of recent research[J]. Review of educational research, 1975(1): 89-125.

[13]Tinto V. Completing college: Rethinking the causes and cures of student attrition[M].Chicago: University of Chicago Press, 2012:viii.

[14]Pascarella E T. College environmental influences on learning and cognitive development: A critical review and synthesis[J]. Higher education: Handbook of theory and research, 1985(1): 1-61.

[15]Pascarella E T, Terenzini P T. How college affects students: Findings and insights from twenty years of research[M]. San Francisco:JosseyBass,1991.

[16]Pascarella E T, Terenzini P T. How College Affects Students: A Third Decade of Research. Volume 2[M]. Indianapolis:JosseyBass, 2005.

[17]Pike G R. The relationship between self reports of college experiences and achievement test scores[J]. Research in higher education, 1995(1): 1-21.

[18]Arum R, Roksa J. Academically adrift: Limited learning on college campuses[M]. Chicago:University of Chicago Press,2011.

[19]Freeman A, Van Der Vleuten C, Nouns Z, et al. Progress testing internationally[J]. Medical teacher, 2010(6): 451-455.

[20]Schuwirth L, Bosman G, Henning R H, et al. Collaboration on progress testing in medical schools in the Netherlands[J]. Medical teacher, 2010(6): 476-479.

[21]Chen Y, Henning M, Yielder J, et al. Progress testing in the medical curriculum: students approaches to learning and perceived stress[J]. BMC medical education, 2015(1):147.

[22][30][39]McGrath C H, Guerin B, Harte E, et al. Learning gain in higher education[EB/OL]. https://www.researchgate.net/profile/Tefera_Tadesse3/post/Likert_scale_type_questions_that_measure_perceived_learning/attachment/5c8a1365cfe4a72994958475/AS%3A736273983619085%401552552805893/download/RAND_RR996

[23]Anwer L A, Shareef M A, Nurhussen A, et al. Objectivity in subjectivity: do students self and peer assessments correlate with examiners subjective and objective assessment in clinical skills? A prospective study[J]. BMJ open, 2017(5): 1-7.

[24]OECD. Measuring improvements in learning outcomes: Best practices to assess the valueadded of schools[R]. 2008.https://www.oecdilibrary.org/docserver/9789264050259en.pdf?expires=1588789823&id=id&accname=guest&checksum=2F62B96734C3C593F52C71DACBB80367.

[25]Kuh G D, Ewell P T. The state of learning outcomes assessment in the United States[J]. Higher education management and policy, 2010, 22(1): 1-20.

[26]DeBoer F. Standardized Assessments of College Learning: Past and Future[EB/OL]. New America, 2016. https://files.eric.ed.gov/fulltext/ED570892.

[27]Banta, T., & G. Pike. Making the Case AgainstOne More Time. 2012.[EB/OL]http://www.learningoutcomesassessment.org/documents/HerringPaperFINAL.

[28]Douglass J A, Thomson G, Zhao C M. The learning outcomes race: The value of selfreported gains in large research universities[J]. Higher education, 2012,(3): 317-335.

[29]Brooks P. Outcomes, testing, learning: whats at stake?[J]. Social research, 2012(3): 601-611.

[31]Kuh G D, Jankowski N, Ikenberry S O, et al. Knowing what students know and can do: The current state of student learning outcomes assessment in US colleges and universities[R].2014. https://learningoutcomes.web.illinois.edu/wpcontent/uploads/2019/02/2013SurveyReport.

[32]National Survey of Student Engagement. Converting data into action: Expanding the boundaries of institutional improvement—2003 Annual Report[R]. https://scholarworks.iu.edu/dspace/bitstream/handle/2022/23485/NSSE_2003_Annual_Report.pdf?sequence=1&isAllowed=y.

[33]Coates H, McCormick A C. Introduction: Student engagement—A window into undergraduate education[M]//Engaging university students. Singapore:Springer, 2014:1-12.

[34]Kuncel N R, Credé M, Thomas L L. The validity of selfreported grade point averages, class ranks, and test scores: A metaanalysis and review of the literature[J]. Review of educational research, 2005(1): 63-82.

[35]Mega C, Ronconi L, De Beni R. What makes a good student? How emotions, selfregulated learning, and motivation contribute to academic achievement[J]. Journal of educational psychology, 2014(1): 121.

[36]Zhoc K C H, Webster B J, King R B, et al. Higher Education Student Engagement Scale (HESES): Development and Psychometric Evidence[J]. Research in Higher Education, 2019(2): 219-244.

[38]Nijjar,A.K. Learning gain in English higher education Progress report.Higher Education Funding Council for England[EB/OL]. https://dera.ioe.ac.uk/31344/1/HEFCE2018_03.pdf

[40]Randles R. Science Student Learning Gain in English Higher Education Institutions: The Development of a Skills Assessment Tool[D]. Liverpool John Moores University, 2019.

[41]Ramsden P. A performance indicator of teaching quality in higher education: The Course Experience Questionnaire[J]. Studies in higher education, 1991(2): 129-150.

[42]Neves J, Stoakes G. UKES, learning gain and how students spent their time[J]. Higher Education Pedagogies, 2018(1): 219-221.

[43]Richardson J T E, Slater J B, Wilson J. The National Student Survey: development, findings and implications[J]. Studies in Higher Education, 2007(5): 557-580.

[44]Kandiko Howson C, Buckley A. Development of the UK engagement survey[J]. Assessment & Evaluation in Higher Education, 2017(7): 1132-1144.

[45]Buckley, A. UK Engagement Survey: The second pilot year. York: Higher Education Academy[EB/OL]https://s3.euwest2.amazonaws.com/assets.creode.advancehedocumentmanager/documents/hea/private/resources/ukes_report_2014_v2_1568037252.

[46]Zhu,P. Building Worldclass Universities: A Comparative Analysis of the Government Reforms in the Public University Sector between China and Ontario[EB/OL].https://scholar.googleusercontent.com/scholar?q=cache:AatBGxGJEikJ:scholar.google.com/&hl=zhCN&as_sdt=5,33&sciodt=0,33&scioq=Rae+B.+Ontario,+a+leader+in+learning:+Report+and+recommendations.

[47]Tremblay K, Lalancette D, Roseveare D. Assessment of higher education learning outcomes: Feasibility study reportvolume 1 design and implementation[R].http://www.oecd.org/education/skillsbeyondschool/AHELOFSReportVolume1.

[48]Lennon, M. C.& Brian, F. Learning outcomes assessments in a decentralized environment: The Canadian Case[M]. Hamish, Coates. Higher Education Learning Outcomes Assessments: International Perspectives. Frankfurt: Peter Lang, 2014: 89-112.

[49]Lodge J M, Bonsanquet A. Evaluating quality learning in higher education: reexamining the evidence[J]. Quality in Higher Education, 2014(1): 3-23.

[50]Coates H, Richardson S. An international assessment of bachelor degree graduates' learning outcomes[J]. Higher Education Management and Policy, 2012(3): 1-19.

[51][52]Edwards D, Pearce J. Outcomes Assessment in PracticeReflections on Two Australian Implementations[M]. Hamish, Coates. Higher Education Learning Outcomes Assessment: International Perspectives. Frankfurt: Peter Lang, 2014: 69-88.

[53][54]Tremblay K. OECD assessment of higher education learning outcomes (AHELO): Rationale, challenges and initial insights from the feasibility study[M].Modeling and measuring competencies in higher education. Rotterdam:Brill Sense, 2013: 113-126.

[55]Kuh G D, Ikenberry S O. More than you think, less than we need: Learning outcomes assessment in American higher education[R]. 2009.https://www.learningoutcomesassessment.org/wpcontent/uploads/2019/02/2009NILOASurveyReport.

[56]羅燕, 史静寰, 涂冬波.清华大学本科教育学情调查报告 2009[J].清华大学教育研究, 2009(5): 1-13.

[57]史静寰, 涂冬波, 王纾等.基于学习过程的本科教育学情调查报告 2009[J].清华大学教育研究, 2011(4): 9-23.

[58]鲍威, 张晓玥.中国高校学生学业参与的多维结构及其影响机制[J].复旦教育论坛, 2012(6): 20-28.

[59]鲍威.高校学生院校满意度的测量及其影响因素分析[J].教育发展研究, 2014(3): 22-29.

[60]周作宇, 周廷勇.大学生就读经验: 评价高等教育质量的一个新视角[J].大学 (研究与评价), 2007(1):27-31.

[61]章建石, 张红伟.我国高等教育质量评估工作现状的反馈——对 54 所高等院校的调查分析[J].大学 (研究与评价), 2008(4): 58-61.

[62]史秋衡, 矫怡程.不同类型高校本科生源质量的实证研究——基于 “国家大学生学习情况调查” 的数据分析[J].复旦教育论坛, 2014(1):18-23.

[63]赵婷婷, 杨翊, 刘欧等.大学生学习成果评价的新途径——EPP (中国) 批判性思维能力试测报告[J].教育研究, 2015(9): 64-71.

(责任编辑:刘增石)

猜你喜欢

国际比较质量保障高等教育
德国双元制职业教育质量保障体系
火力发电厂汽轮机安装过程中的质量保障措施探析
信用证欺诈及例外原则的比较研究
家居空间设计项目化教学模式改革的国际比较研究
金融资产结构的国际比较及发展启示
关于应用型计算机专业培养方案的研究
基于Flash+XML技术的护理技能虚拟教学平台设计与实现
中国高等教育供给侧改革研究:起源、核心、内涵、路径
高等教育教学中的重与轻分析
涉农类高职专业“一二三四五”顶岗实习管理模式的实践