天天看点

学业评价| 跨学科学习评价框架分析:国外经验与启示

作者:华东语文大讲堂

摘要

跨学科评价框架主要以跨学科知识的可迁移性和学生在学习过程中学科知识素养、能力素养的变化为出发点,当前已基本形成了评价跨学科学习综合能力和评价跨学科学习学科素养两种类型的跨学科评价框架。国外跨学科学习评价的框架主要有将学习任务情景化、将学习过程可视化、将评价方法技术化、将评价结果证据化等特点,这些对大陆进一步构建跨学科学习评价框架有一定的启示作用,有助于进一步提升跨学科学习评价的科学性,更好地发挥跨学科实践的价值。

关键词:跨学科学习评价;创新能力;思维能力;学科素养

跨学科学习概念最早在20世纪20年代由美国心理学家伍德沃斯提出,用来表示“以一个学科为中心,运用不同的学科知识,展开对所指向的共同问题进行加工设计的学习模式”。[1]随后英国、德国、日本等其他国家也开展了学科交叉建设。经过百年发展,各国在跨学科教育教学方面已经具备了一些经验。大陆首届跨学科研讨会于1985年在北京召开,这标志着大陆正式开始探索跨学科学习。

学界对跨学科教育的实施方式争议不断,多数学校的跨学科教学活动尚处于探索阶段,因而对跨学科学习项目实施的评价显得十分重要。结合当前国际跨学科评价教育改革趋势,本文对国外具有代表性的跨学科学习评价框架进行分析,通过跨学科学习综合能力评价框架与跨学科学习学科素养评价框架两部分加深对国外主要应用的跨学科评价框架的理解,以期对大陆完善跨学科评价体系带来一些有益的建议。

学业评价| 跨学科学习评价框架分析:国外经验与启示

一、跨学科学习综合能力评价框架内容

为了将学生的跨学科能力转化为可评价的指标,实现评价学生跨学科能力的目标,在梳理了国内外跨学科学习能力评价框架后,依据不同类型的跨学科能力培养视角,从凸显跨学科知识的可迁移性和学生在学习过程中能力素养的变化角度大致将评价框架内容分为评价跨学科创新能力、评价跨学科思维能力与评价跨学科解决问题能力,以下详细说明。

1. 评价跨学科创新能力

跨学科创新能力指学生在跨学科学习过程中,是否能够独立思考,提出(或者在原有基础上进行改进或创新出)新颖、独特且有一定价值的想法或解决方案的能力。常用的跨学科创新能力评价的有TTCT创新模型与TRIZ创新模型。

(1) TTCT创新模型

托兰斯创造性思维测验(TTCT)于1966年由托兰斯在佐治亚大学正式发行,该测验主要是对学生的创造性行为、创造性思维以及创造性潜能进行评估。TTCT分为言语测试和图形测试两部分,包括6个项目,每个项目中会设置不同的任务来考察学生的创造性思维能力。在测试过程中,TTCT的评分主要依据原创性、独创性、灵活性和可行性等几个方面进行判断,通过这些分测验,可以了解学生的创造性思维和创造性表达的能力。TTCT创新模型是一种有效评估学生跨学科创造能力的方法。通过该测试,教师可以更好地了解学生的创造力能力,并为其提供相应的多学科培养和发展支持。

(2) TRIZ创新模型

TRIZ全称为TheoryofInventiveProblemSolving,可译为创新问题解决理论。TRIZ在分析了各国专利的基础上提出一种由解决问题和实现创新开发的各种方法与工具组成的理论框架,认为大量创新问题的核心是一致的,只是领域不同,如果将这些问题的核心内容进行总结,就可以形成一种系统化的理论知识,以便运用于后来的创新实践活动。

TRIZ作为一个在真实情景中解决问题的体系,跨学科是其最重要的特征之一。钟柏昌团队应用文献分析法对创新能力的核心评价要素进行了梳理,在制定评价量表时,以TRIZ为核心,重点增加了评价要素的跨学科特征,最终确定了由创新人格、创新思维、创新学习、创新技能和创新成果5个一级指标与12个二级指标组成的跨学科创新能力评价指标体系,[2]该团队还应用了TRIZ中的“最终理想解”,即最终目的在于寻找实现最终解的最佳解决方案。在设计试题时,教师先给出示范案例,随后鼓励学生结合个人生活与学习经验,设计实现目标的多种方案,并从中找到最佳方案,以此来培养学生的跨学科创新能力。这种学习模式的运用不但能测评学生的自主学习能力,而且能测评学生多学科知识迁移的能力与创新能力。

不论是TTCT还是TRIZ,都在学习前给出了产品模型概念,鼓励学生在过程中设计或改造出新的模型,在学习过程中开展探究性和创新性的教学活动,让学生亲身体验和探究问题,使学生积极思考解决问题的多种途径,从而培养自己的跨学科创新能力。整个学习过程促进了新思想、新技术、新产品的出现。

2. 评价跨学科思维能力

STEAM教育作为一种跨学科的综合教育模式,强调将科学、技术、工程、艺术和数学五个领域的知识和技能融合在一起,这种教育模式不仅仅关注单一学科的知识和技能,而是能注重不同学科之间的交叉和融合,引导学生通过探究、创造、合作和反思的方式,培养自己的多学科思维能力。

威尔逊鉴于对跨学科、STEAM和思维教育的大量研究,试图通过分析STEAM项目中学生参与者的观点和思考,记录他们的词汇,信息综合与思想的变化,增加跨学科方法对学生思维的影响的理解。威尔逊将STEAM思维过程分为创造性思维与批判性思维:创造性思维是指学生可以流畅、独特地思考,以自己的方式将思想串联起来的能力;批判性思维指学生可以将自己所学应用于新的环境的能力(表1)。[3]

表1 STEAM跨学科课程开放式主题的定义

学业评价| 跨学科学习评价框架分析:国外经验与启示

试验结果表明,在参加STEAM跨学科课程后,学生的思考能力有所提高:他们在参与过程中更加注重自己的想象力与新思想,也产生了结合个人经历与学习兴趣的新想法,研究结果表明STEAM跨学科课程对学生的思维能力有积极的影响。

首新等将跨学科思维分为创造性思维与批判性思维:创造性思维主要体现在对问题提出建议方案方面;批判性思维主要体现在分析问题与验证问题方面。[4]据此设计了STEAM跨学科内容试题,体现了创造性思维和批判性思维的进阶过程。阙荣辉利用STEAM跨学科思维水平评价课程,基于SOLO分类理论根据学生对跨学科知识整合程度来划分不同的跨学科思维水平。[5]不同水平的跨学科思维对知识的整合程度各有不同,从跨学科知识整合程度进行评价,可以了解学生跨学科思维发展的现状,具体见表2。学生在解决问题的过程中不同层次的知识融合水平会显示出不同的思维水平,跨学科思维水平越高,知识融合能力越高,综合思维能力也越高,直到学生可以自己创造性地搭建新的学科知识网络。

表2 STEAM教育跨学科思维评价框架

学业评价| 跨学科学习评价框架分析:国外经验与启示

STEAM教育的核心是培养学生的跨学科思维,培养学生在面临复杂问题时,能以文题为中心,应用逻辑能力与综合分析能力,寻找解决文题的途径。跨学科思维的评价可以有效地反馈学生跨学科学习能力进而改进教学。在未来的STEAM教育中教师应该寻找促进学生跨学科思维高水平发展的策略,提升学生对于跨学科学习本质的认识。

3. 评价解决跨学科问题的能力

解决跨学科学习问题的能力主要是指学生能够将不同学科的知识和技能结合起来,灵活解决生活中的实际问题。以ATC21S和项目教学法为代表,两种模型都强调学生需要具备实践能力和应对复杂情境的能力,能够在实践中运用所学知识和技能解决实际问题。

(1) ATC21S模型

21世纪能力教学与评价项目(Assessment & Teaching of 21st Century Skills,ATC21S)将批判性思维、问题解决能力、决策能力、合作能力诸项能力合并为协作问题解决能力。ATC21S测试采用“人—人”交互方式,由两名学生完成共同任务。在测试过程中,系统会实时捕捉并记录学生的关键操作行为和对话内容,进而形成详尽的过程数据。随后,通过对这些数据的深入分析,可以提取出关键行为作为评估的依据,进而准确推断出学生在问题解决方面的实际能力。

(2) 项目教学法

项目教学法最早可以追溯到教育家杜威所倡导的“做中学”,后来克伯屈提出了项目教学法。项目教学法侧重于将学生的多门学科内容结合起来解决实际问题,重视学生自主设计、调查、开发项目,通过制作真实的项目作品,提升学生的多学科知识运用与综合能力。在解决问题过程中,由于问题的解决包含多方面的需求,从而需要整合多学科与多领域的内容参与,项目教学法在培养与促进学生解决问题的跨学科能力方面起到了积极的作用。ATC21S与项目教学法以学生为中心,以问题为基础,以解决问题为目标,以跨学科知识为线索,培养学生解决问题的真实能力。在以解决问题为导向的跨学科教学法中,学生需要在对问题进行分析后,合理选择与链接学科间知识来解决问题,这有助于提高学生运用跨学科知识的熟练度和解决问题的效率。

学业评价| 跨学科学习评价框架分析:国外经验与启示

二、跨学科学习学科素养评价框架内容

目前国际上关于评价学生跨学科学习的学科素养的评价模型较多,从凸显学生在跨学科学习过程中的变化来看,跨学科学习素养注重不同学科之间的交叉和融合,强调学生对知识的整合和综合应用,以目前使用度最高的五种跨学科学习学科素养评价模型为代表,分别给予详细说明。

1. 澳大利亚全国读写与数学能力评估项目

澳大利亚全国读写与数学能力评估项目(National Assessment Program Literacy and Numeracy,NAPLAN)作为澳大利亚政府在国家层面按照统一评价标准开展的基础教育质量评价活动,可以使澳大利亚政府监控国家基础教育质量发展情况、确定学生的学习效果。[6]NAPLAN针对澳大利亚三、五、七、九年级的学生,包含了阅读、写作、语言(拼写、语法与标点)与数学四个领域的内容。2022年NAPLAN全面转向数字化测试,在方式、工具、技术与组织方式等多方面进行了改革。

首先,在测评模式方面,NAPLAN主要采用国际上比较成熟的计算机自适应测量技术。阅读和数学测试的自适应测试流程较为简单,不同阶段的试题难度不同,学生根据自己的测试水平选择适合自己的试题;而语言测试的自适应机制稍显复杂,语言测试的自适应机制包括拼写、语法和标点符号两部分,测试流程与阅读和数学测试相同。

其次,NAPLAN采用垂直等值化的个性化测评报告。[7]评估结果分为1-10级,每个年级具有不同的6个评分等级,且等级随着学生年级的增加而递增,可以有效评估学生的跨学科综合能力。

2. 泛加拿大评估计划

泛加拿大评估计划(Pan-canadian Assessment Program,PCAP)作为一项全国性学习评价项目,涵盖了三个领域:阅读、数学与科学,每次评估的重点都在其中一个领域,其余两个领域作为次重点。PCAP的核心思维主要体现在:联系学生学习与生活经验,强调掌握学科核心知识与技能。PCAP2013在科学素养方面强调学生运用相关的科学知识与技能进行科学推理的能力,从而让学生理解科学问题。在数学素养方面强调“可以在个人生活、工作场所中进修和使用数学,同时学生也需要一套新的数学理论使他们可以熟练地计算,创造性地解决问题”。[8]基于此,PCAP2016要求个体具备信息与通信技术素养,也要求学生掌握数学、科学、语言、社会研究、地理和艺术的跨学科能力。在阅读素养方面,PCAP将其分为四个要素:读者、文本、目的、语境。这意味着学生在进行阅读时需要考虑自己的阅读背景、阅读的目的以及阅读的环境等因素。同时PCAP还强调了学生在阅读过程中的知识建构能力,即通过不断的阅读和思考来提高知识理解能力。此外,PCAP还注重学生对文本的理解、解释以及结合个人经验作出批判性回答等方面的能力,以培养学生真正的阅读能力。

PCAP关注“基于证据”做出推断的能力,关注让学生从试题的情景中识别模式、建立联系、做出解释等。这种能力在学生面临真实场景时会表现出来,可以与其他能力交叉着进行评价,这对大陆评价体系的进一步改革有一定的指导作用。

3. 国际数学和科学教育趋势评估

国际数学和科学教育趋势评估(TIMSS)是由国际教育成就评价协会(IEA)发起的一项国际性评估项目。自1995年起,该项目每四年对参与国家的四年级和八年级学生的数学和科学水平进行测评。

TIMSS十分注重评价生命科学与人类生物学的跨学科内容学习。TIMSS在物质科学领域测评主题更侧重于物理与化学的结合,有效实现物理与化学知识点的融合与应用,八年级的科学内容评估中,TIMSS将环境科学与其他几个领域交叉融合,进行考察。[9]TIMSS在各个领域的测评要点逐渐趋向于科学与人类生活相结合的方向,从科学探究逐渐转向科学实践,更加强调学生的科学素养能力。

在评价技术上,TIMSS2023设置了两套自适应数字化评估题目,使评估方式更加科学地体现学生的能力;同时为了更好地评价学生解决问题与科学探究的能力,TIMSS会形成增强版的国际评价报告,这些信息包括在TIMSS2023报告中,以便更深刻地了解学生的学习背景与跨学科学习能力,制定更加科学的教育决策。

4. 美国国家教育进展评估

美国国家教育进展评估(NAEP)是美国唯一在全国范围内持续评估学生在多学科领域素养的项目。它针对四年级、八年级和十二年级的公立或私立学校学生进行样本调查,涉及的学科领域包括数学、阅读、科学、写作、艺术、公民学、经济、地理、历史、技术和工程素养等。

NAEP自2009年开始,逐渐开始拓宽评估领域,转变了原来的测试框架:将科学领域转变成科学内容与科学实践两个领域,要求学生掌握物质科学、生命科学以及地球与空间科学三大领域知识。此外,学生也应该遵循科学活动的规则,“使用适当的工具和技术进行科学调查、进行技术设计等。”[10]这一变化更加考察科学素养能力,强调学科知识之间的整合,也培养了学生的社会科学认知。虽然NAEP对不同年级的学生内容难度要求不同,但核心目标都是培养学生的科学素养能力。

在测评工具方面,自2017年起,NAEP全面采用基于计算机的评价方式进行测试,提高了测试的精确度与灵活性。

5. 国际学生评估项目

国际学生评估项目(PISA)由经济合作与发展组织(OECD)发起,始于1997年,每3年对参与国家或地区的15岁学生进行测评,每次测评以科学、阅读和数学三个领域其中之一作为重点测评领域。[11]PISA的目的是判断学生是否具备良好的素养去应对现代社会情境对人们提出的挑战。PISA通过学生的综合科学素养反映基础教育水平。

表3 PISA2015和PISA2025科学素养测评框架的比较

学业评价| 跨学科学习评价框架分析:国外经验与启示

将PISA2025和PISA2015比较可以发现,PISA2025科学素养测评框架中更加凸显科学知识维度,并重视科学知识在社会环境中的应用过程(表3)。[12]

跨学科学习学科素养评价更注重学生相关学科核心知识与能力的掌握情况,以及学生该门课的素养水平与情感态度。PCAP更加关注学生将阅读与数学两门学科与生活相结合的跨学科学习能力;而TIMSS、NAEP与PISA更加注重生命科学与人类生物学的跨学科内容学习,通过物理、化学与生物学科之间的交叉学习,既加强了学科知识点之间的融合,也提升了学生的科学认知。

学业评价| 跨学科学习评价框架分析:国外经验与启示

三、跨学科学习评价推动路径

通过对上述国外跨学科学习评价框架的进一步梳理与分析,发现不同类型的跨学科学习评价框架在评价维度方面具有不同的特征与趋势,目前大陆正在积极探索符合大陆特色的跨学科学习评价框架,国际跨学科学习评价框架能够为大陆跨学科学习评价实施带来如下参考意见。

1. 将学习任务情景化

近年来,跨学科教育受到各方面越来越多的重视,各类主体更加关注为学生营造良好的氛围和环境。多样化的场景可以帮助学生意识到不同学科之间的联系和交叉点,促进学科交叉意识的养成。例如ATC21S采用真人交互的场景测评模型,通过真实场景,引导学生从多个角度审视问题,发现不同学科之间的内在联系和规律,提出新颖、独特且有一定价值的想法或解决方案,有助于提高学生的跨学科思维能力和创新能力。

2. 将学习过程可视化

在跨学科学习活动中,学习过程是一个锻炼思维、提高创新能力并解决问题的过程。可观测的学习成果结构(SOLO)评价的可视化可以将学生的学习成果与能力水平通过直观的方式呈现出来,帮助教育者更好地了解学生的学习情况。通过学习过程可视化,教育者可以直观地了解学生的学习水平,有助于教育者更准确快速地作出教学决策,SOLO分类评价着重考察学生的思维层次,能将学生的思维过程形象化展示,帮助学生梳理自己的学习思路,有助于提高学生跨学科学习的效率与学习体验,提升学生学习跨学科活动的兴趣。

3. 将评价方法技术化

随着智能化技术的发展,计算机作为一种高效的评估工具,为我们提供了更加便捷的评价方式:人工智能在评分方面的科学性和准确性也远超传统的人工赋分方式。更为重要的是,基于大数据的信息评估不仅能够提供海量的数据支持,还能实现快速的数据处理,样本容量越大,评价的结果越具有可靠性。例如国际上诸多评价框架已经采用基于人机交互模式的自适应测评模式,并逐渐成为学习与教学的趋势,基于计算机的在线评价系统已经可以实现从结果测试到个性化测试的转变,大陆可以结合技术的发展,改善已有的评价方式。

4. 将评价结果证据化

“以证据为中心的评价”,其核心思想为“评价是基于证据的推理”,它是一种以证据为中心的评价推理过程,通过获取多渠道的数据类型,完成学习评价。如ATC21S、PISA等评价项目采用“以证据为中心”的设计模型记录学生在协作过程中的对话和行为,并形成过程数据,基于证据进行评分;PCAP关注让学生从试题情景中识别模式、建立联系、做出解释等。将“以证据为中心的设计”运用到学习评价中,突破了以往主观感知的思维局限,促进了证据驱动的教学评价循环过程,促进了跨学科学习评价过程各环节的衔接与共生。

本文通过对当前国内外主要应用的跨学科学习评价框架模型进行分析,从凸显跨学科知识的可迁移性和学生在学习过程中学科知识素养、能力素养的变化出发,梳理了两类跨学科评价类型,希望对于大陆跨学科学习评价框架的构建带来一些参考价值,从而进一步提升教师跨学科学习评价能力,更好地发挥跨学科实践的价值。

学业评价| 跨学科学习评价框架分析:国外经验与启示

参考文献

[1] 杜惠洁,舒尔茨.德国跨学科教学理念与教学设计分析[J].全球教育展望,2005,34(8):28-32.

DU Huijie, Dieter Scholz. Analysis on Ideal and Design of Cross-Discipline Instruction in Germany[J].Global Education,2005,34(8):28-32.

[2] 钟柏昌,龚佳欣.基于TRIZ的跨学科创新能力评价:试题编制与证实[J].现代远程教育研究,2023,35(4):75-82.

ZHONG Baichang, GONG Jiaxin. Evaluation of Interdisciplinary Innovation Ability Based on TRIZ: Test Compilation and Demonstration [J]. Modern Distance Education Research,2023,35(4):75-82.

[3] WILSON H E, SONG H H,JOHNSON J, et al. Effects of Transdisciplinary STEAM Lessons on Student Critical and Creative Thinking [J]. The Journal of Educational Research,2021,114(5):445-457.

[4] 首新,黄秀莉,李健等.基于STEM学习目标的高阶思维评价[J].现代教育技术,2021,31(3):20-27.

SHOU Xin, HUANG Xiuli, LI Jian, et al. Evaluation of Higher Order Thinking Based on STEM Learning Goals[J]. Modern Educational Technology,2021,31(3):20-27.

[5] 阙荣辉,周丽芳.STEAM教育跨学科思维评价研究——基于化学师范生的实证分析[J].化学教育,2023,44(6):59-66.

QUE Ronghui, ZHOU Lifang. Research on Evaluation of Interdisciplinary Thinking in STEAM Education: Empirical Analysis Based on Chemistry Normal Students[J]. Chinese Journal of Chemical Education,2023,44(6):59-66.

[6] National Assessment Program: Literacy and Numeracy.2016 Information for Parents and Carers[EB/OL].(2022-3-16)[2023-11-27]. http://www.nap.edu.au/_resources/NAPLAN_2016_information_for_parents_web.

[7] ACARA. Results and Reports[EB/OL]. [2023-11-29].

https://www.nap.edu.au/naplan/results-and-reports.

[8] CMEC. PCAP-2016-Asesment-Framework [EB/OL].(2018-1-2)[2023-11-29]. https://www. cmec. ca/docs/pcap/pcap2016/PCAP-2016-Assessment-Framework.

[9] 顾乃景.TIMSS2023科学评估框架概况及启示——兼与TIMSS1995-2019 科学评估框架相比较[J]. 考试研究,2023(1):75-84.

GU Naijing. Overview and Enlightenment of TIMSS 2023 Scientific Assessment Framework-and Comparison With TIMSS 1995-2019 Scientific Assessment Framework[J]. Examinations Research,2023(1):75-84.

[10] National Assessment Governing Board, U. S. Department of Education. Science Framework for the 2015 National Assessment of Educational Progress[EB/OL].(2008-09-30)[2023-11-29].https://nces.ed.gov/nation-sreportcard/science/.

[11] PHATTHARAMANATSRITRAKUL(吴美灵).泰国PISA测评研究[D].上海:华东师范大学,2019.

PHATTHARAMANATSRITRAKUL (WU Meiling). Research on PISA Assessment in Thailand [D].Shanghai: East China Normal University,2019.

[12] 李川.PISA2025 科学素养测评框架的新动向及启示[J].科普研究,2022,17(1):52-58.

LI Chuan. New Trends and Implications of PISA 2025 Science Literacy Assessment[J]. Studies on Science Popularization,2022,17(1):52-58.

学业评价| 跨学科学习评价框架分析:国外经验与启示

上海教育评估研究

《上海教育评估研究》创刊于2012年,由上海市教育委员会主管、上海市教育评估院主办,国内外公开发行,邮发代号4-886。系中国人文社会科学期刊AMI综合评价(A刊)扩展期刊,连续三年获评国家哲学社会科学文献中心教育学学科最受欢迎期刊。

来自 周玮,蔡旻君 上海教育评估研究

继续阅读