Zusammenfassung
Ein konzeptuelles Verständnis der Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern ist ein wichtiges Ziel des Physikunterrichts der Oberstufe. Allerdings fehlt im deutschsprachigen Raum dazu bisher ein geeignetes Testinstrument, mit dem Lernziele überprüft werden können. Im Beitrag wird die Entwicklung eines Multiple-Choice-Tests beschrieben, um entsprechenden Unterricht zu evaluieren. In drei Studien wurden Argumente gesammelt, die für die Validität einer solchen Interpretation der Testwerte sprechen. In Studie 1 wurden die Leistungen von 283 Schülerinnen und Schülern erfasst und mittels einer Raschanalyse gezeigt, dass die beiden fokussierten Dimensionen (Verständnis der Bewegung von Ladungsträgern im elektrischen bzw. magnetischen Feld) statistisch getrennt werden können. Dies kann vor allem als Argument für die strukturelle Validität aufgefasst werden. Im Rahmen von Studie 2 wurde die kognitive Validität mit einer Teilstichprobe von 18 Schülerinnen und Schülern aus Studie 1 untersucht. Die Ergebnisse dienten dazu, den Test entsprechend zu modifizieren. In Studie 3 wurden 55 Schülerinnen und Schüler mittels eines einschlägigen, computerbasierten Lernspiels instruiert. Der hohe Zuwachs in den Testscores ist ein Indiz für die Instruktionssensitivität des Tests, einer wichtigen Voraussetzung für konsequentielle Validität. Der Test wird als Onlinematerial zur Nutzung zur Verfügung gestellt.
Abstract
Conceptual understanding of mobile charge carriers in electric and magnetic fields is an essential goal of upper secondary physics instruction. However, it lacks test instruments available in the German language to evaluate whether this goal is achieved. We present such an instrument and discuss evidence concerning significant aspects of validity from three different studies. In the first study, the test instrument has been administered to 283 students from upper secondary physics courses. A Rasch analysis supports the assumption that the two major dimensions (understanding of mobile charge carriers in an electric/a magnetic field) can be differentiated. That result is an argument for structural validity. In a second study, 18 students have been researched using the think-aloud-method; the results support cognitive validity. In the third study, 55 students from four different courses have been tested in a pre- and post-test with an intervention based on a computer game that fosters conceptual understanding. The results support instructional sensitivity, an important prerequisite of consequential validity. The test instrument is available online.
Literatur
American Educational Research Association [AERA], American Psychological Association [APA], & National Council on Measurement in Education [NCME] (2014). Standards for educational and psychological testing. Washington, DC: AERA.
Bond, T., & Fox, C. (2007). Applying the Rasch model: fundamental measurement in the human sciences. Mahwah: LEA.
Clark, L. A., & Watson, D. (1995). Constructing validity: basic issues in objective scale development. Psychological Assessment, 7, 309–319.
Dickmann, M. (2016). Messung von Experimentierfähigkeiten. Validierungsstudien zur Qualität eines computerbasierten Testverfahrens. Berlin: Logos.
Ding, L., Chabay, R., Sherwood, B., & Beichner, R. (2006). Evaluating an electricity and magnetism assessment tool: brief electricity and magnetism assessment. Physical Review Special Topics—Physics Education Research, 2(1), 1–7.
Dirksen, D. J. (2014). Student assessment. Fast, frequent, formative. Lanham: Rowman & Littlefield Education.
Gadermann, A. M., Guhn, M., & Zumbo, B. D. (2012). Estimating ordinal reliability for Likert-type and ordinal item response data: a conceptual, empirical, and practical guide. Practical Assessment, Research & Evaluation, 17(3), 1–13.
Gellermann, C. (2018). Evaluation eines Computer-Lernspiels zur Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern. Osnabrück: Universität Osnabrück. Unveröffentlichte Masterarbeit
Gog, T., & Sweller, J. (2015). Not new, but nearly forgotten: the testing effect decreases or even disappears as the complexity of learning materials increases. Educational Psychology Review, 27, 247–264.
Grehn, J., & Krause, J. (2015). Metzler Physik. Gesamtband SII Grundkurs Ausgabe Nordrhein-Westfalen. Braunschweig: Schroedel.
Groth, V. (2016). Analyse von Schülerinterviews zur kognitiven Validierung von Multiple-Choice-Aufgaben sowie zur Identifizierung von Schülervorstellungen zu der Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern. Unveröffentlichte Masterarbeit. Osnabrück: Universität Osnabrück.
Hadenfeldt, J. C., & Neumann, K. (2012). Die Erfassung des Verständnisses von Materie durch Ordered Multiple Choice Aufgaben. Zeitschrift für Didaktik der Naturwissenschaften, 18, 317–338.
Hadenfeldt, J. C., Repenning, B., & Neumann, K. (2014). Die kognitive Validität von Ordered Multiple Choice Aufgaben zur Erfassung des Verständnisses von Materie. Zeitschrift für Didaktik der Naturwissenschaften, 20, 57–68.
Haladyna, T. M., Downing, S. M., & Rodriguez, M. C. (2002). A review of multiple-choice item-writing guidelines for classroom assessment. Applied Measurement in Education, 15, 309–334.
Hartig, J., Frey, A., & Jude, N. (2012). Validität. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 143–171). Berlin: Springer.
Hopf, M., & Wilhelm, T. (2018). Schülervorstellungen zu Feldern und Wellen. In H. Schecker, T. Wilhelm, M. Hopf & R. Duit (Hrsg.), Schülervorstellungen und Physikunterricht (S. 186–208). Berlin: Springer Spektrum.
Kane, M. T. (1992). An argument-based approach to validity. Psychological Bulletin, 112, 527–535.
Kane, M. T. (2013). Validating the interpretations and uses of test scores. Journal of Educational Measurement, 50, 1–73.
Kauertz, A. (2008). Schwierigkeitserzeugende Merkmale physikalischer Leistungstestaufgaben. Berlin: Logos.
Landau, L. D., & Lifschitz, E. M. (1977). Theoretische Physik kurzgefaßt – Band 1 Mechanik, Elektrodynamik. München: Carl Hanser.
Lienert, G. A., & Raatz, U. (1998). Testaufbau und Testanalyse. Weinheim: Beltz.
Maloney, D. P., O’Kuma, T. L., Hieggelke, C. J., & Van Heuvelen, A. (2001). Surveying students’ conceptual knowledge of electricity and magnetism. American Journal of Physics, 69(7 Supp1), 12–23. https://doi.org/10.1119/1.1371296.
Meinhardt, C., Rabe, T., & Krey, O. (2018). Formulierung eines evidenzbasierten Validitätsarguments am Beispiel der Erfassung physikdidaktischer Selbstwirksamkeitserwartungen mit einem neu entwickelten Instrument. Zeitschrift für Didaktik der Naturwissenschaften, 24, 131–150.
Messick, S. (1994). Validity of psychological assessment: Validation of inferences from persons’ responses and performances as scientific inquiry into score meaning. Research Report RR-94-45. Princeton: Educational Testing Service.
Messick, S. (1995). Validity of psychological assessment. Validation of inferences from persons’ responses as scientific inquiry into score meaning. American Psychologist, 50, 741–749.
Naumann, A., Hochweber, J., & Hartig, J. (2014). Modeling instructional sensitivity using a longitudinal multilevel differential item functioning approach. Journal of Educational Measurement, 51, 381–399.
Naumann, A., Musow, S., Aichele, C., Hochweber, J., & Hartig, J. (2019). Instruktionssensitivität von Tests und Items. Zeitschrift für Erziehungswissenschaft, 22, 181–202.
Niedersächsisches Kultusministerium (2017). Kerncurriculum für das Gymnasium – gymnasiale Oberstufe Physik. db2.nibis.de/1db/cuvo/datei/ph_go_kc_druck_2017.pdf. Zugegriffen: 29. Aug. 2018.
Polikoff, M. S. (2010). Instructional sensitivity as a psychometric property of assessments. Educational Measurement: Issues and Practice, 29, 3–14.
Riese, J., Kulgemeyer, C., Borowski, A., Fischer, H., Schecker, H., Reinhold, P., Tomczyszyn, E., Gramzow, Y., & Zander, S. (2015). Modellierung und Messung des Professionswissens in der Lehramtsausbildung Physik. 61. Beiheft der Zeitschrift für Pädagogik. (S. 55–79).
Sandmann, A. (2014). Lautes Denken – die Analyse von Denk‑, Lern, und Problemlöseprozessen. In D. Krüger, I. Parchmann & H. Schecker (Hrsg.), Methoden in der naturwissenschaftsdidaktischen Forschung (S. 179–188). Berlin Heidelberg: Springer.
Schaper, N. (2014). Validitätsaspekte von Kompetenzmodellen und -tests für hochschulische Kompetenzdomänen. In F. Musekamp & G. Spöttl (Hrsg.), Kompetenz im Studium und in der Arbeitswelt. Nationale und internationale Ansätze zur Erfassung von Ingenieurkompetenzen (S. 21–48). Frankfurt, Main: Peter Lang.
Schecker, H., Fischer, H. E., & Wiesner, H. (2004). Physikunterricht in der gymnasialen Oberstufe. In H.-E. Tenorth (Hrsg.), Kerncurriculum Oberstufe II (S. 148–234). Weinheim: Beltz.
Sommerfeld, A. (2001). Elektrodynamik. Frankfurt a. M.: Harri Deutsch.
Treagust, D. F. (1988). Development and use of diagnostic tests to evaluate students’ misconceptions in science. International Journal of Science Education, 10, 159–169.
Ziegler, E., & Stern, E. (2016). Consistent advantages of contrasted comparisons: Algebra learning under direct instruction. Learning and Instruction, 41, 41–51. https://doi.org/10.1016/j.learninstruc.2015.09.006.
Danksagung
Wir danken C. Gellermann, V. Groth und J.-E. Kilimann für Masterarbeiten, in denen Teile der hier publizierten Studie entwickelt und evaluiert wurden. Dies betrifft insbesondere die Entwicklung und Evaluation des Computerspiels sowie die Analysen des Lauten Denkens.
Author information
Authors and Affiliations
Corresponding author
Caption Electronic Supplementary Material
Onlinematerial.
Vollständiger Multiple-Choice-Test zum konzeptuellen Verständnis der Kraftwirkung auf Ladungsträger in statischen elektrischen und magnetischen Feldern
Anhang
Anhang
Quellen der Aufgaben
-
Singh, C. und Li, J.: Magnetism Conceptual Survey (MCS) (Aufgabe 1a, Aufgabe 2, Aufgabe 8, Aufgabe 9): https://www.physport.org/assessments/assessment.cfm?I=27&A=MCS [10.05.2019]
-
Saglam, M. & Millar, R. (2004). Diagnostic Test of Students’ Ideas in Electromagnetism. University of York. ISBN: 1 85342 627 X (Aufgaben 5 a) und b))
-
Marx, J. und Wilson, J.: Diagnostic Exam for Introductory, Undergraduate Electricity and Magnetism (DEEM) (Aufgaben 3a) – d): https://www.physport.org/assessments/assessment.cfm?I=23&A=DEEM [10.05.2019]
-
Ruth Chabay, R. und Sherwood, B.: Brief Electricity and Magnetism Assessment (BEMA) (Aufgaben 4 a) und b)): https://www.physport.org/assessments/assessment.cfm?I=20&A=BEMA [10.05.2019]
-
Baumert, J. et al. (1999). Testaufgaben zu TIMSS/III (Aufgabe 7): http://hdl.handle.net/11858/00-001M-0000-0025-A04A-6 [10.05.2019]
-
Broder, D. L., MColgan, M. W. und Finn, R. A.: Electricity and magnetism Conceptual Assessment (EMCA) (Aufgabe 10): www.physport.org/assessments/EMCA [10.05.2019]
-
Die Aufgabe 1b und Aufgaben 6 a) und b) sind Eigenentwicklungen in Anlehnung an vorhandene Aufgaben zum Magnetfeld, welche die Kontrastierung von analogen Aufgaben im elektrischen Feld zu diagnostischen Zwecken unterstützen sollen (vgl. Ziegler und Stern 2016)
Rights and permissions
About this article
Cite this article
Berger, R., Kulgemeyer, C. & Lensing, P. Ein Multiple-Choice-Test zum konzeptuellen Verständnis der Kraftwirkung auf Ladungsträger in statischen elektrischen und magnetischen Feldern. ZfDN 25, 197–210 (2019). https://doi.org/10.1007/s40573-019-00099-2
Received:
Revised:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s40573-019-00099-2