Skip to main content
Log in

Ein Multiple-Choice-Test zum konzeptuellen Verständnis der Kraftwirkung auf Ladungsträger in statischen elektrischen und magnetischen Feldern

A Multiple-choice-test on the Conceptual Understanding of the Effect of Forces in Static Electric and Magnetic Fields

  • Original Paper
  • Published:
Zeitschrift für Didaktik der Naturwissenschaften Aims and scope Submit manuscript

Zusammenfassung

Ein konzeptuelles Verständnis der Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern ist ein wichtiges Ziel des Physikunterrichts der Oberstufe. Allerdings fehlt im deutschsprachigen Raum dazu bisher ein geeignetes Testinstrument, mit dem Lernziele überprüft werden können. Im Beitrag wird die Entwicklung eines Multiple-Choice-Tests beschrieben, um entsprechenden Unterricht zu evaluieren. In drei Studien wurden Argumente gesammelt, die für die Validität einer solchen Interpretation der Testwerte sprechen. In Studie 1 wurden die Leistungen von 283 Schülerinnen und Schülern erfasst und mittels einer Raschanalyse gezeigt, dass die beiden fokussierten Dimensionen (Verständnis der Bewegung von Ladungsträgern im elektrischen bzw. magnetischen Feld) statistisch getrennt werden können. Dies kann vor allem als Argument für die strukturelle Validität aufgefasst werden. Im Rahmen von Studie 2 wurde die kognitive Validität mit einer Teilstichprobe von 18 Schülerinnen und Schülern aus Studie 1 untersucht. Die Ergebnisse dienten dazu, den Test entsprechend zu modifizieren. In Studie 3 wurden 55 Schülerinnen und Schüler mittels eines einschlägigen, computerbasierten Lernspiels instruiert. Der hohe Zuwachs in den Testscores ist ein Indiz für die Instruktionssensitivität des Tests, einer wichtigen Voraussetzung für konsequentielle Validität. Der Test wird als Onlinematerial zur Nutzung zur Verfügung gestellt.

Abstract

Conceptual understanding of mobile charge carriers in electric and magnetic fields is an essential goal of upper secondary physics instruction. However, it lacks test instruments available in the German language to evaluate whether this goal is achieved. We present such an instrument and discuss evidence concerning significant aspects of validity from three different studies. In the first study, the test instrument has been administered to 283 students from upper secondary physics courses. A Rasch analysis supports the assumption that the two major dimensions (understanding of mobile charge carriers in an electric/a magnetic field) can be differentiated. That result is an argument for structural validity. In a second study, 18 students have been researched using the think-aloud-method; the results support cognitive validity. In the third study, 55 students from four different courses have been tested in a pre- and post-test with an intervention based on a computer game that fosters conceptual understanding. The results support instructional sensitivity, an important prerequisite of consequential validity. The test instrument is available online.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Abb. 1
Abb. 2

Literatur

  • American Educational Research Association [AERA], American Psychological Association [APA], & National Council on Measurement in Education [NCME] (2014). Standards for educational and psychological testing. Washington, DC: AERA.

    Google Scholar 

  • Bond, T., & Fox, C. (2007). Applying the Rasch model: fundamental measurement in the human sciences. Mahwah: LEA.

    Google Scholar 

  • Clark, L. A., & Watson, D. (1995). Constructing validity: basic issues in objective scale development. Psychological Assessment, 7, 309–319.

    Article  Google Scholar 

  • Dickmann, M. (2016). Messung von Experimentierfähigkeiten. Validierungsstudien zur Qualität eines computerbasierten Testverfahrens. Berlin: Logos.

    Google Scholar 

  • Ding, L., Chabay, R., Sherwood, B., & Beichner, R. (2006). Evaluating an electricity and magnetism assessment tool: brief electricity and magnetism assessment. Physical Review Special Topics—Physics Education Research, 2(1), 1–7.

    Article  Google Scholar 

  • Dirksen, D. J. (2014). Student assessment. Fast, frequent, formative. Lanham: Rowman & Littlefield Education.

    Google Scholar 

  • Gadermann, A. M., Guhn, M., & Zumbo, B. D. (2012). Estimating ordinal reliability for Likert-type and ordinal item response data: a conceptual, empirical, and practical guide. Practical Assessment, Research & Evaluation, 17(3), 1–13.

    Google Scholar 

  • Gellermann, C. (2018). Evaluation eines Computer-Lernspiels zur Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern. Osnabrück: Universität Osnabrück. Unveröffentlichte Masterarbeit

    Google Scholar 

  • Gog, T., & Sweller, J. (2015). Not new, but nearly forgotten: the testing effect decreases or even disappears as the complexity of learning materials increases. Educational Psychology Review, 27, 247–264.

    Article  Google Scholar 

  • Grehn, J., & Krause, J. (2015). Metzler Physik. Gesamtband SII Grundkurs Ausgabe Nordrhein-Westfalen. Braunschweig: Schroedel.

    Google Scholar 

  • Groth, V. (2016). Analyse von Schülerinterviews zur kognitiven Validierung von Multiple-Choice-Aufgaben sowie zur Identifizierung von Schülervorstellungen zu der Bewegung von Ladungsträgern in elektrischen und magnetischen Feldern. Unveröffentlichte Masterarbeit. Osnabrück: Universität Osnabrück.

    Google Scholar 

  • Hadenfeldt, J. C., & Neumann, K. (2012). Die Erfassung des Verständnisses von Materie durch Ordered Multiple Choice Aufgaben. Zeitschrift für Didaktik der Naturwissenschaften, 18, 317–338.

    Google Scholar 

  • Hadenfeldt, J. C., Repenning, B., & Neumann, K. (2014). Die kognitive Validität von Ordered Multiple Choice Aufgaben zur Erfassung des Verständnisses von Materie. Zeitschrift für Didaktik der Naturwissenschaften, 20, 57–68.

    Article  Google Scholar 

  • Haladyna, T. M., Downing, S. M., & Rodriguez, M. C. (2002). A review of multiple-choice item-writing guidelines for classroom assessment. Applied Measurement in Education, 15, 309–334.

    Article  Google Scholar 

  • Hartig, J., Frey, A., & Jude, N. (2012). Validität. In H. Moosbrugger & A. Kelava (Hrsg.), Testtheorie und Fragebogenkonstruktion (S. 143–171). Berlin: Springer.

    Chapter  Google Scholar 

  • Hopf, M., & Wilhelm, T. (2018). Schülervorstellungen zu Feldern und Wellen. In H. Schecker, T. Wilhelm, M. Hopf & R. Duit (Hrsg.), Schülervorstellungen und Physikunterricht (S. 186–208). Berlin: Springer Spektrum.

    Google Scholar 

  • Kane, M. T. (1992). An argument-based approach to validity. Psychological Bulletin, 112, 527–535.

    Article  Google Scholar 

  • Kane, M. T. (2013). Validating the interpretations and uses of test scores. Journal of Educational Measurement, 50, 1–73.

    Article  Google Scholar 

  • Kauertz, A. (2008). Schwierigkeitserzeugende Merkmale physikalischer Leistungstestaufgaben. Berlin: Logos.

    Google Scholar 

  • Landau, L. D., & Lifschitz, E. M. (1977). Theoretische Physik kurzgefaßt – Band 1 Mechanik, Elektrodynamik. München: Carl Hanser.

    Google Scholar 

  • Lienert, G. A., & Raatz, U. (1998). Testaufbau und Testanalyse. Weinheim: Beltz.

    Google Scholar 

  • Maloney, D. P., O’Kuma, T. L., Hieggelke, C. J., & Van Heuvelen, A. (2001). Surveying students’ conceptual knowledge of electricity and magnetism. American Journal of Physics, 69(7 Supp1), 12–23. https://doi.org/10.1119/1.1371296.

    Article  Google Scholar 

  • Meinhardt, C., Rabe, T., & Krey, O. (2018). Formulierung eines evidenzbasierten Validitätsarguments am Beispiel der Erfassung physikdidaktischer Selbstwirksamkeitserwartungen mit einem neu entwickelten Instrument. Zeitschrift für Didaktik der Naturwissenschaften, 24, 131–150.

    Article  Google Scholar 

  • Messick, S. (1994). Validity of psychological assessment: Validation of inferences from persons’ responses and performances as scientific inquiry into score meaning. Research Report RR-94-45. Princeton: Educational Testing Service.

    Google Scholar 

  • Messick, S. (1995). Validity of psychological assessment. Validation of inferences from persons’ responses as scientific inquiry into score meaning. American Psychologist, 50, 741–749.

    Article  Google Scholar 

  • Naumann, A., Hochweber, J., & Hartig, J. (2014). Modeling instructional sensitivity using a longitudinal multilevel differential item functioning approach. Journal of Educational Measurement, 51, 381–399.

    Article  Google Scholar 

  • Naumann, A., Musow, S., Aichele, C., Hochweber, J., & Hartig, J. (2019). Instruktionssensitivität von Tests und Items. Zeitschrift für Erziehungswissenschaft, 22, 181–202.

    Article  Google Scholar 

  • Niedersächsisches Kultusministerium (2017). Kerncurriculum für das Gymnasium – gymnasiale Oberstufe Physik. db2.nibis.de/1db/cuvo/datei/ph_go_kc_druck_2017.pdf. Zugegriffen: 29. Aug. 2018.

    Google Scholar 

  • Polikoff, M. S. (2010). Instructional sensitivity as a psychometric property of assessments. Educational Measurement: Issues and Practice, 29, 3–14.

    Article  Google Scholar 

  • Riese, J., Kulgemeyer, C., Borowski, A., Fischer, H., Schecker, H., Reinhold, P., Tomczyszyn, E., Gramzow, Y., & Zander, S. (2015). Modellierung und Messung des Professionswissens in der Lehramtsausbildung Physik. 61. Beiheft der Zeitschrift für Pädagogik. (S. 55–79).

    Google Scholar 

  • Sandmann, A. (2014). Lautes Denken – die Analyse von Denk‑, Lern, und Problemlöseprozessen. In D. Krüger, I. Parchmann & H. Schecker (Hrsg.), Methoden in der naturwissenschaftsdidaktischen Forschung (S. 179–188). Berlin Heidelberg: Springer.

    Chapter  Google Scholar 

  • Schaper, N. (2014). Validitätsaspekte von Kompetenzmodellen und -tests für hochschulische Kompetenzdomänen. In F. Musekamp & G. Spöttl (Hrsg.), Kompetenz im Studium und in der Arbeitswelt. Nationale und internationale Ansätze zur Erfassung von Ingenieurkompetenzen (S. 21–48). Frankfurt, Main: Peter Lang.

    Google Scholar 

  • Schecker, H., Fischer, H. E., & Wiesner, H. (2004). Physikunterricht in der gymnasialen Oberstufe. In H.-E. Tenorth (Hrsg.), Kerncurriculum Oberstufe II (S. 148–234). Weinheim: Beltz.

    Google Scholar 

  • Sommerfeld, A. (2001). Elektrodynamik. Frankfurt a. M.: Harri Deutsch.

    Google Scholar 

  • Treagust, D. F. (1988). Development and use of diagnostic tests to evaluate students’ misconceptions in science. International Journal of Science Education, 10, 159–169.

    Article  Google Scholar 

  • Ziegler, E., & Stern, E. (2016). Consistent advantages of contrasted comparisons: Algebra learning under direct instruction. Learning and Instruction, 41, 41–51. https://doi.org/10.1016/j.learninstruc.2015.09.006.

    Article  Google Scholar 

Download references

Danksagung

Wir danken C. Gellermann, V. Groth und J.-E. Kilimann für Masterarbeiten, in denen Teile der hier publizierten Studie entwickelt und evaluiert wurden. Dies betrifft insbesondere die Entwicklung und Evaluation des Computerspiels sowie die Analysen des Lauten Denkens.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Roland Berger.

Caption Electronic Supplementary Material

Onlinematerial.

Vollständiger Multiple-Choice-Test zum konzeptuellen Verständnis der Kraftwirkung auf Ladungsträger in statischen elektrischen und magnetischen Feldern

Anhang

Anhang

Quellen der Aufgaben

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Berger, R., Kulgemeyer, C. & Lensing, P. Ein Multiple-Choice-Test zum konzeptuellen Verständnis der Kraftwirkung auf Ladungsträger in statischen elektrischen und magnetischen Feldern. ZfDN 25, 197–210 (2019). https://doi.org/10.1007/s40573-019-00099-2

Download citation

  • Received:

  • Revised:

  • Accepted:

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s40573-019-00099-2

Schlüsselwörter

Keywords

Navigation