1 Einführung: Was ist Empirie?

Erfahrung und Empirie – das sind zwei zentrale Konstrukte einer sich empirisch verstehenden Psychologie. In der Kongressankündigung heißt es: Empirie ist „die methodisch geregelte, systematisierte und durch das Experiment geleitete Erfahrungsbildung“. Damit ist Erfahrung als zentraler Bestandteil der Empirie anzusehen. Aber während es „Wahrheit nur zu zweien“ (Hannah Arendt) gibt, gibt es Erfahrung im Unterschied zur Empirie auch nur in der ersten Person (meine Erfahrung).

Empirie, verstanden als auf Sinneseindrücken beruhende EvidenzsammlungFootnote 1, braucht Methoden: Empirie muss zunächst erfasst werden. Das Ziel ist dabei festzustellen, ob sich behauptete Kausalzusammenhänge bewahrheiten. Methoden sollten, zumindest laut Lehrbuch (in theoriam), multimethodische Methoden („multi methods“) sein, da die Empirie bunt und vielfältig ist. Methoden in praxi sind dagegen häufig nur Einzelmethoden („single methods“; vor allem die häufig verwendete Methode des Selbstberichts, also Fragebögen). Die Empirie in praxi ist also eher einfarbig und monoton. Das Zählbare („what can easily be counted“) scheint wichtiger als das Gezählte („what really counts“). Ich verweise hier auf (selbst-)kritische Arbeiten von Baumeister et al. (2007), dass entgegen dem Versprechen einer auf tatsächliches Verhalten gerichteten Psychologie viele publizierte Arbeiten mit Kreuzen auf Fragebögen oder Tastendrücken am Computerbildschirm arbeiten.

Die Fokussierung auf Empirie kommt in der erkenntnistheoretischen Position des Empirismus zum Ausdruck: Der Empirismus geht davon aus, dass wahre Erkenntnis auf Sinneserfahrung beruhtFootnote 2. Das Ziel von Wissenschaft in diesem Ansatz ist die Erklärung von Ereignissen und das Schaffen von verlässlichen Sinneseindrücken. Empirie, vermittelt über die Sinnessysteme, ist hier das Mittel zum Wissenserwerb (im Unterschied zu Methoden der künstlichen Intelligenz, die ihr „Wissen“ aus Datenbeständen gewinnt). Dagegen steht die Ansicht des Rationalismus, wonach keine vorurteilsfreie sinnliche Erfahrung möglich sei. Jürgen Habermas (1968) hat dies mit dem Begriff des erkenntnisleitenden Interesses beschrieben.

Wir treffen hier auf das Vermächtnis von David Hume (1711–1776). Hume machte eine scharfe Unterscheidung zwischen analytischen und empirischen Behauptungen – erstere seien ein Produkt der Gedanken, letztere sah er als Tatsachen; er klassifizierte kausale Behauptungen (= der Gegenstand von Wissenschaft) als empirisch und nicht als analytisch, und er identifizierte die Quelle aller empirischen Behauptungen mit der menschlichen Erfahrung, nämlich den Sinneseindrücken. Es bleibt die Frage offen, ob die Bezeichnung „empirisch“ notwendigerweise „empiristisch“ heißen muss.

2 Ist empirisch also notwendig empiristisch?

Empiristisch ist das „blinde“ Datensammeln, das ich für problematisch halte; als empirisch würde ich dagegen das „sehende“ Datensammeln beschreiben. Natürlich bleibt die Rolle der Empirie als Kontrollinstanz für theoretische Annahmen zentral. Theorie und Empirie verhalten sich in einem Wechselbezug. Man braucht Theorien, um empirische Forschung überhaupt sinnvoll (nämlich theoriegeleitet) durchführen zu können. Umgekehrt informiert das Ergebnis empirischer Forschung über die Gültigkeit von theoretischen Annahmen. Abb. 1 macht dieses wechselseitige Verhältnis von Theorie (allgemein) und Empirie (speziell) noch einmal in einfacher Form deutlich.

Abb. 1
figure 1

Zum wechselseitigen Verhältnis von Theorie und Empirie und der Methode der Induktion bzw. Deduktion

Die eingangs gestellte Frage, ob „empirisch“ notwendigerweise „empiristisch“ heißen sollte, muss verneint werden. Empirische Forschung ist klar theoriegeleitet: Ohne Theorie keine Empirie, sondern höchstens blindes Datensammeln!

Lassen Sie mich in diesem Zusammenhang noch auf zwei unterschiedliche Kriterien eingehen, die von Hans Reichenbach (1938) zur Rekonstruktion wissenschaftlicher Theorien eingeführt wurden. Er unterschied in seiner wichtigen Arbeit den „Context of Discovery“ (Entdeckungszusammenhang), der ohne Regeln vollzogen wird, und den „Context of Justification“ (Begründungszusammenhang), für den strenge (methodologische) Regeln vorgelegt werden. Der Entdeckungszusammenhang beschreibt die Entstehung einer Idee (war die Idee das Ergebnis jahrelangen Nachdenkens oder entstand sie unter der Dusche?) und ist eigentlich inhaltlich nebensächlich.Footnote 3 Der Begründungszusammenhang dagegen beschreibt die Einbettung der Idee in ein konzeptuelles Netzwerk („nomologisches Netz“) sowie die Maßnahmen zur Überprüfung ihrer Gültigkeit (wird eine große Stichprobe als Beleg angeführt? Sind Methoden korrekt verwendet worden?). Dafür liegt ein ausgefeilter Regelkatalog der empirischen Psychologie zugrunde.

3 Braucht man in Zeiten von Big Data überhaupt noch theoretische Psychologie?

Die Antwort auf die hier rhetorisch gestellte Frage ist ein eindeutiges Ja! Wir brauchen auch in Zeiten von Big Data Theoretische Psychologie. Ich würde sogar behaupten: mehr denn je! Was wir brauchen, sind Big Theories!

KI-Techniken sind stark im Aufdecken verborgener Korrelationen. Was wir in den empirischen Wissenschaften anstreben, sind dagegen Kausalitäten. Nichts ist schädlicher als Korrelationen, die man fälschlich als Kausalitäten interpretiert (Pearl und Mackenzie 2018). Es gibt z. B. eine starke Korrelation zwischen Eisverkauf und Sonnenbrand, aber das bedeutet nicht, dass Eisverkauf Sonnenbrand verursacht. Vielmehr liegt es daran, dass sowohl Eisverkauf als auch Sonnenbrand in den Sommermonaten häufiger vorkommen. Daher ist es wichtig, bei der Interpretation von Korrelationen sorgfältig zu untersuchen, ob es sich tatsächlich um einen kausalen Zusammenhang handelt oder ob es andere Faktoren gibt, die die Beziehung erklären können. „Big Data“ könnte hier vorschnell Missverständnisse erzeugen.

Wie man an der aktuellen Diskussion um den Textgenerator ChatGPT (OpenAI, San Francisco, CA,USA) sieht, kommt es aufgrund von unausgewogenen Trainingsdaten zu „Vorurteils-Verstärkungen“ (siehe dazu Wolfram 2023) aufgrund „schlechter“ Empirie. Genau gesehen beruhen KI-Methoden nicht auf Empirie im eben beschriebenen Verständnis („Sinneserfahrung“), sondern sind bloße Datenverarbeitungen (mit durchaus beachtlichen Leistungen).

Am schlimmsten ist für mich die Blackbox-KI, die lebenswichtige Entscheidungen trifft ohne klare Begründung. In der BRD gilt dies zum Beispiel für die Bankauskünfte (Schufa), denen potenzielle Kreditnehmende ausgesetzt sind. In den USA werden inzwischen Strafurteile von künstlicher Intelligenz festgelegt (dass die eingespeisten Daten natürlich zu verzerrten Urteilen führen, dürfte verständlich sein), aber auch medizinische Diagnosen werden zunehmend von künstlicher Intelligenz gestellt (von Knebel Doeberitz 2021). Hierbei stellt sich natürlich die Frage der Datengrundlage ganz massiv: Sind beispielsweise die an Weißen gefundenen Informationen über Hautkrebs auch auf dunkelhäutige Menschen übertragbar? Insbesondere dann, wenn Anwendungen der künstlichen Intelligenz etwa in den medizinisch unterversorgten Gebieten der Dritten Welt zum Einsatz gebracht werden sollte, stellt sich die Übertragbarkeitsfrage (Validität) solcher „Arzt-Apps“ umso dringlicher. Die Empirie der KI: das sind Datensätze mit „bias“, mit Verzerrungen in den Grundlagen. Eine Kritik an der gegenwärtigen Blackbox-KI findet man zum Beispiel in der Arbeit von Rudin (2019) oder bei Zweig (2023).

Ist Big Data ein Synonym für KI? Nein, denn große Datenmengen können auch mit konventioneller Statistik ausgewertet werden. Allerdings sind die Machine-Learning-Modelle der Blackbox-KI auf große Datensätze angewiesen.

4 Was bedeutet Theoretische Psychologie?

Nach Lindworsky (1932) ist die Theoretische Psychologie mit den folgenden vier Aufgaben konfrontiert:

  1. 1.

    Klassifizierung der zahllosen empirischen Fakten anhand eines umfassenden Systems.

  2. 2.

    Reduktion dieser Fakten auf eine relativ kleine Anzahl von Grundtatsachen und -annahmen.

  3. 3.

    Ableitung von noch nicht beobachtbaren Phänomenen aus den aufgestellten theoretischen Sätzen.

  4. 4.

    Anregung neuer Experimente und Beobachtungen, die ihrerseits die theoretische Konzeption bestätigen.

Für mich ist ebenso wichtig die Rolle des Menschenbilds, das verborgen hinter Theorien steckt, „ein Menschenbild, dass die willkürliche Herstellbarkeit von Experimentalsituation, sowie deren Variierbarkeit … vornehmlich von aktuellen Bedingungen abhängig macht, also auf den Augenblick zurückverwiesen ist.“ (Wendt und Funke 2022, S. 27).

Dagegen steht die Historizität des Menschen als conditio humana: Maschinenmodelle sind naturgemäß geschichtslos, die Historizität des Menschen passt nicht zu derartigen Annahmen.

Noch ein Wort zum Unterschied von „Theorie“ und „Modell“: In der Psychologie ist es seit vielen Jahren üblich, bestimmte Phänomene statistisch (computational) zu „modellieren“. Guest und Martin (2021) prägten den Begriff „open theory“ und propagieren damit Folgendes: „Computational modeling guide us toward better science by forcing us to conceptually analyze, specify, and formalize intuitions that otherwise remain unexamined“ – ganz ähnlich (und ebenso problematisch) argumentieren Oberauer und Lewandowsky (2019): „A strong link between theories and hypotheses is best achieved by formalizing theories as computational models.“ Modellieren ist sicher hilfreich, wenn es um Präzisierungen theoretischer Annahmen geht – aber: bloßes Modellieren ist nicht dem Theoretisieren gleichzusetzenFootnote 4: Beim Theoretisieren geht es vorrangig um Warum-Fragen (Kausalität), beim Modellieren steht eher die Wie-Frage (Funktionalität) im Vordergrund. Ein Globus ist ein gutes (funktionales) Modell der Erdkugel, gibt aber keinerlei Antwort auf Warum-Fragen. Ganz ähnlich ein Spielzeug-Auto, dass die Funktion eines Autos illustrieren mag (zum Transport von Personen geeignet), aber Warum-Fragen unbeantwortet lässt (warum fährt es?).

5 Über die Notwendigkeit guter Theorien

Von Kurt Lewin soll die Aussage stammen: „Nichts ist so praktisch wie eine gute Theorie“. Auch wenn die Aussage vermutlich von einem russischen Kaufmann stammt und nicht von Kurt Lewin, enthält sie doch einen wichtigen Kern. Wie man am Beispiel der Physik sieht, kann es gute Ingenieurwissenschaften (also Angewandte Physik) nur dann geben, wenn deren Grundlage auf exakter Physik (als einer Sammlung von gesicherten Gesetzen und Kausalzusammenhängen) steht.

Die Mosaiksteine empirischer Forschung in der Psychologie müssen den Weg vom Steinbruch zum geordneten Puzzle finden. Benötigt werden hierzu „unifying theories“, die einen Erklärungsversuch für das „große Ganze“ bieten. Solche Versuche sind leider selten geworden. In den letzten Jahren hat Dietrich Dörner (1999) mit seinem „Bauplan für eine Seele“ einen Meilenstein gesetzt, der allerdings noch ein paar wichtige offene Punkte enthält (die Sprache fehlt dem „Bauplan“ noch, ein – wie ich finde – ganz wesentlicher Aspekt). Ein neues, noch nicht veröffentlichtes Werk von Norbert BischofFootnote 5 mit dem Titel „Theoretische Psychologie“ verspricht ebenfalls eine vereinheitlichende (biologisch geprägte) Sichtweise auf psychologische Phänomene.

„Theory matters!“ – das sagen Ian Deary und Sternberg (2021) in einem interessanten Aufsatz und führen aus, warum das so ist: „First, theory is what gives meaning to data. … Second, theory provides predictive power. … Third, tested theory provides the basis for disconfirmation. … Fourth, good theories have heuristic value. …“ Dem ist nichts hinzuzufügen.

6 Was sind Kriterien für gute Theorien?

Wenn wir gute empirische Forschung in der Psychologie haben wollen, brauchen wir gute Theorien. Dies wirft natürlich die Frage auf, was eine gute Theorie eigentlich auszeichnet. Mein Mannheimer Kollege Edgar Erdfelder (1986) hat verschiedene Haupt- und Nebenkriterien benannt, die man zur Gütefeststellung heranziehen kann. Die drei Hauptkriterien sind (die Reihenfolge ist dabei unwichtig):

  1. a)

    Logische Konsistenz: Lassen sich aus der Theorie mit Sicherheit keine widersprüchlichen Aussagen ableiten?

  2. b)

    Empirischer Gehalt: Kann die Theorie potenziell empirisch widerlegt (falsifiziert) werden? Wie groß ist die Menge der Falsifikationsmöglichkeiten?

  3. c)

    Empirische Bewährung: Wie viele nichttriviale Falsifikationsversuche hat die Theorie erfolgreich überstanden? Ist die Theorie mit theoriekonträren Befunden belastet?

Dazu kommen noch fünf Nebenkriterien (deren Reihenfolge – so Erdfelder – entspricht ihrer Bedeutsamkeit):

  1. 5.

    Praktisch-technologische Relevanz (Anwendbarkeit): Eröffnet die Theorie auf naheliegende Weise technologische Anwendungsmöglichkeiten?

  2. 6.

    Emanzipatorische Relevanz (im Sinne von Holzkamp 1970): Trägt die Theorie zur Selbstaufklärung des Menschen über seine gesellschaftlichen und sozialen Abhängigkeiten bei?

  3. 7.

    Heuristischer Wert: Regt die Theorie neue empirische Untersuchungsparadigmen und Fragestellungen an?

  4. 8.

    Integrativer Wert: Werden andere Theorien durch die betreffende Theorie zusammengefasst und damit überflüssig?

  5. 9.

    Präzision: Ist die Theorie in einer präzisen formalen Sprache explizierbar und eventuell sogar axiomatisiert?

Nicht ganz zufällig ähneln diese Kriterien denjenigen der Relevanzkritik psychologischer Forschung von Klaus Holzkamp (1970).Footnote 6

Kommen wir nun nach der Diskussion über Kriterien für gute Theorien zu Überlegungen darüber, an welchem Ort Theorien entstehen könnten. Wie wir eben von Hans Reichenbach gehört haben, gibt es für den Entstehungszusammenhang eine Theorie eigentlich keine Vorschriften. Von daher könnte es fast egal sein, ob eine Theorie in einer Garage, unter der Dusche oder in den Räumen einer Universität formuliert wird. Kreativität kennt keine räumliche Beschränkung (Meusburger et al. 2009). Und doch habe ich da eine Präferenz…

7 Orte zum Theoretisieren

Noch ein Punkt ist mir wichtig: Was sind eigentlich die richtigen Orte zum Theoretisieren? Karl Jaspers (1946) hat in seiner zweiten Auflage zur „Idee der Universität“ nach dem Ende des Zweiten Weltkriegs folgende – wie ich finde: schöne – Sätze formuliert:

„Die Universität hat die Aufgabe, die Wahrheit in der Gemeinschaft von Forschern und Schülern zu suchen. Sie ist eine Korporation mit Selbstverwaltung, ob sie nun die Mittel ihres Daseins durch Stiftungen, durch alten Besitz, durch den Staat, und ob sie ihre öffentliche Autorisierung durch päpstliche Bullen, kaiserliche Stiftungsbriefe oder landesstaatliche Akte hat. Unter allen diesen Bedingungen kann sie ihr Eigenleben unabhängig vollziehen, weil die Begründer der Universität dieses wollen oder solange sie es dulden. Sie hat ihr Eigenleben, das der Staat frei läßt, aus der unvergänglichen Idee, einer Idee übernationalen, weltweiten Charakters wie die der Kirche. Sie beansprucht und ihr wird gewährt die Freiheit der Lehre. Das heißt, sie soll die Wahrheit lehren unabhängig von Wünschen und Weisungen, die sie von außen oder von innen beschränken möchten.

Die Universität ist eine Schule, aber eine einzigartige Schule. An ihr soll nicht nur unterrichtet werden, sondern der Schüler an der Forschung teilnehmen und dadurch zu einer sein Leben bestimmenden wissenschaftlichen Bildung kommen. Die Schüler sind der Idee nach selbständige, selbstverantwortliche, ihren Lehrern kritisch folgende Denker. Sie haben die Freiheit des Lernens.

Die Universität ist die Stätte, an der Gesellschaft und Staat das hellste Bewußtsein des Zeitalters sich entfalten lassen. Dort dürfen als Lehrer und Schüler Menschen zusammenkommen, die hier nur den Beruf haben, Wahrheit zu ergreifen. Denn daß irgendwo bedingungslose Wahrheitsforschung stattfinde, ist ein Anspruch des Menschen als Menschen.“

Diese Vorstellung, die den Idealen einer Humboldt’schen Universität verpflichtet ist, gefällt mir ausgezeichnet. Wenn wir hier die Realität an den (deutschen) Universitäten des 21. Jahrhunderts dagegenstellen, wird klar, dass diese längst keine Rückzugsorte („Elfenbeintürme“) mehr sind, sondern überfüllte und zum großen Teil schlecht finanzierte Lehr- und Forschungseinrichtungen. Sie sind zu Zertifikatsanstalten geworden. An solchen Orten stehen Theorien nicht an vorderster Stelle, sondern es geht – ganz im Sinne von Bologna – um die „employability“ (Beschäftigungsfähigkeit) der Studierenden. Mit einem solchen Ziel hätte Jaspers sich sicherlich nicht zufriedengegeben. Wir sollten wieder daraufhin arbeiten, dass Universitäten im Verständnis von Jaspers als ideale Orte zum Theoretisieren verstanden werden dürfen.

Wenn Universitäten als idealer Ort zum Theoretisieren angesehen werden dürfen, stellt sich natürlich die Frage der Institutionalisierung einer Theoretischen Psychologie, die das Verhältnis von Theorie und Daten thematisieren könnte.

8 Zum Verhältnis von Theorie und Daten

Wenn man sich an der Heidelberger Universität das Vorzeigefach Physik anschaut, stellt man fest, dass ein großer Teil (ca. 10) der zahlreichen Professuren (ca. 40) mit der Denomination „Theoretische Physik“ ausgestattet ist. Der letzte Lehrstuhl für Theoretische Psychologie in der BRD (mein eigener; er wurde durch meinen Vorgänger Norbert Groeben mit einer derartigen Denomination versehen) wurde vor kurzem aus strategischen Gründen umgewidmet. Das Argument für die Überflüssigkeit eines eigenen Lehrstuhls für Theoretische Psychologie lautet: Jedes einzelne Teilgebiet der Psychologie, das von einer Professur vertreten wird, mache natürlich auch Theoretische Psychologie. Ich wage das zu bezweifeln. Eine spezielle Theoretische Psychologie der Sozialpsychologie und eine spezielle Theoretische Psychologie der Klinischen Psychologie zu formulieren scheint mir nicht sinnvoll – hier sollten die gleichen Prinzipien gelten. Das Sparsamkeitsprinzip legt nahe, nur einmal den Aufwand (und dafür gründlich) zu betreiben. Ganz ähnlich argumentieren Muthukrishna und Henrich (2019), wenn sie ein Problem der Psychologie darin sehen, kein „overarching theoretical framework“ zu entwickeln, das für verschiedene Teilgebiete integrative Funktion besitzt.

Die zahlreichen theoretischen Physiker an der Heidelberger Universität sind möglicherweise Zeichen einer fortgeschrittenen Wissenschaft. Gerade die Physik, die lange Zeit Vorbilddisziplin für die Psychologie gewesen ist, sammelt unendlich viele Daten. Allein am „Large Hadron Collider“ (LHC) in Genf werden pro Minute 60 GB neue Daten erzeugt, im Jahr handelt es sich um geschätzt mehr als zehn Petabyte (10 PB sind in Zahlen 11.258.999.068.426.240 Byte). Um in dieser Datenflut überhaupt etwas Sinnvolles zu finden, braucht es starke Theorien mit präzisen Vorhersagen.

Wie viel Petabyte an Daten werden eigentlich in psychologischen Laboratorien gesammelt? Und wie viel Professuren für theoretische Psychologie gibt es im deutschsprachigen Raum, um diese Datenmengen theoriegeleitet auszuwerten?

9 Abschluss

Zum Schluss bleibt festzuhalten: Theorie ohne Empirie bleibt bedeutungslos, Empirie ohne Theorie bleibt erklärungs- und damit sinnfrei. Wir können in der Psychologie (als eine empirische Wissenschaft) auf vernünftige und verlässliche Daten nicht verzichten, aber wir brauchen verstärkte Anstrengungen, die Daten kausal zu verstehen (siehe hierzu Pearl und Mackenzie 2018) und zu ordnen – dafür benötigen wir neben guter Empirie starke Theorien.