Editoren und Editionswissenschaftler haben immer wieder beklagt, die von ihnen vorgelegten Erkenntnisse und die Ergebnisse editionsphilologischer Arbeit stießen in der Literaturwissenschaft außerhalb der editorischen Teildisziplin kaum oder gar nicht auf Interesse.Footnote 1 Positiv gewendet: In kritischen Editionen und insbesondere ihren Apparaten liegen reiche, qualitativ hochwertige Daten über Texte und ihre Entwicklung vor; und obwohl die meisten dieser Daten kanonische Texte betreffen, da typischerweise nur kanonisierte Autoren mit einer kritischen oder gar historisch-kritischen Edition gewürdigt werden, harren die Daten größtenteils noch der literaturwissenschaftlichen Untersuchung. Woran liegt es, dass dieses Material weitgehend ungenutzt und damit im Grunde auch unbekannt geblieben ist?

1 Interpretation ohne Textkritik

Glaubt man dem editionswissenschaftlichen Diskurs, ist der Grund dafür in den Editionen selbst zu suchen: der für den Leser unzugänglichen technischen Form herkömmlicher (gedruckter) Apparate. Typisch für diese Sichtweise ist die Rede vom sog. Variantenfriedhof. Sie impliziert, dass wissenschaftliche Apparate nur totes Wissen anhäufen, statt die Auseinandersetzung mit literarischen Texten zu befruchten. Vermutlich aber nicht aus diesem Grund meiden die meisten interpretatorisch arbeitenden Literaturwissenschaftler die kritischen Editionen und deren Apparate; denn ihnen fehlt ja gerade der Kontakt zum editionswissenschaftlichen Diskurs, durch den sie von der Kritik an den Variantenfriedhöfen hätten erfahren können.

Interpreten suchen nach Informationen, die zum Verständnis eines Textes beitragen. Es ist offensichtlich, dass z. B. Kommentare, aber nicht, dass auch Apparate – also Zeugenbeschreibungen und Variantenverzeichnisse usw. – dies tun. Man könnte nun versuchen, den auf den ersten Blick schwer erkennbaren Nutzen der editorischen für die interpretatorische Arbeit nachzuweisen (dazu später mehr). Stattdessen soll hier zunächst die für Interpreten typische Perspektive genauer beschrieben werden: Interpreten nehmen einen Text gewöhnlich als etwas unhintergehbar Gegebenes hin. Zu textkritischen Problemen haben sie ein agnostisches Verhältnis: Sie tun gewissermaßen so, als könnte man über die Entstehung, Überlieferung, editorische Bearbeitung und somit auch die Fehlerhaftigkeit eines Textes nichts wissen. Von einem hermeneutischen Standpunkt aus gibt es an einer solchen Haltung textkritischen Problemen gegenüber zunächst nichts auszusetzen: Denn was sollte illegitim daran sein, den Text so zu interpretieren, wie er eben vorliegt, und ganz davon zu abstrahieren, warum er so ist, und ob er einmal anders war?Footnote 2 Wer nicht so verfährt, könnte man argumentieren, verwechselt im Grunde das Verstehen mit dem Erklären.Footnote 3 Der Rückgriff auf frühere Autorvarianten als Interpretament kann sogar, wie man weiß, methodisch fragwürdig sein.Footnote 4

Tatsächlich dürfen Interpreten den Text aber nicht ohne jede Rücksicht einfach so nehmen, wie er ist. Das zeigt sich, wenn es um Merkmale des Textes geht, die auf eine andere Instanz als den Autor zurückgehen.Footnote 5 Man stelle sich vor, im Rahmen einer Interpretation des Kafka’schen Processes würde mit der Reihenfolge der Kapitel argumentiert: Eine solche Argumentation wäre dort von Grund auf verfehlt, wo die in den Editionen gewählte Kapitelreihenfolge selbst schon auf Interpretation beruht.Footnote 6 Der Wortlaut einer Stelle mag einen denkbaren oder gar schönen Sinn ergeben: Sobald erwiesen ist, dass der Wortlaut durch den Fehler eines Abschreibers oder Setzers zustande kam und auch nicht ex post vom Autor sanktioniert wurde, ist der sich daraus ergebende Sinn ignorabel. Ein Beispiel dafür ist Faust I, Vers 503, wo der Erdgeist von sich selbst sagt: „Wall’ ich auf und ab, / Webe hin und her!“Footnote 7 In der zweiten und dritten Cotta’schen Ausgabe heißt es „Wehe“ statt „Webe“,Footnote 8 was einen scheinbar ähnlich guten oder sogar überzeugenderen Sinn ergibt.Footnote 9 Aufgrund des Lesartenbefunds ist jedoch anzunehmen, dass die Änderung auf den Setzer der zweiten Cotta’schen Ausgabe zurückgeht.Footnote 10 Interpreten, die sich mit der Figur des Erdgeists beschäftigen und einen Text mit der Lesart „Wehe“ benutzen, werden diese Lesart für genauso autoritativ halten wie den umgebenden Wortlaut. Dass die Lesart „Wehe“ zwar ebenfalls historisch, aber nicht in demselben Sinn authentisch ist wie der unmittelbare Kontext und daher nicht mit der gleichen Berechtigung für die Charakteristik der Erdgeist-Figur herangezogen werden kann, bleibt ihnen verborgen. Und es wäre unangemessen, von ihnen zu verlangen, auf derartige Fehler nach dem sog. überlieferungstechnischen KriteriumFootnote 11 gefasst zu sein.

Interpreten erwarten einen Text, den sie in seinen substanziellen Eigenschaften für authentisch, und das heißt aus ihrer Perspektive: für einen den erkenn- oder erschließbaren Intentionen des Autors möglichst nahe kommenden Text halten dürfen.Footnote 12 Dieser ist natürlich nicht identisch mit einem ‚textologisch‘ authentischen, d. h. überlieferungstreuen Text;Footnote 13 von der Überlieferung haben die Interpreten, anders als vom Autor, vorläufig gar keinen Begriff. Anhand von Fehlern, die auf den Autor selbst zurückgehen, zeigt sich, dass Authentizität unter dem Gesichtspunkt der Interpretation sogar höher zu bewerten ist als die Freiheit von sachlichen Irrtümern. Zwei Beispiele aus Thomas Manns Doktor Faustus mögen das verdeutlichen: Serenus Zeitbloms Datierung des Beginns seiner Niederschrift auf den 27. Mai 1943,Footnote 14 die von Thomas Manns Tagebuch abweicht,Footnote 15 und der musikwissenschaftlich unsinnige Ausdruck „Fugengewicht“ in Wendell Kretzschmars Vortrag über Beethovens Opus 111.Footnote 16 Interpreten des Doktor Faustus erwarten an den betreffenden Stellen zu lesen, was der Autor des Romans, und nicht, was Mann in seinem Tagebuch und Adorno in seiner privaten Handreichung geschrieben hat – vorausgesetzt natürlich, dass es sich jeweils um mehr als bloße Schreibversehen, nämlich um Nachlässigkeiten oder Irrtümer des Autors, handelt.Footnote 17

Selbstgewählte textkritische Ignoranz von Interpreten ist also nicht mit Indifferenz zu verwechseln. Interpreten setzen voraus, dass sie einen im beschriebenen Sinn authentischen Text interpretieren. Über interpretatorisch entscheidende Sachverhalte wie etwa den, dass die Kapitelreihenfolge des Processes in Teilen unsicher ist und auf editorischen Entscheidungen beruht, möchten sie an unübersehbarer Stelle informiert werden. Wissenschaftlich zitierfähige Ausgaben, d. h. auch brauchbare Lese- und Studienausgaben, zeichnen sich dadurch aus, dies zu leisten. Die Wahrscheinlichkeit, eine Interpretation durch Unkenntnis eines textkritischen Problems zu entwerten,Footnote 18 ist daher gering, und die Risiken der textkritischen Ignoranz sind in der Praxis gut beherrschbar.Footnote 19

Es ist Interpreten insofern nichts vorzuwerfen, wenn sie Apparate meiden. Die aus ihrer Sicht naheliegende Frage, was textkritische Erkenntnisse zum Verständnis eines Textes beitragen, geht jedoch in eine falsche Richtung, wenn damit zugleich nach dem Sinn und Zweck von Apparaten gefragt wird. Denn in einer solchen Frage würde sich ein limitierter Begriff von Literaturwissenschaft offenbaren, ein fehlendes Bewusstsein dafür, dass der Text selbst, sein Zustandekommen, seine Überlieferung und Fehlerhaftigkeit, von Interesse sein können – unabhängig davon, ob und was die auf diesem Gebiet gewonnenen Erkenntnisse zum Verständnis des Textes im klassisch interpretatorischen Sinn beitragen.

Wie stellt sich der von Bowers festgestellte ‚lack of contact‘Footnote 20 zwischen ‚literary critics‘ und ‚textual critics‘ aus editionsphilologischer Perspektive dar? Erfreulicherweise hat man sich nicht darauf beschränkt, aufseiten der Interpreten ein schwach ausgeprägtes „Textbewußtsein“ zu beklagen oder ihnen falsche Interpretationen infolge mangelhafter Textgrundlagen und fehlender Variantenkenntnis vorzuhalten.Footnote 21 Im Gegenteil: Die Entwicklung der Editionstechnik im 20. Jahrhundert lässt sich als ein immerwährendes Streben nach Lesbarkeit und Übersichtlichkeit trotz gleichzeitig größerer Genauigkeit und Vollständigkeit beschreiben. Die zuvor herrschende Trennung von Text und Apparat entfremdete die Varianten dem Kontext, in dem sie hätten verständlich werden können. Überwunden wurde diese Trennung durch das Prinzip der horizontal und zugleich vertikal oder syntagmatisch und paradigmatisch lesbaren Zeilensynopse (Abb. 1).Footnote 22

Abb. 1
figure 1

Variantenverzeichnis zum MessiasFootnote

Weißraum bedeutet weitere Gültigkeit des darüberstehenden Textes, Rauten wie unter „Es nur“ zeigen Wegfall des darüberstehenden Textes an; Friedrich G. Klopstock, Werke und Briefe. Historisch-kritische Ausgabe, begründet von Adolf Beck/Karl L. Schneider/Hermann Tiemann, hg. unter der Leitung von Horst Gronemeyer, Berlin/New York 1974 ff., abgekürzt als HKA, hier: Werke IV 5.1, 3 (zu Gesang IV, V. 24).

Der Nutzer blieb gleichwohl hypothetisch und die Adäquatheit im Verhältnis zum Gegenstand die eigentliche Richtschnur der Apparatdarstellung. Es gibt daher zwar keinerlei empirische Belege, wohl aber unabhängige Indizien dafür, dass mit der zeilensynoptischen Darstellung eine optimale Lesbarkeit erreicht wird: das bewährte Vorbild der musikalischen Partitur, mit der die synoptische Textdarstellung schon früh verglichen wurde,Footnote 24 und die bis heute andauernde Nutzung des TUSTEP-Programms vergleich-aufbereite in der editorischen Praxis. Vgl. das Beispiel in Abb. 2 aus der Arbeit an der Faustedition.Footnote 25

Abb. 2
figure 2

Output des TUSTEP-Programms vergleich-aufbereite aufgrund eines Vergleichs von 2 I H14 und 2 I H0a mit der hier als Grundtext gewählten Fassung 2 HFootnote

Gleichheitszeichen bedeuten Übereinstimmung mit dem Grundtext; vgl. Bohnenkamp/Henke/Jannidis 2018 (Anm. 7) und Gerrit Brüning, „Gültiger Wortlaut und ‚sinnliche Masse‘. Zur Textkonstitution des Faust II“, in: Zeitschrift für deutsche Philologie 138/3 (2018), 14, Anm. 56.

Auch längere Texte und eine größere Anzahl von Fassungen lassen sich auf diese Weise flüssig vergleichend lesen.Footnote 27 Synoptische Darstellungen haben jedoch nichts daran ändern können, dass jegliche Form von Apparaten, geht man von Zeitschriften-Zitationen aus, allenfalls sporadisch benutzt wird.Footnote 28

2 Digitale Editionen: Nicht ohne Apparate

Dass reale Nutzer und ihr Umgang mit Editionen nicht greifbar sind, gilt zurzeit auch noch für digitale Editionen.Footnote 29 Deren Ziel ist, die den gedruckten Editionen attestierten Zugangshindernisse durch intuitive Usability zu überwinden und so einen größeren Nutzerkreis zu erreichen.Footnote 30 So wie im Fall gedruckter Editionen die Editoren und Rezensenten darüber befinden, welche Darstellungsform dem Anspruch der Übersichtlichkeit entspricht, liegt es bislang auch bei digitalen Editionen an den daran arbeitenden Philologen, Informatikern und Designern sowie einem kleinen Teil der interessierten Community, den Aufbau der Ansichten und die Navigationsstruktur im Hinblick auf optimale Benutzbarkeit zu beurteilen. Digitale Editionen ermöglichen es aber erstmals, genaue Kenntnisse über die tatsächliche Nutzung (besuchte Seiten, benutzte Links, Verweildauer, Downloads etc.) zu sammeln. Sollte es digitalen Editionen gelingen, editorische Erkenntnisse einer nicht-editorischen literaturwissenschaftlichen Perspektive zugänglich zu machen, würden digitale Editionen einen essenziellen Beitrag sowohl zur Legitimation editorischer Arbeit als auch zur Anschlussfähigkeit der Digital Humanities an die herkömmlichen Geisteswissenschaften leisten.

Ob dies gelingt, hängt von mehreren Bedingungsfaktoren ab. Zum einen natürlich von der weiteren Entwicklung der digitalen Editorik: Weder sind die Möglichkeiten digitaler Medien bislang ausgeschöpft, noch haben diese selbst ihre Entwicklung abgeschlossen. In digitalen Editionen ist daher auf Schritt und Tritt Darstellungsformen zu begegnen, die von denen der gedruckten Welt abgeleitet sind, z. B. differenzierte Umschriften oder die erwähnten zeilensynoptischen Darstellungen (Abb. 3).Footnote 31

Abb. 3
figure 3

Entwurf der zeugenübergreifenden Variantendarstellung für die Faustedition (2013)Footnote

Graue Schrift bedeutet weitere Gültigkeit des darüberstehenden Textes, Bindestriche wie unter „Ihr seht“ zeigen Wegfall des darüberstehenden Textes an. Zum Vergleich mit synoptischen Darstellungen in gedruckten Ausgaben siehe Abb. 1, zum Vergleich mit der für die Faustedition realisierten Umsetzung siehe http://faustedition.net/print/faust.38#l10555 (letzter Aufruf 20.5.2019) und die folgenden Verse. Vgl. auch die von Daniel J. Birnbaum entwickelte synoptische Edition der Nestorchronick (Povest’ vremennyx let), http://pvl.obdurodon.org/browser.xhtml# (letzter Aufruf 6.5.2018).

Etwas grundsätzlich anderes zu erwarten, wäre momentan noch unangemessen: Digitale Editionen verstehen sich ja nicht als eine Ergänzung bereits bestehender oder gleichzeitig erarbeiteter gedruckter Editionen. Sie sind mit dem Anspruch verbunden, mindestens denselben Informationsgehalt abzubilden wie die gedruckten und für diese insofern einen vollwertigen Ersatz zu bieten. Es ist offensichtlich, dass digitale Editionen bereits jetzt mehr leisten und ermöglichen als gedruckte, z. B. bei der Verfügbarmachung umfangreicher Bildbestände, der Suche oder der Verknüpfung getrennt abgelegter Informationen. Es wäre aber ein Irrtum zu glauben, digitale Editionen würden gedruckte bereits in allen Teilen ersetzen können. Eine bleibende Herausforderung sind Darstellungsformen, die in der Lage wären, den Informationsgehalt der verschiedenen Apparatformen mit allen Komplexitäten der darin dargestellten Textentwicklung zu modellieren und zu visualisieren.

Man könnte einwenden, die Wiedergabe einzelner Fassungen im Rahmen einer digitalen Edition, die im Wesentlichen als Archiv konzipiert ist, mache den Apparat überflüssig; denn das, was der Apparat leiste – die Rekonstruierbarkeit einzelner Fassungen und darin vorgenommener Änderungen aus den im Apparat verzeichneten Varianten – erübrige sich durch die leichter nachvollziehbaren Einzelwiedergaben. Dem ist jedoch aus zwei Gründen zu widersprechen: Erstens beschränkt sich die Leistung eines Apparats nicht darauf, einzelne Fassungen rekonstruierbar zu machen. Im Fall von Mehrfachüberlieferung aggregiert oder synthetisiert der Apparat die einzelnen Fassungen zu einer komplexen Information über die gesamte Textentwicklung. Er teilt zu jeder Stelle eines Textes mit, an welchen Stellen überhaupt Abweichungen zwischen Fassungen oder Änderungen in handschriftlichen Zeugen vorkommen und bringt diese in eine chronologische Reihenfolge, „damit so die allmälige Entwicklung des Textes sich aufrolle“, wie Erich Schmidt zu seinem Apparat im Faust II-Band der Weimarer Ausgabe schreibt, die später oft unbedachterweise gerade dafür gescholten wurde, die Textentwicklung nicht darzustellen.Footnote 33 Erst wenn auch digitale Editionen diese Aggregation oder Synthetisierung leisten, können sie als vollwertiger Ersatz für die Apparate gedruckter Editionen gelten. Zweitens können bei der Wiedergabe einzelner Fassungen im Prinzip dieselben Komplexitäten auftreten wie bei der fassungsübergreifenden Textentwicklung. Hier stehen digitale Editionen daher prinzipiell vor denselben Problemen wie bei der Repräsentation fassungsübergreifender Varianten und zugleich unter einem erhöhten Druck, diese Probleme auch zu lösen. Denn nur was kodiert wird, kann auch visualisiert werden. Die Apparatformen der gedruckten Editionen sind zwar ebenfalls begrenzt, können sich im Bedarfsfall aber auf Behelfsmittel wie Zweitapparate zurückziehen.Footnote 34 Solche Anmerkungen mit verbalen Beschreibungen sind auch in digitalen Editionen möglich, widersprechen aber deren Konzept: Diese sollen Textveränderungen am Ende zwar möglichst ‚menschenlesbar‘ visualisieren, zunächst aber maschinenlesbar modellieren. Der Verzicht auf die Repräsentation von Apparatdaten würde also einen Informationsverlust mit sich bringen, ohne auf der anderen Seite den Modellierungsaufwand prinzipiell zu verringern.

Digitale Editionen stehen daher vor der Aufgabe, die in Apparaten kodierten Informationen medial transformiert zu repräsentieren. Damit ist natürlich nicht das typographische Erscheinungsbild herkömmlicher Apparate gemeint, sondern die darin typographisch kodierte Aussage über den Lesarten- oder handschriftlichen Befund. Doch ist dies überhaupt möglich? Sind alle in Apparaten enthaltenen Informationen einer maschinenlesbaren Modellierung zugänglich? Hier und da, z. B. in Reflexionen über den Unterschied zwischen einer typographischen gegenüber einer XML-basierten Kodierung von Informationen im digitalen Medium, heißt es, die Anforderung der Maschinenlesbarkeit zwinge zu einer größeren Eindeutigkeit und Formalisierung, als dies in gedruckten Editionen praktiziert worden sei. Für editionstechnisch anspruchsvolle typographische Darstellungen gilt dies jedoch, wenn überhaupt, am wenigsten. Man kann Schriftarten, Auszeichnungsformen, vertikal-horizontale Positionen, besondere Zeichen und dergleichen für auf den ersten Blick weniger eindeutig und formalisiert halten als Bestandteile von (z. B.) XML-Markup. Dieser Eindruck wird sich jedoch zerstreuen, wenn man das den typographischen Darstellungen zugrundeliegende Regelwerk einbezieht. Umgekehrt sollte man sich durch die technische Anmutung von Markup-Sprachen nicht irreführen lassen: Markup bedarf einer Spezifikation und Interpretation, um die intendierten Bedeutungszuweisungen zu ermöglichen. Auch Unsicherheit und Vagheit entziehen sich nicht grundsätzlich den Ausdrucksmöglichkeiten von Markup-Sprachen (der entsprechende Ausdruck ist u. U. nur nicht so elegant, wie man das von der jeweiligen Markup-Sprache gewohnt ist). Es wäre verfehlt, das Problem der Modellierung von Apparatinformationen von Unsicherheit und Vagheit her zu denken, denn die allermeisten in Apparaten enthaltenen Informationen sind weder unsicher oder vage noch werden sie in uneindeutiger oder informeller Weise transportiert. Die echten Schwierigkeiten treten anderswo auf. Eine Angabe in einem Apparat mag so sicher, präzise und eindeutig wie nur irgendeine Angabe sein: Trotzdem (und dies betrifft nicht nur kuriose Rand- und Sonderfälle) kommt es vor, dass im gegenwärtig maßgeblichen Vokabular für die digitale Repräsentation solcher Informationen (TEI-XML) aus systematischen Gründen kein geeigneter Ausdruck zur Verfügung steht.Footnote 35

3 Informationsvermittlung und Relevanz

Angenommen, die betreffenden Probleme der Repräsentation von Apparatdaten wären sowohl auf der Ebene der Modellierung als auch auf der Ebene der Visualisierung gelöst, d. h. die medialen Möglichkeiten digitaler Editionen wären ausgeschöpft, die Vermittlung der in Apparaten enthaltenen Informationen wäre so intuitiv wie nur irgend möglich. Könnte dies allein schon die Gewähr dafür leisten, dass editorische Erkenntnisse einer nicht-editorischen literaturwissenschaftlichen (d. h. im eingangs beschriebenen Sinn interpretatorischen) Perspektive zugänglich werden? Dies anzunehmen hieße, zugunsten der fraglos wichtigen Informationsvermittlung völlig vom Charakter der Information, die da vermittelt wird, abzusehen. Es muss daher gefragt werden, ob editorische Informationen von der Art sind, dass sich im üblichen Sinn interpretatorische Fragen an ihnen beantworten lassen. Sollten sie das nicht sein, liefe deren noch so intuitive Vermittlung ins Leere. Für typisch interpretatorische Fragestellungen sind textkritische Sachverhalte dann relevant, wenn sie die Deutung beeinflussen, wenn also unterschiedliche Lesarten an einer Stelle unterschiedliche Deutungen des Kontextes bis hin zum gesamten Text ermöglichen oder erzwingen. Stellt man sich Texte als System vor, das durch die Relationen seiner Komponenten konstituiert wird, und geht man davon aus, dass die Veränderung einer Komponente neue Relationen und damit ein neues System entstehen lässt,Footnote 36 müsste jede Variante das Verständnis des Textes beeinflussen. Dieser Grundsatz ist jedoch zu pauschal, um auf konkrete interpretatorische Fragen fruchtbar angewendet werden zu können. Der Textbezug von Deutungen gestaltet sich nämlich nicht so, dass sie gleichmäßig auf alle Komponenten des Systems Bezug nehmen und infolgedessen von jeder Veränderung einzelner Komponenten berührt sind. Im Fokus stehen immer nur Teile des Textes, und je nach Granularität der Aussage kann vom genauen Wortlaut abstrahiert werden. In der Praxis schlagen unterschiedliche Lesarten nur ausnahmsweise auf die Deutung durch. Ein Beispiel dafür ist das Satzendzeichen in Faust I, V. 1685, demzufolge Fausts Satz

Doch hast du Speise die nicht sättigt, hast

[…]

Der Ehre schöne Götterlust,

Die, wie ein Meteor, verschwindet.Footnote 37

entweder (wie in der Überlieferung) als Aussagesatz oder (wie in älteren Editionen im Gefolge der Weimarer Ausgabe) als Fragesatz aufgefasst werden kann („[…] verschwindet?“Footnote 38). Davon wird die Deutung der Intentionen der Figur Faust im Wettgeschehen beeinflusst und davon wiederum der dramatische Konflikt insgesamt.

Es ließe sich eine Reihe weiterer Fälle anführen. Eine auf solchen Fällen beruhende Beweisführung, dass textkritische Probleme und editorische Entscheidungen generell für die Interpretation literarischer Texte relevant sind, bliebe jedoch anekdotisch. Selbst wenn es gelänge, auf diese Weise ein Interesse an dem in digitalen Editionen aufbereiteten Lesartenbefund zu wecken, so würden diese Erwartungen enttäuscht. Die Interpreten fänden die ‚Sonntagsvarianten‘ kaum unter den viel zahlreicheren unspektakulären ‚Werktagsvarianten‘. Deswegen ist zu vermuten, dass auch künftige optimale digitale historisch-kritische Editionen mit ihren Apparaten oder deren Äquivalenten zunächst auf dieselben Vermittlungsprobleme stoßen werden wie die gedruckten der Vergangenheit.

4 Vom Nutzen des Studiums der Varianten: Lessings 19. Literaturbrief

Es kommt deswegen darauf an, ein literaturwissenschaftliches Interesse an Apparatinhalten nicht von typisch interpretatorischen Fragestellungen, sondern vom editorischen Datenmaterial selbst her zu entwickeln, d. h. von der Gesamtheit der Informationen über die Entstehung und weitere Entwicklung von Texten. Das ist z. B. dadurch möglich, dass Varianten in derselben Art wie der Text als Interpretanda behandelt, also selbst zum Gegenstand interpretatorischer Bemühungen gemacht werden.Footnote 39 Mit einem solchen Verfahren lassen sich aber nur kleinere Textmengen, v. a. Gedichte, bewältigen. Bei umfangreicheren Texten mit Mehrfach- oder komplexer Überlieferung wäre die Anzahl der Varianten zu hoch, um auf diese Weise behandelt zu werden. Dass gerade auch eine zunächst unüberschaubare Vielzahl von Varianten wert ist, untersucht zu werden, wurde schon im 18. Jahrhundert erkannt.Footnote 40 Am interessantesten und ergiebigsten in dieser Hinsicht ist Lessings 19. Literaturbrief, der Beobachtungen über die Textgeschichte des Klopstock’schen Messias anstellt. Gegenstand der Erörterung ist zunächst eine Rezension Nicolais der 1756 in Halle erschienenen Ausgabe des Werks. Lessing zog aber die Ausgabe von 1751 zum Vergleich heran und macht die mit der neuen Ausgabe Einzug haltenden Änderungen, die der Rezensent gar nicht bemerkt hatte, zum eigentlichen Thema des Literaturbriefs. Er möchte zeigen, dass es gewinnbringend ist, sich intensiv mit diesen Änderungen zu beschäftigen:

Veränderungen und Verbesserungen aber, die ein Dichter, wie Klopstock, in seinen Werken macht, verdienen nicht allein angemerkt, sondern mit allem Fleiße studieret zu werden. Man studieret in ihnen die feinsten Regeln der Kunst; denn was die Meister der Kunst zu beobachten für gut befinden, das sind Regeln.Footnote 41

Lessings Worte wurden wiederholt zitiert, wenn es darum ging, die philologische Erforschung von Textvarianten zu legitimieren.Footnote 42 Dabei fielen die Deutungen der Sätze durchaus konträr aus. Das eigentlich Interessante an Lessings Ausführungen sind aber seine Beobachtungen über die Varianten, zu deren Studium er nicht nur programmatisch aufruft (wie etwa auch Goethe das im Litterarischen Sanscülottismus in Bezug auf Wieland tut), sondern erste Ansätze liefert. Im Einzelnen beobachtet Lessing metrische Änderungen, Änderungen der Wortfügung (innerhalb davon insbesondere Auflösung von Partizipialkonstruktionen), Änderungen des Ausdrucks, Erweiterungen, Hinzufügungen und Streichungen.Footnote 43

Zwei der von Lessing benannten Veränderungen seien hier zunächst herausgegriffen (bevor später auch die übrigen zur Sprache kommen): die Auflösung von Partizipialkonstruktionen und die Änderungen des Ausdrucks.

Für die Auflösung von Partizipialkonstruktionen führt Lessing zwei Beispiele an.

Aus dem ursprünglichen Wortlaut (Gesang II, V., 241 f.)

Daß er […]

In der ersten von Gott ihm gegebenen Herrlichkeit glänzteFootnote 44

werde in der späteren Fassung

[…]

In der Herrlichkeit glänzte, die ihm der Donnerer anschuf. (ebd.)Footnote 45

Anstelle von (Gesang II, V. 281 f.)

„[…] Verkündigt der dampfende Nebel

Seine von allen Göttern so lange gewünschte Zurückkunft (ebd.)

liest Lessing in der späteren Fassung:

[…]

Seine Zurückkunft, auf welche die Götter so lange schon harrten. (ebd.)Footnote 46

Die um die Partizipien „gegebenen“ und „gewünschte“ gebildeten Konstruktionen sind aufgelöst, und Lessing vermutet: Eben aus der Absicht, schwerfällige Partizipialkonstruktion nach Möglichkeit zu vermeiden, seien die Varianten zu erklären.Footnote 47 Da der umgebende Wortlaut ebenfalls von den Änderungen betroffen ist, sind allerdings auch andere Interpretationen möglich, Lessings Erklärung wurde angefochten.Footnote 48

Für die Änderungen des Ausdrucks nennt Lessing zwei Beispiele: Das Verb „wischen“ werde durch „trocknen“, das Substantiv „Behausung“ bis auf eine Ausnahme durch andere Ausdrücke ersetzt. In denselben Bereich fallen auch die durch religiöse Rücksichten erklärten Ausdrucksänderungen.Footnote 49

Die letztere Gruppe der lexikalischen Änderungen ist mit größerer Sicherheit zu beurteilen, wenn sie, wie in den beiden von Lessing angeführten Fällen von „wischen“,Footnote 50 nur den Bereich eines Worts umfassen, der umgebende Wortlaut also nicht betroffen ist. Die jeweilige Änderung hat aber dennoch einen Kontext: die analogen Änderungen an den übrigen Stellen, wo in der ursprünglichen Fassung „wischen“ oder „Behausung“ gestanden hatte. Dass letzteres Wort nicht nur an einigen Stellen, sondern mit einer Ausnahme überall ersetzt wurde, ist das entscheidende Indiz für die von Lessing festgestellte stellenübergreifende Bearbeitungstendenz. Genauso argumentiert Lessing im komplizierteren (und forschungsgeschichtlich strittigen) Fall der aufgelösten Partizipialkonstruktion. Lessing bricht die Serie der Beispiele mit den Worten ab: „Und so in hundert andern Stellen“.Footnote 51 Seine Zuversicht bei der Beurteilung der beiden angeführten Varianten gründet also, anders als die Auffassung Blackalls,Footnote 52 nicht auf einer differenzierten Betrachtung der Einzelstellen, sondern auf einer quantitativen Einschätzung des gesamten Lesartenbefunds.

5 Textentwicklung und Textgeschichte

Dies ist der Punkt, an dem die eigentlichen Stärken digitaler Editionen zum Tragen kommen, und zwar umso mehr, je umfangreicher die in ihnen enthaltenen Apparatdaten sind. Digitale Editionen schaffen die Voraussetzung dafür, dem im 18. Jahrhundert von Bodmer und Breitinger, Lessing und Goethe proklamierten Ziel des Studiums von Varianten näher zu kommen, als dies bislang möglich war. Einen wie großen Fortschritt dabei die im digitalen Medium erreichbaren intuitiven Präsentationsformen auch bedeuten: Sie allein sind es nicht, die den entscheidenden Beitrag dazu leisten. Ein noch wichtigerer Vorteil digitaler Editionen liegt darin, computergestützte Analysen der Text- und Apparatdaten zu ermöglichen, die dem menschlichen Leser bislang stumm blieben. In Kombination ergeben Text und Apparat die Gesamtheit der Veränderungen, die ein Text durchgemacht hat, soweit sie nachweisbar sind und für relevant erachtet werden. Die Gesamtheit dieser Veränderungen wird hier als ‚Textentwicklung‘ bezeichnet; der historische Prozess, an dem neben der Textentwicklung selbst auch die an der Textproduktion und -reproduktion beteiligten Akteure, materielle Gegebenheiten der Überlieferung, äußere Einflüsse, hypothetisch erschlossene Sachverhalte etc. Anteil haben, heißt ‚Textgeschichte‘. Der wesentliche Unterschied, durch den sich eine Analyse der Textgeschichte gegenüber der Wiedergabe der Textentwicklung als primärer Aufgabe des ApparatsFootnote 53 auszeichnet, ist die Charakterisierung der Änderungen, die Suche nach Zusammenhängen zwischen ihnen und die Frage nach ihren Ursachen. Anhand von Lessings Argumentation ist das Zusammenspiel der verschiedenen Gesichtspunkte erkennbar. Er charakterisiert und gruppiert Änderungen, schließt von dieser Charakterisierung zunächst implizit auf den Akteur, dem sie zuzuschreiben sind (den Autor), und von dort aus explizit auf die Motive, von denen der Autor sich bei den Änderungen leiten ließ (teils Verbesserungsabsicht hinsichtlich des Metrums und Stils, teils idiosynkratische Neigungen, teils äußere Rücksicht auf religiöse Bedenken). Die computergestützte Analyse soll dazu dienen, auf Grundlage von Text- und Apparatdaten bestehende Hypothesen über die Geschichte von Texten überprüfbar zu machen, neue Hypothesen zu entwickeln und vergleichende Betrachtungen über Texte, Gattungen und Autoren hinweg zu ermöglichen.

‚Textgeschichte‘ ist von Haus aus eher ein Begriff der klassischen und altgermanistischen Philologie.Footnote 54 Dort bezieht sie sich üblicherweise auf eine Entwicklung des Textes, die zeitlich weit von dessen Entstehung entfernt und der Kontrolle des Autors entzogen ist und sich in späteren Abschriften niederschlägt, die meist nur indirekt von der ursprünglichen Fassung abstammen. Die Verhältnisse zwischen solchen Zeugen sind grundsätzlich von Abhängigkeit bestimmt, da jeder von ihnen eine mehr oder weniger treue Abschrift, d. h. eine Reproduktion von anderen ist. Neuere Überlieferungen stellen sich in vielfältiger Hinsicht anders dar. Hier sind wesentlich häufiger als in älteren Überlieferungen auch Entstehungshandschriften erhalten. Oft liegen mehrere Fassungen eines Textes vor, die nicht bloß Reproduktionen darstellen, sondern auf den Autor selbst zurückgehen und somit als prinzipiell gleichwertig anzusehen sind. Solche Fassungen sind vom jeweils früheren Zeugen nicht bloß abhängig, wie das für ältere Überlieferungen gilt. Denn eine Fassung kann zwar auf eine Vorlage zurückgehen und sie in diesem Sinn zumindest teilweise reproduzieren; meistens schlägt sich in ihr jedoch zugleich die verändernde Weiterarbeit des Autors am Text nieder.

Die neuere Überlieferung kennt Verhältnisse, die denen der älteren insofern analog sind, als in ihnen das reproduktive Moment vorherrscht: Das gilt insbesondere für die vom Autor nur punktuell kontrollierte Druckgeschichte. In Bezug auf die Druckgeschichte von Goethes Werken und im Einklang mit dem für die älteren Philologien typischen Gebrauch des Ausdrucks konnte Bernays 1866 formulieren, die „Geschichte des Textes“ sei bloß die „Geschichte seiner Corruptionen“.Footnote 55 Je stärker sich das Interesse der neugermanistischen Editionsphilologie auf die unmittelbar und ausschließlich auktorial bestimmte Schreibsituation fokussiert hat,Footnote 56 desto weniger Interesse kam der Textgeschichte im herkömmlichen, von den älteren Philologien hergeleiteten Sinn zu. Der Ausdruck blieb in Gebrauch, änderte aber seine Bedeutung. Bei Bernays steht die aus Verderbnissen bestehende Textgeschichte den vom Autor herrührenden Änderungen (‚Geschichte des Werks‘) gegenüber. Anstelle dieser qualitativen Unterscheidung findet man im zwanzigsten Jahrhundert eine zeitliche: Textgeschichte bezeichnet demnach die Veränderung, die ein Text nach dem Abschluss seiner Entstehungsgeschichte durchläuft.Footnote 57 Insgesamt scheint aber in neueren Verwendungen ein erweitertes Verständnis des Ausdrucks zu überwiegen: Als Textgeschichte wird die gesamte Entwicklungsgeschichte eines Textes bezeichnet, von seiner Entstehung an.Footnote 58 Stellenweise verschwimmt die Differenzierung zwischen Textgeschichte und Textentwicklung.Footnote 59

6 Textgeschichte und Textgenese

An die neueren Verwendungsweisen anschließend, wird unter ‚Textgeschichte‘ der historische Prozess der Textproduktion, Reproduktion und Tradierung in einem weiten Sinn verstanden. Dies schließt sowohl die Textgenese und damit im wesentlichen auktoriale Schreibvorgänge als auch die für die Textgeschichte – im herkömmlichen engeren Sinn – typischen Phänomene ein, d. h. die vom Autor nicht kontrollierten Veränderungen, die ein Text im Zuge seiner mechanischen Reproduktion durch Abschriften oder Drucke erfährt. Textgenese einerseits und Textgeschichte im herkömmlichen Sinn andererseits lassen sich ohnehin nur rein begrifflich sauber voneinander trennen, nicht in der realen Entstehungsgeschichte, da die für die herkömmliche Textgeschichte typischen Änderungen u. U. bis in die frühe handschriftliche Überlieferung zurückverfolgt werden können.Footnote 60 Textgenese und (herkömmliche) Textgeschichte interferieren so in mannigfacher Weise. Die Textgenese sollte der Textgeschichte im weiteren Sinn jedoch nicht einfach subsumiert werden. Ohne terminologisiert zu sein, führt der Ausdruck ‚Textgeschichte‘ einige Voraussetzungen mit sich, die seine Anwendung auf bestimmte Bereiche der Textgenese problematisch erscheinen lassen: Zunächst setzt der Begriff ‚Textgeschichte‘ die Existenz eines Textes voraus, dessen Entwicklung über materiell und zeitlich voneinander getrennte Stationen hinweg nachvollzogen werden kann. In einer frühen Phase der Genese ist aber der Text, der ja gerade erst entsteht, eventuell noch nicht greifbar. Es ist geradezu charakteristisch, dass der Anfangspunkt der Textgenese im Dunkeln liegt: „The beginning is almost never a fixed moment. […] The search for these texts beginning leads to nowhere but an intertextual amalgam.“Footnote 61 Textgenetische Aussagen beziehen sich denn auch oft auf Stadien, die kein materielles Korrelat hatten oder von denen keines überliefert ist (z. B. hypothetisch erschlossene Konzeptionen oder in Quellen bezeugte mentale Tätigkeiten). Von dort aus verfolgt die Untersuchung den Weg bis hin zu den Niederschriften, die „dichtungslogisch und strukturell bereits mögliche Bestandteile des entstehenden […] Werks“ sind,Footnote 62 obwohl sie mitunter noch nicht durch Textidentität auf spätere Fassungen bezogen werden können. Mit ihnen können Teile eines Werks durchaus schon als entstanden gelten, obwohl sie innerhalb der entstehungsgeschichtlichen Gesamtentwicklung bis zur ersten veröffentlichten Fassung ein noch frühes Stadium repräsentieren. Das Bindeglied zwischen der dunklen Vorgeschichte des Textes und solchen ersten Fassungen stellen Texte dar, die zu diesen letzteren in einem metatextuellen Verhältnis stehen. Solche Aufzeichnungen (oft als Paralipomena bezeichnet) lassen sich semantisch auf ein entstehendes Werk beziehen, stellen aber noch keine Entwurfsfassungen dar. Mit den ersten vorläufigen Entwurfsfassungen eines Textes beginnt das, was hier unter ‚Textgeschichte‘ verstanden wird. Sie erstreckt sich über die Folgeentwürfe, Reinschriften, Typoskripte, Druckvorlagen, Korrekturbogen, Drucke, Errataverzeichnisse, Korrekturexemplare und weitere Drucke zunächst bis zu dem Punkt, an dem der Autor letztmalig Einfluss auf die Entwicklung seines Textes nimmt, und schließlich darüber hinaus bis hin zu postum entstandenen Stadien der Editionsgeschichte.

‚Textgenese‘ ist bei näherem Hinsehen also kein bloßer Unterbegriff von ‚Textgeschichte‘. Beide überlappen sich vielmehr: Die Textgenese reicht weiter zurück in Stadien, die zur Entstehungsgeschichte eines Werks gehören, die sich aber noch nicht als Text manifestieren, dessen Entwicklung über verschiedene Stationen hinweg nachvollzogen werden kann. Die Textgeschichte umgekehrt umfasst Stadien, die der Entstehung eines Textes zeitlich nachfolgen und daher nicht mehr im gebräuchlichen Sinn als genetisch gelten können – Stadien etwa, die aus der Weiterarbeit des Autors an einem bereits fertigen Text resultieren. Mit anderen Worten beginnt und endet die Textgenese jeweils früher als die Textgeschichte. Der bisherigen Verwendungsweise entsprechend wird auch hier auf eine Terminologisierung, wie sie andere Ausdrücke in der neugermanistischen Editionswissenschaft erfahren haben (‚Fassung‘, ‚Fehler‘ etc.), verzichtet. Der Ausdruck ‚Textgeschichte‘ ist am besten geeignet, Vorgänge wie die von Lessing beobachteten Änderungen am Text des Messias zu bezeichnen. Die drei Studien Richard Hamels von 1879/80 tragen denn auch den Titel Zur Textgeschichte des Klopstock’schen Messias.Footnote 63

Als Lessing seine Untersuchung der von ihm noch nicht so genannten Textgeschichte des Messias anstellte, tat er dies ohne eine wissenschaftliche Ausgabe, die ihm dazu die Grundlage bot. Er musste anhand von Druckexemplaren das Vorliegen von unterschiedlichen Fassungen und deren Varianten selbst ermitteln. Seine Überlegungen geben jedoch einen Eindruck davon, was sich mit den in der synoptischen Darstellung der Hamburger Klopstock-Ausgabe enthaltenen Informationen anfangen ließe, und auch, was daran aus einer allgemeineren literaturwissenschaftlichen Perspektive relevant sein könnte. Lessings Beobachtungen leiten sich nicht von einer interpretatorischen Fragestellung, sondern vom Lesartenbefund her, soweit er für ihn überschaubar war. Sie führen daher auf Merkmale, die vielleicht nicht in einer typischen Interpretation, wohl aber in einer Analyse der literarischen Form oder der Entwicklung der LiteraturspracheFootnote 64 zum Thema gemacht werden. In Teilen führen sie durchaus auch auf den Gehalt des Werks: sein Verhältnis zu den religiösen Tendenzen der Zeit, mit Konsequenzen für die Figurencharakteristik.Footnote 65 Wenn der Lesartenbefund sich dazu eignet, führt seine Untersuchung also ganz von selbst auf Erkenntnisse von allgemeiner literaturwissenschaftlicher Relevanz.

Jeder Text hat seine eigene Geschichte. Wenn ein Autor wie im Fall des Messias selbst eine Mehrzahl von Fassungen hervorbringt, sind diese von literaturgeschichtlichem Interesse, da Revisionen auf eine veränderte Konzeption des Werks oder einen poetologischen Wandel im Schaffen des Autors hindeuten können, aber auch auf Rezeptionsbedingungen und -formen reagieren. Nicht alle Autoren üben eine solche fortdauernde Werkherrschaft aus. Bereits Veröffentlichungen zu Lebzeiten können starken äußeren Einflüssen und Einschränkungen unterliegen. Für diese und umso mehr für erst postum veröffentlichte Werke gilt, dass zeitgenössische Herausgeber und Nachlassverwalter dem Werk ihren Stempel aufdrücken, indem sie verändernd in den Text eingreifen. Neuere wissenschaftliche Editoren lehnen solche autorfremden und zumal postum vorgenommene Veränderungen als inauthentisch ab, versuchen, diese Spuren der „sekundären Textgeschichte“Footnote 66 zu tilgen und so dem vom Autor hinterlassenen Text wieder möglichst nahezukommen. Entwicklungen dieser Art prägen die Rezeption von Texten und sind daher literaturwissenschaftlich ebenfalls von Interesse. So ist es etwa von Nutzen, die Geschichte der Brod’schen Kafka-Ausgabe und ihr Verhältnis zum handschriftlichen Nachlass auf der durch die aktuellen Editionen verbesserten Grundlage zu untersuchen.Footnote 67

Man darf allerdings nicht verlangen, der Lesartenbefund müsse Antworten auf beliebige literaturwissenschaftliche Fragen geben können. Die Fragen müssen vielmehr vom Lesartenbefund her entwickelt werden. Es sind dann aber nicht die editorischen Darstellungen, also Apparate, die auf diese Fragen Antwort geben. Sie sollen die Lesarten gerade nicht so sortieren, selegieren oder präsentieren, dass dem Nutzer eine bestimmte Perspektive oder Hypothese nahegelegt würde, sondern vorerst nur dokumentieren – unabhängig davon, welchen Gewinn der Nutzer daraus zu ziehen vermag.

7 Lessings Änderungstypen und ihre Operationalisierung

Der Nutzer sieht sich daher in einen „Urwald“ versetzt,Footnote 68 den er nur unter großen Anstrengungen durchqueren kann. Liegen die Informationen über die Textentwicklung aber in maschinenlesbarer Form vor, können digitale Methoden helfen, Schneisen durch das Dickicht zu schlagen. Dabei stellt sich dieselbe Frage wie bei computergestützten Textanalysen allgemein: Sind Programme in der Lage, Text- und Apparatdaten gewinnbringend zu interpretieren? Anders gefragt: Lassen sich Lessings Beobachtungen so operationalisieren, dass sie mit digitalen Analyseverfahren überprüft und diese Verfahren dann auf vergleichbare Daten angewendet und zur Bildung neuer Hypothesen genutzt werden können? Um dieser Frage nachzugehen, sei zunächst an die obige Aufzählung der von Lessing beobachteten Änderungen erinnert (Reihenfolge gemäß dem Text des 19. Literaturbriefs):

  1. 1.

    metrische Änderungen

  2. 2.

    Änderungen der Wortfügung, innerhalb davon insbesondere

  3. a)

    Auflösung von Partizipialkonstruktionen

  4. 3.

    Änderungen des Ausdrucks

  5. 4.

    Erweiterungen

  6. 5.

    Hinzufügungen

  7. 6.

    Streichungen

Es versteht sich von selbst, dass alle Arten von Änderungen sich in einzelnen Fassungsunterschieden niederschlagen müssen, da die von Lessing beschriebenen Typen ja induktiv aus diesen gewonnen sind. Als Grundlage einer computergestützten Analyse müssen nun zunächst die einzelnen Abweichungen ermittelt und maschinenlesbar kodiert werden.Footnote 69 Auf die ermittelten Abweichungen muss sodann ein Set von Regeln angewendet werden, anhand dessen eine Abweichung einer oder mehrerer oder auch keiner der genannten Gruppen zugeordnet wird. Die Regeln für die Gruppen 5 und 6 lassen sich am leichtesten formulieren: 5 bedeutet ‚Plustext‘, 6 eine Lücke in der späteren Fassung. Gruppe 4 umfasst Ersetzungsvarianten, bei denen der ersetzende Text umfangreicher ist als der ersetzte.

Die Mitglieder der Gruppe 3 sind schwieriger zu identifizieren. Soweit es sich um Einzelwortvarianten handelt, könnte versucht werden, diejenigen herauszufiltern, die sich nicht durch Interpunktion, Schreibung oder infolge einer grammatischen Änderung unterscheiden, bei denen die betreffenden Wortformen also auf unterschiedliche Lemmata zurückzuführen sind. Zwei Abweichungen gehören allerdings nicht ohne Weiteres in die von Lessing ausgemachte Gruppe, wenn einmal ein Wort mit dem Lemma ‚a‘ durch ein Wort mit dem Lemma ‚b‘, das andere Mal aber ein Wort mit dem Lemma ‚b‘ durch ein Wort mit dem Lemma ‚a‘ ersetzt wird. In diesem Fall muss der Gesamttext einschließlich seiner invarianten Teile im Hinblick auf Worthäufigkeiten untersucht werden, um festzustellen, ob die Häufigkeit der Vertretung einzelner Lemmata, wie Lessing das für „wischen“ oder „Behausung“ feststellt, signifikant abnimmt oder einzelne Lemmata ganz verschwinden. Benötigt wird dafür zunächst eine Lemmatisierung beider Fassungen und dann, auf Basis dieser Lemmatisierung, zwei Wortindizes mit Häufigkeitsangaben, die miteinander verglichen werden können.

Die Mitglieder der Gruppe 2 zu ermitteln ist ebenfalls nicht trivial. Dies gilt auch für die Untergruppe 2a. Als Partizipialkonstruktionen umfassen sie mehrere Wörter, ersetzt werden also nicht nur Partizipien („gegebenen“, „gewünschte“), und diese zugleich auch durch Verbformen, die auf andere Lemmata zurückzuführen sind („anschuf“, „harrten“). Als einzig unmittelbar greifbares Merkmal bietet sich der Wegfall von Partizipien entweder durch Tilgung oder durch Ersetzung mit einer Phrase ohne Partizipien an. Um Varianten dieser Art zu identifizieren, reicht ein Vergleich des Wortlauts nicht aus, es müssen grammatikalische Informationen einbezogen werden. Die Information über die Wortart führt aber noch nicht weiter, denn in den Fällen, die Lessing im Auge hat, werden die Partizipien adjektivisch gebraucht („von Gott ihm gegebenen“, „von allen Göttern so lange gewünschte“). Geht man von Wortarten (Part of Speech) aus, müsste zugleich auf die Information zugegriffen werden können, dass die betreffenden Adjektive von Verben abgeleitet sind. Bei allen von Lessing als Verbesserungen der Wortfügung interpretierten Varianten (von denen die Auflösung von Partizipialkonstruktionen eine Untergruppe darstellt) ist aber immerhin zu erwarten, dass sich die geänderte Syntax in geänderten Wortarten niederschlägt. Anstelle des Wortlauts könnte also die Information über die Wortart als Heuristik dienen.

Syntaktische Änderungen können allerdings unterschiedlichste Ursachen haben und auch als Nebeneffekte anders als syntaktisch motivierter Änderungen auftreten. Dazu gehören die von Lessing erwähnten metrischen Verbesserungen (Gruppe 1). Erkannt werden könnten diese an folgenden Merkmalen, durch die sich die spätere von der früheren Fassung unterscheidet:

  • veränderte Anzahl der Silben im Vers,

  • veränderte Verteilung von Hebungen und Senkungen,

  • Abbau der Spannung zwischen natürlichem Wort-/Satz- und metrischem Akzent (Häufigkeit ‚metrischer Komplexität‘ im Sinne Klemens Bobenhausens),Footnote 70

  • Realisierung von hexametrischen Zäsuren, d. h. anders gesetzte Wortgrenzen im Verhältnis zur metrischen Position.

Die ersten beiden der genannten Phänomene sind wieder auch als Nebeneffekt anders motivierter Änderungen denkbar und daher nur ein schwacher Anhaltspunkt. Grundsätzlich ist es auch wie schon im Fall der in Gruppe 2 fallenden Änderungen erforderlich, die Texte auf der Ebene nicht des Wortlauts, sondern einer geeigneten (hier: metrischen) Annotation zu vergleichen, um die der bloße Text erst angereichert werden muss. Die zielgerichtete Operationalisierung wird hier und teils auch an anderen Stellen dadurch erschwert, dass Lessing Bearbeitungstendenzen nur vage oder exemplarisch beschreibt. Zur Formulierung operationalisierbarer Aussagen müssen dann spätere Forschungen wie diejenigen Hamels herangezogen werden. Grundsätzlich ist es aber möglich, textgeschichtliche Hypothesen wie diejenigen Lessings zumindest teilweise so zu operationalisieren, dass sie mit digitalen Analyseverfahren überprüft werden können.

8 Textgeschichte: Modell, Analyse, Darstellung

Die angestellten Überlegungen entspringen einem Projekt, das aus drei Teilen besteht:

  1. 1.

    Modell. Dieser Teil enthält allgemeine Überlegungen darüber, wie textgeschichtliche Vorgänge begrifflich gefasst und digital repräsentiert und mit welchen Kategorien sie analytisch beschrieben werden können.

  2. 2.

    Analyse. Dieser Teil besteht aus Fallstudien auf der Grundlage von vorliegenden editorischen Daten.

  3. 3.

    Darstellung. Dieser Teil befasst sich mit der Frage, wie textgeschichtliche Vorgänge dargestellt werden können.

In den Bereichen Analyse (2) und Darstellung (3) liegen Ergebnisse vor, die am ersten und dritten Akt des Faust II gewonnen wurden.Footnote 71 Sie basieren im Wesentlichen auf automatischer Kollation und in Teilen auch auf computergestützter Analyse des Kollationsergebnisses.Footnote 72 Die dort und noch in anderem Zusammenhang entwickelten Formen graphenbasierter Darstellung textgeschichtlicher Verhältnisse diskutieren Hoenen/Brüning.Footnote 73

Um einer computergestützten Analyse zugänglich zu sein, müssen editorische Informationen zuallererst digital vorliegen. Das sind zum einen digitale Editionen im engeren Sinn, d. h. solche, deren Produktion und Präsentation voll und ganz im digitalen Medium stattfinden. Digitale Präsentationsformen sind aus dem genannten Grund aber kein Erfordernis. Deswegen kommen neben Daten aus Retrodigitalisierung auch solche infrage, die bei der Herstellung reiner Druckausgaben anfallen und professionell archiviert werden. Die Daten lassen sich zunächst hinsichtlich ihres Informationsgehalts einteilen in

  1. a)

    Textfassungen ohne Varianten (‚Lesetexte‘),

  2. b)

    Textfassungen mit integrierten Apparateinträgen, in denen Varianten unterschiedlicher Zeugen verzeichnet werden,

  3. c)

    Transkriptionen einzelner Zeugen mit Binnenvarianten infolge handschriftlicher Änderungen,

  4. d)

    vom Text getrennte Apparateinträge mit Referenz auf den Lesetext (dazu gehören mitunter auch längere getilgte oder ersetzte Passagen, zu denen es selbst wiederum Apparateinträge gibt).

  5. e)

    Der Inhalt der Apparateinträge (a und d) kann die Struktur von Transkriptionen (c) haben.

TEI-XML-Daten eignen sich in jeder Hinsicht am besten, weil sie verhältnismäßig leicht mit Transformationsroutinen auf Basis von Standardtechnologien (namentlich XSLT) weiterverarbeitet werden können. In der Realität ist die technische Form vorliegender und künftig erwartbarer Daten jedoch denkbar heterogen. Sie umfasst neben TEI-XML auch proprietäre und bereits historisch gewordene Formate, SGML, HTML, XML-ähnliches non-XML, proprietäres XML. Es liegt nahe, diese Formate zunächst zu TEI-XML zusammenzuführen, um so die Weiterverarbeit- und Abfragbarkeit mit Standardtechnologien zu ermöglichen. Dieser Schritt ist mit erheblichem technischen Aufwand verbunden, aber keine rein technische Angelegenheit, weil er im Grunde auf etwas Ähnliches hinausläuft wie das Bestreben der ehemaligen Textologie zur Vereinheitlichung von Editionen. Außerdem ist das Vokabular der TEI nicht mit dem Anspruch entwickelt worden, die in der neugermanistischen Editionsphilologie entwickelten Apparatdarstellungen abzubilden.Footnote 74 Angesichts der Komplexität der kodierten Sachverhalte ist die Auszeichnungssprache XML auch nicht grundsätzlich alternativlos.Footnote 75 Momentan müssen die beiden einschlägigen Kapitel der TEI-GuidelinesFootnote 76 zur Einzelzeugenwiedergabe (Kap. 11) und zur Wiedergabe zeugenübergreifender Varianten (Kap. 12) als Ausgangspunkt gelten.Footnote 77 Zur adäquaten Repräsentation von Textgeschichte gehört neben der Kodierung von Texten zudem die Modellierung von Überlieferungsverhältnissen, d. h. von Beziehungen zwischen (je nach Lage und Perspektive unterschiedlich gearteten) Objekten, wofür sich am ehesten Graphen eignen.Footnote 78

Vorausgesetzt, die erwähnten Daten liegen wohlgeformt und in hinreichend vereinheitlichter Form vor, ist der Weg für den an Lessing exemplifizierten Ansatz der Operationalisierung von textgeschichtlichen Hypothesen frei. Das von Lessing beschriebene Szenario basiert auf dem Vergleich mehrerer (hier zweier) Fassungen ohne Binnenvarianten. Dies ist insofern eine relativ günstige Ausgangslage, als die zwei Textstufen, die miteinander verglichen werden, zwei jeweils synchrone Zustände darstellen und die festgestellten Varianten somit einen synchronen Zusammenhang bilden. Bei autographen Entstehungshandschriften ist das nicht der Fall: Die sog. Grundschicht ist keine Textstufe, und der größte Teil der von ihr ausgehenden Entstehungsvarianten lässt sich nicht auf den fragmentarischen oder gar gesamten Text hochrechnen, da viele Änderungen bereits während der Niederschrift vorgenommen wurden und somit früher als nachfolgende Teile der Grundschicht zu datieren sind. Infolge dieser Asynchronität der Änderungen ist es weniger wahrscheinlich, dass über den gesamten Text verteilte handschriftliche Änderungen einen Zusammenhang bilden. Typisch sind stattdessen lokale Verbände, die durch syntaktische Zusammenhänge konstituiert werden. Der ‚Text vor allen Änderungen‘ ist allermeist ein Konstrukt ohne realen genetischen Ort, weil es ihn mit Sicherheit nicht gegeben hat.Footnote 79 Er kann daher nicht in der gleichen Weise mit dem ‚Text nach allen Änderungen‘ verglichen werden wie die frühere Fassung des Messias mit der späteren.

Trotzdem kann es Gesichtspunkte geben, unter denen es sinnvoll ist, die Grundschicht eines Textes zu konstruieren. Diese bildet zwar aus dem genannten Grund keinen validen Textzustand, sie kann aber trotzdem auf Merkmale hin analysiert werden, die für die Charakterisierung der Textentwicklung relevant sind. Ein Beispiel hierfür ist die Beobachtung, dass Kafka bei der Arbeit am Schloß-Roman Abweichungen von der schriftsprachlichen Norm bei der Überarbeitung des Manuskripts tilgte und im späteren Verlauf der Niederschrift sprachliche Eigentümlichkeiten zu vermeiden versuchte.Footnote 80 Allgemeiner und unabhängig vom konkreten Fall formuliert, ist es grundsätzlich erstrebenswert, die Entwicklung des Wortmaterials auf mögliche Muster zu untersuchen. Eine noch basalere Frage lautet, welche Wortformen in der Geschichte eines Textes vorkommen. Um eine solche Frage beantworten zu können, muss die Gesamtheit der textgeschichtlich existenten Wortformen (Tokens) in den Daten repräsentiert sein.

9 Token-Fragmente und Pseudo-Tokens in digitalen Texten: Transkription oder Edition? (Konsequenzen)

Man könnte glauben, diese Menge der Tokens sei mit digitalen Volltexten trivial gegeben. Doch das ist nicht uneingeschränkt der Fall. Digitale wissenschaftliche Editionen streben bekanntlich ein hohes Maß an Genauigkeit an. Im Fall von Überlieferung mit handschriftlichen Revisionen wird dieses Ziel gewöhnlich ohne Rücksicht auf die Frage verfolgt, welche Tokens als textgeschichtlich real angesehen werden können. Dies lässt sich am Beispiel eines Apparateintrags aus der Kritischen Kafka-Ausgabe zeigen, der für die Verzeichnung von handschriftlichen Revisionen typisch ist:

zu⟨r⟩ (s > r)ichtigenFootnote 81

Den Kontext bildet die Phrase „Sie werden alles zur richtigen Zeit erfahren.“Footnote 82 Dem Apparateintrag zufolge wurde das „r“ nach „zu“ eingefügt und das folgende „s“ durch „r“ überschrieben. Für den menschlichen Leser ergibt sich daraus, dass „zu“ durch „zur“ ersetzt und der Wortansatz „s“ zugunsten des nachfolgend Niedergeschriebenen aufgegeben wurde. Stellt man sich die durch den Apparateintrag repräsentierte Information in digitaler (z. B. TEI-kodierter) Form vor –

zu<add>r</add>

<subst>

<del>s</del>

<add>r</add>

</subst>ichtigen

–, so kommen die Tokens „zu“, „zur“, „s“ und „richtigen“ darin nicht explizit vor, und das Pseudo-Token „*sichtigen“ würde nicht explizit ausgeschlossen (Asterisk * hier für ein Pseudo-Token). Je nach Einstellung des Programms wäre es denkbar, nur die Tokens vor allen Änderungen („zu“, „*sichtigen“) oder nach allen Änderungen („zur“, „richtigen“) oder auch alle zwischen kritischen Zeichen stehenden Token-Fragmente zu indexieren („zu“, „*r“, „s“, „*r“, „*ichtigen“). Für den menschlichen Leser ist klar, welche Wörter hier existieren, und nur auf den ersten Blick erscheint dieses Wissen interpretatorisch oder hypothetisch im Vergleich zur Wiedergabe des handschriftlichen Befunds. Denn die an derselben Stelle aufeinander geschriebenen Zeichen können ja erst aufgrund des Wissens darüber, welche Wörter und Wortansätze an dieser Stelle sprachlich möglich sind, korrekt entziffert werden. Das Urteil über die inskribierten Wörter geht der Dokumentation des Befunds also voraus, anstatt erst im Anschluss an die und auf Basis der Dokumentation gebildet zu werden.

Der Apparat der Kritischen Kafka-Ausgabe hält die Informationen über die Tokens zurück, weil er, obwohl Apparat, sich als „Wiedergabe der handschriftlichen Befunde“ verstehtFootnote 83 und diese nach Art einer möglichst genauen, d. h. zeichengetreuen Transkription verzeichnet. Verglichen mit diesem ‚Prinzip Transkription‘ würde das ‚Prinzip Edition‘ stattdessen darauf hinauslaufen, die Textentwicklung möglichst nachvollziehbar zu machen und als Variante eine einzige sofort getilgte Phrase, nämlich „zu s“ (offenbar für „zu seiner Zeit“) mitzuteilen.Footnote 84 Damit würde die Perspektive von sichtbaren inskriptionellen Niederschlägen auf die in diesem Fall betroffenen Einheiten sprachlicher Art (Wörter einschließlich Wortansätzen) verschoben und damit die sprachliche Seite des Textbegriffs akzentuiert.Footnote 85 Ein Apparateintrag der Form „zu s >“ (> für sofortige Tilgung) würde weniger genau über den inskriptionellen Befund (Einfügung und Daraufschreibung statt, z. B., Streichung der Phrase „zu s“), aber dafür genauer über die in der Textentwicklung an dieser Stelle vorkommenden sprachlichen Einheiten (Tokens) informieren. Einer computergestützten Analyse editorischer Information würde die an sprachlichen Einheiten orientierte Form der Verzeichnung nach dem ‚Prinzip Edition‘ entgegenkommen. Denn die exemplarisch beschriebenen textgeschichtlichen Hypothesen beziehen sich typischerweise auf Wörter oder größere sprachliche Einheiten. Editorische Wiedergaben nach dem ‚Prinzip Transkription‘ bewegen sich dagegen über weite Strecken unterhalb der Token-Ebene und damit unterhalb des Levels, das für computergestützte Analysen üblicherweise relevant ist. Dies entspricht einem – nicht immer gut durchdachten – editorischen Genauigkeitsanspruch, restringiert aber zugleich automatisierbare Prozesse der Analyse (angefangen mit der Tokenisierung) und der davon abhängigen Anreicherung (z. B. Lemmatisierung, POS Tagging).

An gedruckten Editionen geht diese Kritik insofern vorbei, als diese nicht darauf ausgelegt sind, späteren computergestützten Analysen möglichst vorzuarbeiten. Vom editorischen Standpunkt aus mag dort der Verzicht auf Genauigkeit hinsichtlich der sprachlichen Einheiten eher zu verschmerzen sein als ein Verlust an Genauigkeit bei der Befundwiedergabe, zumal der Leser aus einer Wiedergabe nach dem ‚Prinzip Transkription‘ die sprachlichen Einheiten rekonstruieren kann, nicht aber umgekehrt aus einer Wiedergabe nach dem ‚Prinzip Edition‘ den detaillierten inskriptionellen Befund. Digitale Editionen verfolgen ein doppeltes Ziel: die genaue Wiedergabe des Befunds und die Eignung der Daten für computergestützte Analysen. Dass diese Ziele in Spannung treten können, ist bislang nicht reflektiert worden. Stattdessen herrscht in digitalen Editionen das ‚Prinzip Transkription‘ vor. Sie entsprechen so dem beschriebenen Genauigkeitsanspruch mit Blick auf die Wiedergabe des handschriftlichen Befunds, handeln sich aber zugleich die beschriebenen Schwierigkeiten für eine computergestützte Analyse ein und laufen so Gefahr, einen wesentlichen Vorteil digitaler gegenüber gedruckten Editionen teilweise gleich wieder zu verspielen. Die sich daraus ergebenden Schwierigkeiten betreffen nicht nur Untersuchungen im Anschluss an die Edition, sondern durchaus auch ein essenzielles, dabei für trivial und selbstverständlich gehaltenes Feature wie die Volltextsuche: Jede digitale Edition steht vor der Frage, wie einerseits alle textgeschichtlich realen Tokens gefunden werden können, andererseits aber keine Artefakte wie ungrammatische, nicht existente Tokens.Footnote 86 Um dies zu gewährleisten, ist bereits ein komplexer Analyseschritt notwendig, nämlich die korrekte Extraktion aller Tokens aus einer Kodierung, in der diese z. T. fragmentiert sind.

Es ist nicht zu erwarten, dass digitale Editionen sich vom ‚Prinzip Transkription‘ zugunsten des ‚Prinzips Edition‘ verabschieden werden.Footnote 87 Wie kann es gelingen, die Nachteile dieses Verfahrens aufzufangen, textgeschichtliche Vorgänge datentechnisch so zu modellieren, dass sie computergestützten Analysen optimal zugänglich sind? Zunächst muss eruiert werden, welche Probleme bei der Ermittlung der korrekten Tokens bei einer gegebenen Kodierung zu erwarten sind. Im obigen Beispiel aus der Kritischen Kafka-Ausgabe fehlt etwa die Kennzeichnung der Information „(s > r)“ als Sofortrevision. Diese Kennzeichnung wäre nötig, um den Token „s“ (Wortansatz) zu gewinnen und das Artefakt „*sichtigen“ auszuschließen. Wenn ein Wort an zwei Stellen geändert wurde, z. B. „⟨B⟩(w > ö)ses“,Footnote 88 fehlt u. U. eine Information darüber, wie das chronologische Verhältnis der Änderungen einzuschätzen ist. In diesem Fall ist klar, dass die Änderung „w > ö“ (ebenfalls eine Sofortrevision) und die Hinzufügung von „B“ als synchron behandelt werden müssen, damit die beiden Tokens „w“ (Wortansatz) und „Böses“ rekonstruiert werden können. In einer Minderheit von Fällen könnten Änderungen an zwei Stellen im Wort aber insgesamt drei Tokens ergeben. Letztlich sind also zusätzliche Annotationen erforderlich oder ein Set von heuristischen Regeln, nach der die entsprechenden Fallunterscheidungen automatisch gefällt werden können. Dafür wiederum ist notwendig, dass die Probleme, deren Lösung hier skizziert wird, auf philologischer Seite in ihrer Tragweite erkannt und durchdacht werden. Philologische Bearbeiter können sich nicht darauf zurückziehen, dass sie solche Entscheidungen und die zugrundeliegenden Interpretationen des Befunds vermeiden möchten. Denn bei der Weiterverarbeitung für eine funktionierende Suche oder für auf der Tokenisierung aufbauende analytische Vorhaben sind solche Entscheidungen unausweichlich, und sie werden nach Regeln gefällt. Editionsphilologen sollten an der Formulierung und Anwendung dieser Regeln mitwirken, das Digitale in der Digitalen Literaturwissenschaft also nicht an Informatiker oder Tools delegieren, sondern als wesentlichen Bestandteil der eigenen Arbeit begreifen.

Ergänzung 2021

Das skizzierte Vorhaben nahm 2018 durch konkrete Fallstudien praktisch Gestalt an. Der Schwerpunkt lag dabei auf Verfahren zur computergestützten Auswertung von Fassungsvergleichen.

Die im Beitrag ins Auge gefasste Untersuchung der Kafka-Ausgabe Max Brods (vgl. Abschn. 6) erwies sich als geeigneter Fall für eine regelbasierte Klassifikation von Varianten. Verwendet wurde der Process-Text der Kritischen Ausgabe als Vertreter des Kafka’schen Manuskripts. Um den Text der Kritischen Ausgabe dem des Manuskripts soweit wie möglich anzunähern, wurden die in Apparatform verzeichneten Emendationen in Austauschanweisungen verwandelt und per Skript größtenteils zurückgenommen. Der so generierte Text wurde mit dem Text der Erstausgabe (1925, vertreten durch die Version im Deutschen Textarchiv) kollationiert. Zur regelbasierten Klassifikation diente ein an die Verhältnisse des Process-Textes angepasstes Skript, dessen ursprüngliche Form (mit gleichartiger Fragestellung entwickelt am Fall von Andy Weirs The Martian) mir Christoph Schöch zur Verfügung stellte.Footnote 89 Es erwies sich, dass Max Brods Eingriffe in den Text sich in der überwiegenden Zahl der Fälle durch das Bestreben erklären lassen, den Text des Manuskripts an die damals geltenden schriftsprachlichen Normen anzupassen (neben Interpunktion und Orthographie betrifft dies auch etwa Elisionen und österreichische Umlaute). Nur wenige Eingriffe berühren den Sinn des Textes. Somit verfuhr Brod mit dem Text insgesamt bei weitem schonender (konservativer), als in Anbetracht der geläufigen Urteile über Brods Praxis als Nachlassherausgeber zu erwarten gewesen wäre (Brod habe willkürlich in die Texte eingegriffen, Kafkas dichterische Sprache angetastet). Methodisch analog, aber auf anderer technischer Grundlage realisiert und optimiert ist eine Untersuchung von Johann Peter Eckermanns postum erfolgter Redaktion des vierten Teils von Goethes Dichtung und Wahrheit.Footnote 90

Ein zweites Verfahren der Auswertung von Kollationsergebnissen zielte darauf, das Verhältnis dreier Fassungen zueinander zu analysieren, von denen eine (A) jeweils den stemmatischen Vorläufer der beiden anderen (B, C) darstellt. Abweichungen vom Grundtext werden in die folgenden drei Gruppen eingeteilt:

  1. 1.

    B und C weichen gemeinschaftlich vom Grundtext A ab.

  2. 2.

    Nur B weicht an der betreffenden Stelle von A ab (C dagegen ist mit A identisch).

  3. 3.

    Nur C weicht von A ab (B ist mit A identisch).

  4. 4.

    B und C weichen auf unterschiedliche Weise von A ab.

Realisiert mit einem Skript von Wilhelm Ott, diente das Verfahren ursprünglich dazu, das Verhältnis des Erstdrucks von Goethes Helena in der Ausgabe letzter Hand (sog. Taschenausgabe, 1827) mit zwei Folgedrucken zu untersuchen: dem Doppeldruck der Taschenausgabe sowie der Oktavausgabe letzter Hand (beide 1828). Ziel war, von gemeinschaftlichen Abweichungen der beiden Folgedrucke vom Erstdruck auf die verschollene Vorlage der beiden Folgedrucke zu schließen.Footnote 91 Dieselbe Prozedur des Dreiervergleichs erwies sich als geeignet, um auch andere textgeschichtliche Verhältnisse zu analysieren: In der Editionsgeschichte des Processes ließen sich damit zahlreiche Lesarten der zweiten Process-Ausgabe Max Brods (1935) als Rückkorrekturen nach der Handschrift erklären. Noch überraschender: An immerhin ca. 70 Stellen ist Brods Erstausgabe handschriftentreuer als der Text der Kritischen Ausgabe, was zum einen nahelegt, dass die Zugeständnisse der KKA an die Lesbarkeit mitunter weiter gehen als unbedingt notwendig, und zum anderen nochmals auf die konservativen Züge von Brods editorischer Praxis verweist. Der Dreiervergleich kann auch die Untersuchung von frühen Stadien der Textgeschichte erleichtern, indem er dabei hilft, in auktorial korrigierten Schreiberabschriften stehengebliebene Abschreibefehler zu identifizieren. Wenn A die Vorlage, B die Schreiberabschrift im unrevidierten Zustand der Grundschicht (abgeleitet aus der XML-Kodierung der handschriftlichen Änderungen) und C die letzte Stufe der Schreiberabschrift nach allen Revisionen ist (wieder abgeleitet aus der XML-Kodierung), dann unterliegen die Varianten der oben definierten ersten Gruppe (B und C weichen gemeinschaftlich vom Grundtext A ab) dem Verdacht, als unerkannte Abschreibefehler stehengeblieben und fortgeschleppt worden zu sein.Footnote 92 Computergestützte Methoden geben so nicht nur der historischen Analyse, sondern damit auch der Textkritik und Textkonstitution neue und mächtige Mittel an die Hand, sodass die Analyse von Textgeschichte zugleich die Textgeschichte selbst weiterschreiben kann.