News (Details) in breiter Spalte (DE+EN)

03.04.2017

Lesen, Berechnen, Beobachten

VolkswagenStiftung fördert Fachgebiet Digitale Literaturwissenschaft

Professor Thomas Weitin, seit 2016 an der Technischen Universität Darmstadt, untersucht im Projekt „Reading at Scale“, wie Mensch und Computer bei der Analyse literarischer Texte am besten zusammenarbeiten. Sein Projektpartner Professor Ulrik Brandes (Universität Konstanz) ist Experte für Algorithmik und Netzwerkanalyse.

Professor Thomas Weitin leitet das Darmstädter LitLab an der TU Darmstadt. Dort werden die Textkorpora des Projekts „Reading at Scale“ aufbereitet und digital analysiert. Bild: Katrin Binner
Professor Thomas Weitin leitet das Darmstädter LitLab an der TU Darmstadt. Dort werden die Textkorpora des Projekts „Reading at Scale“ aufbereitet und digital analysiert. Bild: Katrin Binner

Beide Wissenschaftler führte eine einfache Grundidee zusammen: Wenn die menschliche Lektüre und computergestützte Methoden ihre je eigenen Stärken in der detaillierten Einzelanalyse und im Umgang mit großen Datenmengen haben, ist ein Mixed Methods-Ansatz besser für die mittlere Ebene geeignet als die beiden Methoden allein. Literarische Texte ermöglichen Analysen in unterschiedlichen Auflösungsstufen von der Zeichenebene im einzelnen Werk bis hin zu ganzen Literaturen, wobei Literaturwissenschaft und Literaturgeschichte traditionell viele Forschungsfragen auf der mittleren Ebene untersuchen.

Das hat sich auch das Projekt „Reading at Scale“ vorgenommen. Ausgangspunkt ist eine historische Sammlung von 86 Novellen, die unter dem Titel „Der deutsche Novellenschatz“ von den Herausgebern Paul Heyse und Hermann Kurz veröffentlicht wurde (24 Bände, 1871-1876). Dank ihrer mittleren Größe liegt die Novellensammlung noch in der Reichweite individueller Lektüre und hat doch schon eine für statistische Analysen vielversprechende Größe.

Das Darmstädter LitLab

In dem von Thomas Weitin geleiteten Darmstädter LitLab werden die Textkorpora des Projekts aufbereitet und digital analysiert. Ziel ist die Erschließung sämtlicher Novellenschätze des 19. Jahrhunderts. Auch zeitgenössische Sammlungen anderer Gattungen, etwa von Kriminalrechtsfällen, sollen zum Vergleich einbezogen werden. Die Fördersumme von rund 450.000 Euro für die Dauer von drei Jahren ermöglicht es, drei Nachwuchswissenschaftlerinnen und -wissenschaftler in die Korpusanalyse einzubeziehen, wobei am historischen Gegenstand Schlüsselfragen des heutigen Digitalzeitalters verfolgt werden.

Die Textsammlungen des 19. Jahrhunderts entstehen unter dem Eindruck literarischer Massenproduktion und eines drastisch zunehmenden Wettbewerbs um die Ressource Aufmerksamkeit in der Leserschaft. Das Darmstädter Litlab quantifiziert vor diesem Hintergrund z.B. die Entstehung individueller Stil- und Gattungsmerkmale und führt mittels Eye Tracking und der Messung physiologischer Funktionen kognitionsorientierte Rezeptionsanalysen durch, um herauszufinden, wie Literatur Aufmerksamkeit steuert.

In der Konstanzer Algorithmik-Arbeitsgruppe um Ulrik Brandes werden die produzierten Daten netzwerkanalytisch ausgewertet, wodurch das Forscherteam die Position des einzelnen Textes als Beziehungsgeflecht in einem großen Zusammenhang untersuchen kann. Die Forscher erwarten, dass die Arbeit mit Texten und deren Daten Ihnen dabei helfen wird, den Individualitätseffekt moderner Mediengesellschaften besser zu verstehen.

Drei Fragen an… Thomas Weitin

Professor Dr. Thomas Weitin, Institut für Sprach- und Literaturwissenschaft. Bild: Katrin Binner
Prof. Dr. Thomas Weitin. Bild: Katrin Binner

Herr Professor Weitin, warum heißt Ihr Projekt „Reading at Scale“?

Unser Ansatz versucht, die unproduktive Frontstellung zwischen traditionell und digital arbeitenden Geisteswissenschaftlern zu überwinden, die sich im Bereich der Literaturwissenschaft mit den Begriffen „close“ und „distant reading“ verhärtet hat. Es gibt die Vorstellung vom „Skalierbaren Lesen“ oder „scalable reading“, die nahelegt, dass man stufenlos zwischen menschlicher Lektüre und der Computeranalyse großer Textmengen hin und her schalten kann. Das erscheint uns zu optimistisch und widerspricht unserer Erfahrung.

Wir glauben, dass man sich in der Textanalyse immer für eine bestimmte Skala, für ein Abstraktionsniveau entscheiden muss. Das bringt einem bestimmte Erkenntnisse, die immer einen Preis haben. Wenn ich Texte zum Beispiel nur durch ihre Worthäufigkeiten repräsentiere, ist das eine starke Abstraktion, deren Vorteil auf der Hand liegt. Ich kann auf dieser Basis ganz viele Texte miteinander vergleichen. Aber auch die Kosten dieses Verfahrens sind hoch, denn ich verliere fast allen Kontext von Wort und Text.

Wie lässt sich das traditionelle Lesen dann mit der digitalen Analyse verbinden?

Dafür gibt es zum Glück keinen Königsweg. Wir haben zunächst einmal geschaut, wie es andere versucht haben, und dabei festgestellt, dass die Kolleginnen und Kollegen, die bestimmten quantitativen Verfahren in der Philologie zum Durchbruch verholfen haben, immer sehr viel über die Texte und Korpora wussten, die sie analysiert haben. Die kannten ganz genau die Geschichte ihres Gegenstandes.

Das hat uns bei unserem eigenen Ansatz sehr geholfen. In der gemeinsamen interdisziplinären Arbeit mit mittelgroßen Textmengen können wir recht gut verschieden abstrakte Repräsentationen von Text so miteinander in Verbindung bringen, dass sie sich sinnvoll ergänzen. Wir finden uns sozusagen immer gegenseitig neue Gründe zum Denken. Einfach nur Daten zu sammeln und zu hoffen, dass einem irgendwann eine gute Frage einfällt, das ist nicht so unsere Sache. Man kann sich nämlich in digitalen Infrastrukturen auch unendlich langweilen.

Wem soll Ihre Forschung nützen?

Ich habe in meinem eigenen Studium noch gelernt, dass Geisteswissenschaftler diese Frage zurückweisen sollen. Und ehrlich gesagt fällt mir eine Antwort auch nicht leicht. Wie jede andere Arbeit nützt Forschung zunächst einmal dem, der sie macht. Immerhin lebe ich davon. Ich glaube aber, dass es sich für die Geisteswissenschaften nicht im Sinne eines Legitimierungszwangs, sondern intellektuell lohnt, den gesellschaftlichen Nutzen der erzielten Ergebnisse im Auge zu behalten. Ich denke, dass unser Projekt mithilft, die eklatante Lücke zwischen textanalytischer und datenanalytischer Kompetenz zu verkleinern, die ich für ein großes gesellschaftliches Problem halte.

zur Liste