M. Erlin u.a. (Hrsg.): Distant Readings

Cover
Titel
Distant Readings. Topologies of German Culture in the Long Nineteenth Century


Herausgeber
Erlin, Matt; Tatlock, Lynne
Reihe
Studies in German literature, linguistics, and culture
Erschienen
Rochester, NY 2014: Camden House
Anzahl Seiten
VIII, 386 S.
Preis
£ 60.00
Rezensiert für H-Soz-Kult von
Andreas Weiß, Projekt „Welt der Kinder“, Georg-Eckert-Institut – Leibniz-Institut für Internationale Schulbuchforschung

Nur wenige Bücher, besonders in den Digital Humanities, scheinen in so kurzer Zeit so viel Diskussion und weitere Werke angeregt zu haben wie Franco Morettis „Distant Reading“.1 Mit diesem Konzept wurde die Hoffnung verbunden, dass in Zukunft nicht nur die Analyse der „Klassiker“ das Bild einer Epoche prägen würde, sondern der Rückgriff auf die gesamte publizierte Literatur neue Erkenntnisse über das Weltbild früherer Epochen vermitteln könnte. Dieser Zugriff werde nicht mehr hermeneutisch, sondern mit Hilfe digital aggregierter Daten erfolgen. Diese Hoffnungen, vor allem die damit verbundenen Verfahren wie Topic Detection und Topic Modeling, erfreuen sich zunehmend in anderen geisteswissenschaftlichen Disziplinen einer wachsenden Popularität. Der neue Methodenpluralismus stellt allerdings eine der zentralen Herausforderungen an ihre Akzeptanz in den etablierten Geschichtswissenschaften dar, da sowohl Werkzeuge wie Methoden der Digital Humanities an Theorien und Modellen aus den Literaturwissenschaften orientiert sind und deshalb für historische Fragestellungen spezifische Probleme nur ungenügend reflektieren.

Obwohl all diese Debatten auch einen großen Einfluss auf die digitalen Geschichtswissenschaften haben sollten, bleiben doch Anwendungsbeispiele rar gesät. Anregungen müssen größtenteils aus den Nachbardisziplinen gewonnen werden. Insofern stellt der hier zu rezensierende Sammelband, herausgegeben von den beiden amerikanischen Germanisten Lynne Tatlock und Matt Erlin, eine zu begrüßende Ausnahme dar, da er Artikel zu historischen Texten, Netzwerken sowie Wissenstransfer enthält. Es handelt sich um einen in Autorenschaft und Beiträgen nur leicht gegenüber einem Symposium veränderten Tagungsband.2 Der Inhalt des Buches stellt so etwas wie eine Leistungsschau der deutschen und amerikanischen Germanistik dar, die an historischen Texten interessiert ist und mit digitalen Werkzeugen arbeitet. Artikel, die den Methoden der Digital Humanities positiv gegenüberstehen, werden mit einzelnen kritischen Interventionen kontrastiert (Kontje, Koepnick), die eher das Problematische am Arbeiten mit digitalen Werkzeugen und den mit ihnen verbundenen Versprechen betonen. Der Schwerpunkt dieser Rezension wird auf den Artikeln und Aussagen liegen, die für Historiker interessant sein könnten.

Für die Herausgeber liegt der Schwerpunkt darauf, die neuen Methoden weniger als Bruch denn als Verschiebung und Neugewichtung bereits existierender Optionen und Methoden darzustellen (Erlin/Tatlock, S. 4, 12). Der Hauptteil gliedert sich in drei Teile, die sich an unterschiedlichen Erkenntnisinteressen orientieren: Quantification, Circulation und Contextualisation. Vor allem die netzwerkanalytischen Arbeiten (unter anderem Erlin, Piper/Algee-Hewitt) sowie die Arbeiten zu kulturellen und wissenschaftlichen Trends (zum Beispiel Riddell, McIsaac, Belgum) zeigen dabei immer wieder das Potential der neuen Methoden. Besonders der Text von Matt Erlin ist eine knappe, gute Einführung in Topic Modeling. Hier ist allerdings der Autor dieser Rezension aufgrund eigener Erfahrungen etwas skeptischer, was die erfolgreiche Übertragung von Topic Modeling auf die historische Forschung betrifft. Denn sie scheint nur auf der Ebene der Beziehungen zwischen Texten erfolgversprechend zu sein, besonders bei „technical and formal documents“ (S. 59). Zusätzlich liegt bei Erlin eine etwas optimistische Theorie neuen Schreibens und der kollaborativen Zusammenarbeit vor (S. 78–79). Verschiedene Autoren sparen nicht mit Kritik an Franco Moretti und seinen Aussagen zu „Distant Reading“, seinen Ergebnissen (so Pethes, S. 138) sowie an den Auswirkungen des Arbeitens mit digitalen Inhalten auf die Forschung (ebd., S. 139). Bei der Kritik setzt auch der Artikel von Todd Kontje „The Case for Close Reading after the Descriptive Turn“ an. Denn die große Gefahr der Digital Humanities liege darin, so Kontje, dass sie zu „pseudoscientific objectivity“ verleiteten (S. 147). Ebenso verweist er auf die Spannungen zwischen Anspruch und Realität, die mit dem digitalen Zeitalter verbunden werden, und insbesondere auf den Widerspruch zwischen einer scheinbaren Demokratisierung durch das Internet bei gleichzeitig parallel stattfindenden Versuchen, Autorität durch Graphen et al. herzustellen (S. 147). Kontje argumentiert hier, dass aus den Naturwissenschaften entlehnte Visualisierungsstrategien nur begrenzt geeignet wären und zitiert Johanna Drucker mit ihrem Vorwurf, diese scheinbare Eindeutigkeit laufe allen neuen Methoden wie Postkolonialismus und Dekonstruktivismus zuwider.

Stärker pragmatisch orientiert untersucht Peter M. McIsaac wissenschaftliche Literatur des 19. Jahrhunderts, um hier Querverbindungen zur zeitgenössischen Literatur im dia- wie synchronen Vergleich untersuchen zu können; sprich, wann tauchten dieselben Themen in der jeweiligen Literatur auf. Er stellt dabei die zentrale Frage, wie sich die „Identität“ von Zeitschriften über den Erscheinungszeitraum hinweg verändern konnte (McIsaac, S. 189). Wichtig ist der technische Hinweis, dass bei der bisherigen Bildung von Topic Models die Bedeutung von Seitenzahlen vernachlässigt wurde (ebd.). Bisher gewichten die dort angewandten statistischen Verfahren die einzelnen Wörter nicht im Zusammenhang mit der Länge eines Artikels. Diese sagt aber Wesentliches darüber aus, wie wichtig Herausgeber (und Autor) ein Thema einschätzten. Diese Einschätzung teilt der Autor diese Rezension. Denn Artikel vermeiden Redundanzen, spezifische Wörter tauchen nur in einer bestimmten Häufigkeit auf, der ganze Rest von Absätzen und Seiten kann sich aber auf sie beziehen. Diese logischen Beziehungen können aber die aktuell meist genutzten Werkzeuge (noch) nicht herstellen, auch die Untersuchung von Bag-of-Words und Kookkurrenzen bietet keine Ersatzlösungen. Allerdings überzeugt McIsaacs Ansatz, dieses Problem durch die Kombination eines Algorithmus zur Seitenzahlberechnung in Kombination mit einer „manuellen“ Bestätigung zu lösen, noch nicht endgültig (ebd.). Sein Befund, Frauen hätten scheinbar durch ihre Zeitschriftenlektüre weniger spezialisiertes Wissen erworben als Männer, wird sicherlich zur Diskussion anregen (S. 200), denn Mädchen und Frauen standen zunehmend auch andere Wege zum Wissenserwerb zur Verfügung (zum Beispiel durch den Ausbau des Mädchenschulwesens). Interessant für die Einschätzung, wie weit homogene nationale Kulturen im 19. Jahrhundert verbreitet waren ist sein Befund, dass die Zeitschriften zunehmend ein Nischenpublikum suchten, es also sowohl bei Fach- wie Gesellschaftszeitschriften zu einer Fragmentierung des Lesepublikums kam (ebd.).

Aus Sicht der bisherigen Forschung ist es sicherlich beruhigend, dass die neuen Methoden die bisherigen Ergebnisse bestätigen und nicht widerlegen, allerdings ist auch den Autoren klar, dass dies die Sinnfrage nach dem Nutzen der hohen Investitionen in den Bereich Digital Humanities stellt (so Erlin, S. 69). Wie gering die Standards im Humanities-Bereich der Digital Humanities noch sind, zeigen auch die Begriffe. So wäre es wünschenswert gewesen, die Herausgeber hätten auf eine einheitliche Begrifflichkeit geachtet. Denn Katja Mellmann spricht von „Detour Reading“, nicht Distant Reading (Mellmann, S. 301), ohne dass ersichtlich wird, was der Mehrwert dieser begrifflichen Neuschöpfung für die Diskussion ist. Ihr Beitrag weicht auch insofern von den meisten anderen Beiträgen ab, als in ihm digitale Werkzeuge kaum eine Rolle spielen.

Solche Widersprüchlichkeiten bleiben nicht ohne Auswirkungen. Deren Effekte müssen bei der Frage, inwieweit diese Methoden auf die digitalen Geschichtswissenschaften übertragen werden können, noch diskutiert werden. Big Data wurde unter anderen Begriffen in den „klassischen“ Geschichtswissenschaften immer wieder auf seine Auswirkungen auf das Fach diskutiert. Dass dies bis heute in den Digital Humanities nur ungenügend reflektiert wird, stellt sicher eine der größten Schwächen der jungen Disziplin dar. Der große Methodenpluralismus, die Uneinheitlichkeit der Ansätze, die aus den Literaturwissenschaften entlehnte Vorliebe zur Überbetonung von Theorie und die Dekontextualisierung sind sicher momentan unter ihren größten Schwächen. Doch zeigen einzelne Artikel durchaus das Potential der neuen quantifizierenden Ansätze, vor allem für die Netzwerkforschung, aber auch die Visualisierung von kulturellen Entwicklungen über große Zeiträume hinweg. Insgesamt ist dem immer wieder anregenden Sammelband eine breite, durchaus aber auch kritische Leserschaft zu wünschen.

Anmerkungen:
1 Franco Moretti, Distant Reading, New York 2013.
2 Zum Symposium siehe den Bericht Lorie A. Vanchena, „Reading German Culture, 1789–1918“, <http://www.jltonline.de/index.php/conferences/article/view/502/1306> (24.10.2015).

Redaktion
Veröffentlicht am
Beiträger
Redaktionell betreut durch
Klassifikation
Mehr zum Buch
Inhalte und Rezensionen
Verfügbarkeit
Weitere Informationen
Sprache der Publikation
Sprache der Rezension