(Digital) Humanities Revisited – Challenges and Opportunities in the Digital Age

(Digital) Humanities Revisited – Challenges and Opportunities in the Digital Age

Organisatoren
VolkswagenStiftung; zusammen mit Anke Lüdeling, Humboldt-Universität zu Berlin; Hubertus Kohle, Ludwig-Maximilians-Universität München; Gerhard Lauer, Universität Göttingen; Henning Lobin, Universität Gießen; Norbert Lossau, Universität Göttingen
Ort
Hannover
Land
Deutschland
Vom - Bis
05.12.2013 - 07.12.2013
Url der Konferenzwebsite
Von
Vera Szöllösi-Brenig, VolkswagenStiftung

Im Zeitalter der Digitalisierung, des Internets und der mobilen Kommunikation stehen den Geisteswissenschaften neue computergestützte Methoden des Erkenntniserwerbs offen. Was dies für die unterschiedlichen Disziplinen bedeutet, für ihre Forschungsfragen, Methoden und nicht zuletzt ihre Rolle in der Gesellschaft – diese Fragen standen im Mittelpunkt der Herrenhäuser Konferenz, die mehr als 150 WissenschaftlerInnen aus 20 Ländern zusammenführte. Ziel der Veranstaltung war es, einen Dialog zwischen VertreterInnen der Digital Humanities und der „klassischen“ Geisteswissenschaften zu initiieren: Welches neue Wissen können wir erwarten? Welches Wissen droht verloren zu gehen? Zeichnet sich eine neue Wissenskultur ab?

“How do we make data matter? How do we make culturally meaningful arguments“? fragte JEFFREY SCHNAPP (Harvard) in seinem Eröffnungsvortrag und sah genau hierin die Aufgabe der Geisteswissenschaften. Diese Frage stelle sich heute neu, da Wissen im digitalen Zeitalter über keine gegebene Form mehr verfüge: Statistische Methoden auf der einen und Visualisierungen auf der anderen Seite sowie kollaborative Arbeitsverfahren von Geisteswissenschaftlern in Interaktion mit dem allgemeinen User rückten die Bedeutung des Knowledge Design ins Zentrum. Mit Blick auf die riesigen Sammlungen der Museen, die zu 95 % in den Magazinen schlummerten, aber digital zugänglich seien, müsse es darum gehen, neue Konzepte für deren Erschließung zu entwickeln. Wie hieraus „neue Geschichten erzählt“ werden können, dazu stellte Schnapp die Plattform CURARIUM vor, die dies mit dem in der Villa I Tatti angesiedelten Projekt Homeless Paintings of Italian Renaissance Collection versuche. Dabei komme es darauf an, die Objekte von Kunst und Kultur nicht nur zu scannen, sondern ihnen einen Mehrwert zu geben durch Zusatzinformationen, die sie letztlich zu einem Interface machten und nicht aus dem „social network of things“ herauslösten. Studieren und Lernen fänden heute zudem nicht mehr in Rückzugsräumen wie beispielsweise einer Bibliothek statt; wie neue Lernräume der Zukunft aussehen könnten, zeige sich in der Library Test Kitchen in Harvards Graduate School of Design. Insgesamt präsentiert Schnapp eine optimistische Zukunftsvision.

Die durch die neuen digitalen Methoden entstehenden Chancen bestimmten auch die erste Sektion „What kind of knowlege can we expect?“ Eine heftige Kontroverse löste die von VIKTOR MAYER-SCHÖNBERGER (Oxford) vertretene These des more data = better data aus. Seine Parole lautete: „Let the data speak!“ Als Beispiel führte er die Maschinenübersetzung Google Translate an, die nicht mehr auf Grammatikregeln rekurriere, sondern die Textvorschläge mit allen im Internet vorhandenen Textmassen abgleiche. Big Data führe zu einem kategorialen Unterschied – genauso wie ein Foto eines Pferdes ein Foto sei, aber 15 Fotos eines Pferdes pro Sekunde zu einem Film mutierten. Mayer-Schönberger sieht mit Big Data zwar nicht das Ende der Theorie wie Chris Anderson, wohl aber das Ende der Hypothesen geleiteten Forschung gekommen.

Dieser These widersprach DETMAR MEURERS (Tübingen) in seinem Vortrag. Je größer die Datencorpora seien, desto reduzierter sei heute noch der Analyseansatz. Google translate produziere beispielsweise folgende kuriose Übersetzung: „How to can your own tuna fish?“ ergebe „Wie können sie ihre eigenen Thunfisch?“ Der Unterschied zwischen Vollverb und Modalverb werde nicht erkannt. Solche Beispiele verdeutlichten die Notwendigkeit, in die Datenanalyse fachliche Konzepte und Kategorien einzubeziehen. Neben dem datengetriebenen Zugang benötige man den theoriegeleiteten Zugriff und damit das Expertenwissen.

Diese Position vertrat auch IRYNA GUREVYCH (Darmstadt), die ihre Vision einer Educational Informatics präsentierte: Die moderne Gesellschaft sammele riesige Datenmengen wie PISA und andere Studien. Es komme darauf an, neben Big Data auch die Heterogenität von Daten in den Griff zu bekommen und schließlich qualitative und quantitative Methoden zu kombinieren; dann könnten die digitalen Geisteswissenschaften mit ihren Forschungsergebnissen bis in die politische Ebene hineinwirken. DANIEL KEIM (Konstanz) zeigte, was Visual Analytics für die Geisteswissenschaften heute leisten können anhand einer Reihe von Fällen. So könne zum Beispiel die Frage, ob das 1907 erschienene Buch „The Road“ von Mark Twain oder Jack London geschrieben worden sei, durch eine ganze Reihe von Untersuchungen eindeutig beantwortet werden: Funktionswörter, durchschnittliche Satzlänge, Simpson’s Index, Hapax Legomenon – Ergebnis: Es war Jack London. Keim stellte seinen Vortrag unter ein Einstein zugeschriebenes Zitat: „Computers are incredibly fast, accurate and stupid, humans are incredibly slow, inaccurate, and brilliant. Together they are powerful beyond imagination.“

Der Literaturwissenschaftler THOMAS ANZ (Marburg) und der Kunsthistoriker HORST BREDEKAMP (Berlin) waren eingeladen, die Vorträge dieser Sektion und die Entwicklung der (digitalen) Geisteswissenschaften aus ihrer Sicht zu kommentieren. Während draußen ein Sturm über Norddeutschland losbrach, zitierte drinnen Anz das Gedicht „Weltende“ von Jakob van Hoddis: Traditionelle Aufgabe der Literaturwissenschaft sei es, einzelne, ganze, hochwertige, letztlich unverständliche Texte lesbar und verständlich zu machen. Demgegenüber sah Anz in der Analyse von Epochenstil, Diskursanordnung und Gattungskonventionen etc. das Potenzial der Digital Humanities. Letztere drohten allerdings sich zu verselbständigen. Was die farbenprächtigen, formschönen Visualisierungen wie in Keims Vortrag betraf, frage er sich, ob es sich hier um die Darstellung eines Analyseergebnisses handele oder um ein neues Analyseobjekt? Horst Bredekamp warnte seinerseits vor zwei Gefahren: Zum einen vor dem in den Digital Humanities herrschendem Präsentismus; der Kult der Gegenwart führe zu einem kollektiven Gedächtnisverlust. Die Digital Humanities würden zum anderen zu reiner Ideologie, wenn sie die Differenz zwischen Computer und Mensch (mit seinem Körper und seinen anthropologischen Perzeptionsformen) negierten. In der anschließenden Diskussion wagte Detmar Meurers folgende Unterscheidung: Beantworteten die Digital Humanities die Frage: Was ist charakteristisch?, ginge es den Geisteswissenschaften traditionell um die Frage: Was ist einzigartig?

Sektion 2 widmete sich aus bild-, literatur- und musikwissenschaftlicher Sicht der Frage „From art to data – what’s the impact of going digital?“ In einer Linie mit Mayer-Schönberger forderte LEV MANOVICH (New York): „Don’t start with research questions! Look at the data instead“. Am Beispiel einer elektronischen Gesamtabbildung aller Titelcover des Time-Magazine von der Gründung 1923 bis heute oder des Vergleichs der Farbpaletten von Impressionisten führte er seinen Ansatz vor, hinter die eigenen Annahmen und Konzepte zurückzutreten und das Gefängnis der Sprache („prison of language“) zu verlassen: Durch die Aufnahme aller einzelnen Objekte in eine Gesamtabbildung, in die hinein- und hinausgezoomt werden kann, will er gleichzeitig den bei Analysen auftretenden Informationsverlust und Reduktionismus vermeiden. Das Ergebnis dieser Forschungsarbeit ist also kein Text, sondern ein – überaus ästhetisches – Bild. In der Diskussion wurde Manovich von verschiedener Seite aber ins Stammbuch geschrieben, dass es nicht möglich sei, hinter die eigenen Konzepte zurückzutreten und vorgängige Wahrnehmung ohne Vorwissen zu finden. Form und Struktur seiner ‚Ergebnisbilder‘ seien ohne (Hintergrund)Wissen nicht denkbar.

Die Literaturwissenschaftlerin JULIA FLANDERS (Northeastern University) gab auf die in dieser Sektion gestellte Frage eine andere Antwort. Sie akzeptierte Informationsverlust und Reduktion, um auf eine Ähnlichkeit von künstlerischen Verfahren und Digital Humanities hinzuweisen: das Spiel bzw. die Auseinandersetzung mit Regeln und Gesetzmäßigkeiten („play with constraints“) – sei es durch die menschliche Wahrnehmung, sei es durch künstlerische Formvorstellungen. Dieses Spiel werde in Datenmodellen wie der Text Encoding Initiative (TEI), deren Formalismen auf einem disziplinären Konsens beruhten, gespiegelt. „The resulting model makes explicit the formal structures that were at work in the original object“. Die wahre Aufgabe der Digital Humanities liege nun darin, verschiedene Datenmodelle eines Kunstwerks gleichzeitig zuzulassen, damit auch in Zukunft divergierende Interpretationen diskutiert werden können.

ELEANOR SELFRIDGE-FIELD (Stanford) führte in ihrem Vortrag verschiedene digitale Ansätze in der Musikwissenschaft vor: Notationsbasierte Verfahren der Suche und Analyse stehen hier Verfahren gegenüber, die auf Audioaufnahmen gründen. Letztere leiden besonders unter den ungeklärten Datenschutzfragen in der Wissenschaft. In den USA sind nur 30 Sekunden lange Tonaufnahmen frei nutzbar – was aber tun, wenn ein Harmoniebogen länger ist?

In sechs parallelen Workshops waren die TeilnehmerInnen der Konferenz aufgerufen, Antworten auf grundsätzliche Fragen der Digital Humanities zusammenzutragen; diese wurden dann im Plenum vorgestellt. Man war sich einig, dass Digital Humanities in einem weiteren Sinne als Forschung an und mit digitalisierten Quellen/Daten und in einem engeren Sinne als Einsatz von quantitativen Computermethoden in den Geisteswissenschaften zu verstehen seien. Sie seien auf der einen Seite eine eigene Disziplin, auf der anderen Seite ein Teilbereich aller geisteswissenschaftlichen Disziplinen – mit der Folge: „We all will use dh tools, but we will not all become digital humanists“. Es wurde die Notwendigkeit betont, sich selbst besser zu definieren, schließlich gebe es viele Spannungen mit den traditionellen Geisteswissenschaften und man müsse – von Einzelbereichen wie der Linguistik abgesehen – einen “lack of impact on the humanities” konzedieren. Dabei stellten die Digital Humanities eine fundamentale Neuerung dar: ein Denken in Algorithmen. Als Innovationen wurden Mustererkennung, neue Forschungsfragen, Corpora und Tools als neue Forschungsergebnisse sowie kollaborative Arbeitsverfahren bezeichnet. Digital Humanities, Bibliotheken und Informatik müssten eine gemeinsame Sprache lernen und sich auf Augenhöhe begegnen, ohne sich wechselseitig zu instrumentalisieren. Auf der Agenda stehe, eine Community zu bilden. Gefordert wurden eine staatliche, nicht-projektgebundene Förderung von Informationsinfrastrukturen, sowie die Anerkennung von Corpusbildung und Toolentwicklung als Forschungsleistung.

Welche Vielfalt der Forschungsfragen, -formen und -ergebnisse es in den digitalen Geisteswissenschaften heute gibt, zeigten die NachwuchswissenschaftlerInnen in den sogenannten Lightning Talks. Aus 187 eingegangenen Bewerbungen auf Reisestipendien waren 37 KandidatInnen ausgewählt worden, um ihre Vorhaben in 3 Minuten vorzustellen. Das Spektrum reichte von Mapping-Projekten wie „The Pompeij Bibliography and Mapping Project“ über Sprachdokumentationen wie zum Haro in Äthiopien und Analysevorhaben wie „Searching for traces of Korzeniowski in Conrad“ bis hin zur politischen Forderung, Open Source gegenüber dem Datenkapitalismus zu verteidigen.

In Sektion 3 „Digital Humanities and the Public“ stellte LOUIS VON AHN (Carnegie Mellon University) sein neues Projekt „Duolingo“ vor, ein kostenloses Sprachlernprogramm, das sich durch den Verkauf von dabei entstehenden Übersetzungen selbst finanziert: Der Computer gleicht die Übungsversionen zigtausender von Usern ab und generiert daraus eine sinnvolle, publizierbare Endfassung. CNN sei beispielsweise Kunde. JOHN WEITZMANN (iRights Berlin) stellte Creative Commons-Lizenzen als einen ersten Schritt vor, das Urheberrechtsproblem für die Wissenschaft im digitalen Zeitalter zu lösen, machte aber die Grenzen dieser Vorgehensweise deutlich. Er forderte eine rechtliche Lösung für den wissenschaftlichen Bedarf; das in den USA geltende Fair-Use-Prinzip, das zum Beispiel die freie Nutzung von 30 Sekunden Tonmaterial für wissenschaftliche Zwecke erlaube, sei ein erster, wenn auch noch nicht hinreichender Schritt. GREGORY CRANE (Leipzig) skizzierte daraufhin seine Vision der „Humanities in the 21st Century“: Die Aufgabe der Geisteswissenschaften bestehe nach wie vor darin, das intellektuelle Leben der Gesellschaft voranzubringen – aber der Adressatenkreis habe sich heute durch das Internet auf Millionen von Nutzern vergrößert. Diesen Menschen die unverständlichen Texte der Vergangenheit verständlich zu machen, sei sein Ziel und er sehe sich hier in der Tradition Humboldts. Dass er als Geisteswissenschaftler aber am Leipziger Institut für Informatik angesiedelt sei und seine besten Schüler nicht in den Geisteswissenschaften einen Job finden könnten, zeige das Dilemma.

In der abschließenden Podiumsdiskussion unter der Moderation von WILHELM KRULL (VolkswagenStiftung Hannover) zogen Crane, CHRISTOPH CORNELIßEN (Frankfurt am Main) und MANFRED NIEßEN (DFG Bonn) eine erste Zwischenbilanz. Während Nießen bei den Digital Humanities die Gefahr der Selbstghettoisierung sah – es gebe ja schließlich auch keine digitalen Naturwissenschaften –, sprach Cornelißen von dem Problem, dass die epistemologischen Grenzen nicht geklärt seien. Daraus resultiere allseitig eine hohe Verunsicherung. Die Digital Humanities stellten heute ein Generationen-, Status- und Karriereproblem dar. Er sei zuversichtlich, dass sie sich über kurz oder lang in der Mitte der Disziplinen platzieren würden, aber pessimistisch, dass die DFG bei der Lösung der Informationsinfrastrukturfrage der richtige Ansprechpartner sei. In seinem Schlusswort betonte Wilhelm Krull, dass die Politik gefordert sei, die Finanzierung der Informationsinfrastruktur für die Geisteswissenschaften in Deutschland und Europa sicherzustellen.

Insgesamt versammelte diese Herrenhäuser Konferenz herausragende internationale VertreterInnen der Digital Humanities und bot eine Diskussion auf hohem intellektuellen Niveau. Erste Umrisse einer methodologischen und epistemologischen Klärung der Frage, was Digital Humanities im Gegensatz zu und zusammen mit den traditionellen Geisteswissenschaften leisten könnten, wurden sichtbar. Verkürzt ließen sich die Unterschiede vielleicht auf folgende Gegensätze zusammenfassen: Ich-Perspektive vs. Er-Perspektive, Verstehen vs. Erklären, Fokus Einzigartigkeit vs. Fokus Charakteristika/Patterns. Diese epistemologischen Unterschiede für die Geisteswissenschaften differenziert zu klären und für die Forschung zu operationalisieren, ist die Aufgabe der Zukunft, um beide Ansätze zu integrieren und das Feld geisteswissenschaftlicher Fächer nicht weiter aufzusplittern. Wie schwer es aber ist, einen Dialog zwischen beiden Bereichen zu initiieren, zeigte diese Herrenhäuser Konferenz auch: Die VertreterInnen der Digital Humanities blieben mehrheitlich unter sich. Dass die Gesellschaft des digitalen Zeitalters und ihre Kultur selber große Mengen an Daten produzieren, wird aber mittelfristig die Entwicklung zugunsten der digitalen Geisteswissenschaften befördern. Nicht beantwortet wurde auf der Konferenz, und vielleicht kommt das nicht von ungefähr, die Frage der kulturellen, literarischen oder künstlerischen Qualität der Forschungsobjekte bzw. ob sich die Digital Humanities mit der Qualitätsfrage überhaupt auseinandersetzen.

Konferenzübersicht:

Begrüßung: Wilhelm Krull, Secretary General, VolkswagenStiftung

Keynote: Jeffrey Schnapp (Harvard): Knowledge Design

Session 1: “Digital Humanities – What kind of knowledge can we expect?”
Chair: Gerhard Lauer (Göttingen)

Viktor Mayer-Schönberger (Oxford): The Big Deal About Big Data

Iryna Gurevych (Darmstadt): Loss and Gain are Brothers Twain: Large-Scale Text Processing for Digital Humanities

Walt Detmar Meurers (Tübingen): From Recording the Past to Predicting the Future? On the Role and Relevance of Linguistic Abstraction for Corpus-Based Analysis

Daniel Keim (Konstanz): Visual Analytics for the Digital Humanities: Combining Analytics and Visualizations for Gaining Insights into Linguistic Data

Commenting Statements
Thomas Anz (Marburg)
Horst Bredekamp (Berlin)

Session 2: “From Art to Data – What’s the Impact of going Digital?”
Chair: Anke Lüdeling (Berlin)

Lev Manovich (New York): Looking at one million images: How visualization of big cultural data helps us to question our cultural categories

Julia Flanders (Boston): Art, Data, and Formalism

Eleanor Selfridge-Field (Stanford): Challenges and Achievements in Digital Music Studies

Session 3: “Digital Humanities and the Public”
Chair: Hubertus Kohle (Munich)

Luis von Ahn (Pittsburgh) on Citizen Science / Crowdsourcing

John Weitzmann (Berlin): Standard licenses as a patch, but not a fix to a copyright system unsuitable for the Digital Humanities

Gregory Ralph Crane (Leipzig): The Humanities in the 21st century

Closing panel discussion
Christoph Cornelißen (Frankfurt), Gregory Ralph Crane (Leipzig), Manfred Nießen (DFG), Host: Wilhelm Krull, Secretary General, VolkswagenStiftung

Lightning Talks & Poster sessions

Mariajosé Afanador-Llach (Austin): Mapping Nature in New Granada, 1780-1830

Pius Akumbu (Buea): Multimedia Documentation of Babanki

Carlos Barreneche (Medellín): The City as a Database

Valerie Butler (Galway): The trouble with tacit knowledge

Tanya Clement (Austin): Introducing the High Performance Sound Technologies for Access and Scholarship (HiPSTAS) Project

Renate Delucchi Danhier (Heidelberg): The many ways to get you there. Visualizing conceptualizations of space in German and Spanish route directions

Amy Earhart (College Station): The Difference Project

Oliver Ferschke (Darmstadt): The Quality of Massive Online Collaboration

Camila Guimaraes Dantas (Rio de Janeiro/Nijmegen): No man’s memories: in search of concepts to understand born-digital records

Tamir Hassan (Konstanz): Obtaining new insights into theatre history via digitization, OCR, semantic analysis and visual analytics

Rachel Hendery (Canberra): Digital mapping of change in family and social organisation in Indigenous Australia

Aurelie Herbelot (Cambridge): Philosophy of language and computational linguistics: a theoretical exchange

J. Berenike Herrmann (Göttingen): Computing Kafka - How Keyness and Collocation Analysis Help Explain Paradoxical Style

Endashaw Woldemichael Jima (Addis Abeba): Rethinking Digital Humanities – The Contribution of Digital Technology towards Diversifying Sources of Knowledge: The Case of Haro in Pluralist Ethiopia

Hartmut Koenitz (Athens, Georgia): Tracking User Behavior in Interactive Narratives

Claire Kovacs (Buffalo): Mapping Paris: a work in progress

Florian Kräutli (London): Time as digital data

Stefano Menini (Trento): Readability evaluation with cognitive features

Maren M. Michaelsen (Bochum): A quantitative analysis of individual persecution using biographic data of the Jews of Munich (1933-1945)

Ian Milligan (Waterloo, CA): Rethinking the Archival Box: Historians and Web Archives

Emmanuel Ngué Um (Yaoundé): A Digital Sociolinguistic Grammar of Bakola Language. Bridging the gap between grammar and usage

Katarina Peovic Vukovic (Rijeka): Open-source as third communist hypothesis

Eric Poehler (Amherst): The Pompeii Bibliography and Mapping Project

Nils Reiter (Heidelberg): Discovery of Structural Similarities across Narrative Texts

Mia Ridge (Open University): Peer production models for academic and amateur historians: challenges and opportunities

Sabine Scherz (München): Wieviel Kunstgeschichte steckt in den ARTigo-Tags?

Christof Schoech (Würzburg): Computational Literary Genre Stylistics in Romance Philology

Nabeel Siddiqui (Williamsburg, Virginia): Big Data in the Social Sciences and the Digital Humanities: An Attempt to Bridge the Gap in Emotional History

Louise Sorensen (Sheffield): The importance of the mundane: virtual worlds as generators of micro-history

Jannik Strötgen (Heidelberg): Annotating Temporal Phenomena in Literary Text in the Context of the heureCLÉA Project

Maik Stührenberg (Bielefeld): Annotating multimodal documents

Gabor Mihaly Toth (Oxford/Passau): The computer assisted analysis of thinking and knowledge in late-medieval Florence: the hierarchy of the world in a corpus of diaries

Tomas Trescak (Sidney): Populating Virtual Cities with Genetically Diverse and Physiology Driven Crowds of Intelligent Agents

David-Antoine Williams (Waterloo, CA): Literature, Lexicography and the Life of Words

Magdalena Wolska (Tübingen): Searching for traces of Korzeniowski in Conrad: Applications of computational learner language analysis methods in literary stylistics.


Redaktion
Veröffentlicht am
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprache(n) der Konferenz
Englisch, Deutsch
Sprache des Berichts