Reflections on Code – International Summer School Mainz 2019

Reflections on Code – International Summer School Mainz 2019

Organisatoren
Akademie der Wissenschaften und der Literatur Mainz
Ort
Mainz
Land
Deutschland
Vom - Bis
08.10.2019 - 11.10.2019
Url der Konferenzwebsite
Von
Marina Lehmann, Institut für Weltliteratur und schriftorientierte Medien, Johannes Gutenberg-Universität Mainz

„Reflections on Code“ lautete das Motto der diesjährigen International Summer School (ISS), die jährlich den Auftakt für neue Studierende des hochschulübergreifenden Masterstudiengangs „Digitale Methodik in den Geisteswissenschaften“ bildet. Gemeinsam mit den Masterstudierenden nahmen jedoch auch Wissenschaftler aus dem Umfeld der Digitalen Geisteswissenschaften sowie interessierte Studierende anderer Fächer an der Summer School teil.

Nachdem in den vergangenen Jahren bereits ein besonderer Fokus auf Linked Open Data und Semantic Web sowie auf Annotationsmethoden lag, sollte in diesem Jahr die kritische Reflexion von digitalen Methoden und Tools im Mittelpunkt stehen. Neben der Vermittlung von Basistechniken der Digitalen Geisteswissenschaften hatte die Summer School somit das Ziel, die Teilnehmenden dafür zu sensibilisieren, die eigene Herangehensweise an digitale Forschungsfragen kritisch zu hinterfragen. Dazu gehört insbesondere ein Bewusstsein dafür, welche Auswirkungen die gewählten Forschungsparameter (wie beispielsweise die Methoden zur Erfassung und Selektion der Daten oder die Auswahl und Einstellungen der Tools) auf die Interpretation der Daten und letztlich auf die Forschungsergebnisse haben.

Alle Vorträge zu den Themen Markdown, Kommandozeile, Git, digitale Annotationsmethoden, Netzwerkanalyse und Datenvisualisierung, Graphdatenbanken und -tools, Space Syntax Analysis sowie Natural Language Processing umfassten auch einen Hands-on-Teil, bei dem die Teilnehmenden an Rapsberry Pi-Computern die vorgestellten Tools und Methoden selbst erproben konnten.

Basisinstrumente (Markdown, Git, GitLab)

Im ersten Vortrag schafften JÖRG HAMBUCH und ANNA NEOVESKY (beide Mainz) die Grundlage für das weitere Arbeiten. Sie präsentierten Methoden und Tools, die für Studium und Praxis der Digital Humanities grundlegend sind. Zunächst wurde Markdown als ein nützliches Text- und Schreibformat vorgestellt. Als Plain-Text-Format zeichnet es sich dadurch aus, dass es für nahezu alle Geräte lesbar ist und leicht in andere Formate wie HTML oder PDF umgewandelt werden kann. Die Arbeit mit der Kommandozeile, deren Gebrauch im zweiten Teil der Session eingeübt wurde, gehört zu den grundlegenden Techniken der Digitalen Geisteswissenschaften, weil man mit ihr schneller arbeiten kann als über eine GUI (Graphical User Interface). Außerdem lässt sie den Nutzer besser verstehen und kontrollieren, welche Befehle ein Programm ausführt – eine wichtige Voraussetzung für einen kritischen Umgang mit Daten. Ebenfalls wichtig in diesem Zusammenhang ist es, Änderungen an Forschungsdaten transparent zu machen. Dabei hilft das Versionierungssystem Git. Es ermöglicht die genaue Dokumentation der Änderungen am Code und erleichtert dadurch auch die gemeinsame Softwareentwicklung im Team.

Kritische Methoden für Text- und Bildannotation

Weil die Summer School im Zeichen des kritischen Hinterfragens stand, durften einige Gedanken zu grundlegenden Begriffen nicht fehlen. In ihrem Vortrag zur Text- und Bildannotation klärten MAX GRÜNTGENS und THOMAS KOLLATZ (beide Mainz) darum zunächst folgende Fragen: Was bedeutet es, kritisch zu sein? Was versteht man unter einer Methode und was ist überhaupt eine Annotation? Sie definierten Annotation als einen bewussten Prozess der Wahrnehmung, Unterscheidung und Sinnzuweisung, der immer in Bezug zu einem Objekt steht, einem bestimmten Zweck dient und einen Rezipienten voraussetzt. Dabei gibt es sowohl Annotationen, die sich direkt auf ein Objekt beziehen, als auch Annotationen zweiter Ordnung, die sich auf andere Annotationen beziehen. Im Hands-on-Teil des Vortrags begaben sich die Teilnehmenden selbst auf die Suche nach Annotationen. Im Fokus stand die Tatsache, dass man sich stets über die Granularität des jeweiligen Gegenstands (Text oder Bild) im Klaren sein muss. Das bedeutet: Vor jeder Annotation steht die Frage, in welche Elemente sich der Gegenstand untergliedern lässt und welche davon sinnvollerweise zum Objekt der Annotation werden sollen.

Codierung und Annotation von Musik

Im Anschluss widmete sich FREDERIC VON VLAHOVITS (Mainz) einem weiteren Gegenstand von Annotationen: der Musik, genauer gesagt, dem Notentext. Dabei standen Encoding Standards wie MEI (Music Encoding Initiative), ABC, Plaine and Easie und der Parsons-Code im Fokus. Durch sie gelingt es beispielsweise, einen Notentext so auszuzeichnen, dass er automatisch über einen Code generiert werden kann. Dies wiederum erleichtert die computergestützte Musikanalyse sowie die Entwicklung von Tools wie Incipit Search, die es ermöglichen, mithilfe der Plaine and Easie Codierung nach Anfängen von Musikstücken (Incipits) zu suchen. Als Herausforderung erweist sich auf dem Feld der Digitalen Musikwissenschaft die Vielfalt der Standards sowie daran anschließend auch die Frage, wie man digitalen Notentext generieren kann, der langfristig nutzbar bleibt.

Are you in or out? An introduction to historical network analysis

In ihrem Gastvortrag widmete sich INGEBORG VAN VUGT (Utrecht) der historischen Netzwerkanalyse. Im praktischen Teil konnten die Teilnehmenden ein detektivisches Rätsel lösen, indem sie mithilfe der Netzwerkanalyse-Software Gephi der Frage nachgingen, wer Ende des 17. Jahrhunderts das Gerücht verbreitet hatte, Antonio Magliabechi, der Bibliothekar der Medici-Familie, sei verstorben. Aus der Session nahmen die Teilnehmenden nicht nur alle grundlegenden Begriffe und Konzepte der Netzwerkanalyse mit, sondern auch die Erkenntnis, dass die Verfahren des Distant Reading wie die Netzwerkanalyse nicht für sich allein stehen, sondern immer mit einem Close Reading der Quellen einhergehen sollten. Es sei zudem wichtig, die geisteswissenschaftlichen Skills auch auf die Daten des Netzwerks anzuwenden. Man müsse die Quellen- und Datengrundlage sehr gut kennen und verstehen, um durch Netzwerkanalyse aussagekräftige Ergebnisse zu erhalten, da Visualisierungen immer in die Irre führen können.

Visualisierung: Methoden und Tools zur kritischen Reflexion von Daten

An diesen Punkt knüpften SARAH PITTROFF und MARJAM TRAUTMANN (beide Mainz) an, indem sie zunächst auf den Unterschied zwischen Netzwerkvisualisierung und Netzwerkanalyse hinwiesen. Zudem kamen die zentralen Punkte zur Sprache, die es im Kontext einer Visualisierung zu beachten gilt: Eine Visualisierung muss immer in Bezug zur Forschungsfrage stehen, denn anhand der Frage wird entschieden, welche Daten relevant sind, wie sie visualisiert werden sollen und welches Ergebnis man sich von der Darstellung erwartet. Sie ist ein Modell, und als solches bildet sie die Realität nicht ab, sondern nähert sich ihr lediglich an. Dies wird besonders daran deutlich, dass derselbe Datensatz auf unterschiedlichste Weisen visualisiert werden kann. Im Hands-on-Teil der Session wurden die Visualisierungstools RAW Graph und Palladio ausprobiert. Am Ende stand die Erkenntnis, dass nicht nur die Daten vor der Visualisierung mit Bedacht ausgewählt werden müssen, sondern dass man auch bei der Visualisierung selbst genau überlegen muss, welche Parameter für die Darstellung gewählt werden sollen, um keine falschen Schlüsse zu ziehen.

Graphdatenbanken

Stellvertretend für den abwesenden ANDREAS KUCZERA stellte ALINE DEICKE (Mainz) das Konzept der Graphdatenbank vor. Diese definiert sich im Gegensatz zur tabellenbasierten relationalen Datenbank über ein Verzweigungsnetz von Knoten und Kanten, deren Gesamtheit einen Graphen bildet. Anhand der Graphdatenbank Neo4j wurde unter anderem aufgezeigt, wie Knoten, Kanten und Attribute angelegt werden können sowie ein Eindruck darüber vermittelt, wie man innerhalb der Datenbank mithilfe der Abfragesprache Cypher navigieren und Informationen über die Beziehungen der einzelnen Knoten ausgeben lassen kann. In diesem Zusammenhang wurde auch die besondere Bedeutung von regulären Ausdrücken deutlich, die es ermöglichen, nach bestimmten Mustern zu suchen. Ein weiterer wichtiger Vorteil von Graphen ist zudem die Tatsache, dass sich mit ihnen überlappende Strukturen darstellen lassen, was beispielsweise mit XML nur schwer möglich ist. Wie geeignet und sinnvoll eine bestimmte Form der Datenstrukturierung ist, muss darum stets im Einzelfall anhand der Daten selbst abgewogen und entschieden werden. Es gibt keine Universallösung für die ideale Struktur von Daten.

Raumbezogene Analysen in den Geisteswissenschaften

Ohne Computer, stattdessen mit Stift und Papier, führte KAI-CHRISTIAN BRUHN (Mainz) die Teilnehmenden an die Konzepte des Raumes heran. Am Anfang stand die Schwierigkeit, eine gemeinsame Sprache für das Beschreiben von Räumen zu finden. Mit der Space Syntax Analysis stellte er eine Lösung vor, deren Ziel es ist, Raumkonfigurationen quantitativ vergleichbar zu machen, zum Beispiel über das Bestimmen der Raumtiefe. Diese lässt sich rechnerisch ermitteln, indem man die Anzahl der kürzesten Wege durch alle Räume berechnet. Die Software Depthmap kann dabei helfen. Im Kontext des Tagungsmottos ging es auch hier darum, zu hinterfragen, was die Berechnungen der Space Syntax Analysis leisten können und was nicht. So werden beispielsweise metrische Distanzen wie die Länge eines Raumes nicht berücksichtigt. Dies muss bei der Auswertung der Analyse bedacht werden, um zu beurteilen, welche Schlüsse aus den Ergebnissen zulässig sind.

Graphen als Werkzeug zur Erschließung von Forschungsdaten

JULIAN JAROSCH (Mainz) vertiefte das Thema Graphen, indem er verschiedene Tools für den Umgang mit ihnen vorstellte. Nach einigen grundlegenden Überlegungen zu den Anforderungen, die Graphentools erfüllen müssen, war es an den Teilnehmenden, selbst herauszufinden, ob die zur Verfügung gestellten Tools diese erfüllen oder nicht. Zu den Anforderungen gehörten unter anderem eine effiziente Übersicht sowie die Möglichkeit zur explorativen Datenanalyse und zur Bildung von Clustern bei großen Ergebnismengen. Unter den Tools war das bereits bekannte Neo4j, aber auch weitere Programme wie graphVidzdb, inWalk, Wikidata Query Service, Wikidata Graph Builder und SemSpect. Als Ergebnis konnte festgehalten werden, dass sich oft nicht intuitiv erkennen lässt, welche Funktionen geboten werden. Eine gewisse Einarbeitungszeit ist somit vonnöten. Zudem muss Übersichtlichkeit in vielen Fällen durch eine Auswahl der Parameter erst hergestellt werden. Ebenfalls sind nicht alle Tools für die Analyse großer Datenmengen oder für eine explorative Herangehensweise ausgelegt.

Historische Quellen von Frauen in den Digital Humanities – Bestandsaufnahme und automatisierte Textanalyse

Zu Beginn seines Vortrags wies MARTIN PRELL (Jena) zunächst auf die problematische Ungleichheit zwischen den Geschlechtern in den Digital Humanities hin. Die Ungleichverteilung betreffe zum einen die Forschung zu historischen Quellen von Frauen, da diese Quellen häufig zerstört wurden oder in Archiven schwerer auffindbar sind als die Quellen ihrer männlichen Zeitgenossen. Zum anderen seien Frauen aber auch als Forscherinnen im Bereich der Digitalen Geisteswissenschaften unterrepräsentiert. Im Rahmen seiner Forschung widmet sich Prell darum auch ausdrücklich Quellen von Frauen, beispielsweise der Gräfin Erdmuthe Benigna (1670-1732). Anhand ihrer Briefe zeigte er die Herausforderungen auf, die historische Quellen an Verfahren des Natural Language Processing (NLP) stellen können. Das Grundproblem ist hierbei, dass NLP-Verfahren auf moderne Sprache und Orthographie ausgelegt sind. Um die Verfahren der automatischen Textanalyse erfolgreich auf historische Quellen anwenden zu können, müssen diese erst sprachlich normalisiert werden. Dabei kann es darum gehen, ob ein Text eher von positiven oder negativen Wörtern geprägt ist (Sentiment Analysis), wie sich der Stil eines Autors charakterisieren lässt (Stilometrie) oder welche Themen in einem Text vorherrschend sind (Topic Modelling). Auch hier gilt es, mit einem kritischen Blick an die Methoden heranzugehen. So ist beispielsweise bei der Sentiment Analysis zu bedenken, dass Begriffe, je nachdem wann, von wem oder wo sie gebraucht werden, sowohl eine positive als auch negative Bedeutung haben können, was sich jedoch unter Umständen nicht genauso im Emotionslexikon abbilden lässt, das als Grundlage für die Analyse verwendet wird.

Wrap-Up

Den Abschluss der Summer School bildete die Wrap-Up-Session mit einem Kahoot-Quiz. Dabei konnten die Teilnehmenden ihre neu erworbenen Kenntnisse über die Methoden der Digitalen Geisteswissenschaften unter Beweis stellen.

Die International Summer School deckte eine große Vielfalt an Themen ab und bot dadurch eine gute Übersicht über die Grundlagen der Digital Humanities, auch mit dem nötigen Praxisanteil. Es wurde gezeigt, dass Digital Humanities nicht nur bedeutet, digitale Methoden, Tools und Algorithmen anzuwenden. Man muss auch ihre Funktionsweise verstehen und beurteilen können, welche Konsequenzen sich daraus ergeben. Dadurch wurde ein wichtiger Grundstein für das weitere Studium beziehungsweise für die Forschungstätigkeiten der Teilnehmenden gelegt.

Konferenzübersicht:

Jörg Hambuch / Anna Neovesky (Digitale Akademie der Akademie der Wissenschaften und der Literatur Mainz): Basisinstrumente (Markdown, Git, GitLab)

Max Grüntgens / Thomas Kollatz (Digitale Akademie der Akademie der Wissenschaften und der Literatur Mainz): Kritische Methoden für Text- und Bildannotation

Frederic von Vlahovits (Digitale Akademie der Akademie der Wissenschaften und der Literatur Mainz): Codierung und Annotation von Musik

Ingeborg van Vugt (Universität Utrecht): Are you in or out? An introduction to historical network analysis

Sarah Pittroff / Marjam Trautmann (Digitale Akademie der Akademie der Wissenschaften und der Literatur Mainz): Visualisierung: Methoden und Tools zur kritischen Reflexion von Daten

Kai-Christian Bruhn (Hochschule Mainz): Raumbezogene Analysen in den Geisteswissenschaften

Aline Deicke (Digitale Akademie der Akademie der Wissenschaften und der Literatur Mainz): Graphdatenbanken

Julian Jarosch (Digitale Akademie der Akademie der Wissenschaften und der Literatur Mainz): Graphen als Werkzeuge zur Erschließung von Forschungsdaten

Martin Prell (Friedrich-Schiller-Universität Jena): Historische Quellen von Frauen in den Digital Humanities – Bestandsaufnahme und automatisierte Textanalyse

Aline Deicke: Wrap-Up


Redaktion
Veröffentlicht am
Beiträger
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprache(n) der Konferenz
Deutsch
Sprache des Berichts