Buchhistorische Forschung und Digital Humanities. Datenbankgestützte Bibliografien, Bücherkataloge und Quellenverzeichnisse

Buchhistorische Forschung und Digital Humanities. Datenbankgestützte Bibliografien, Bücherkataloge und Quellenverzeichnisse

Organisatoren
Wolfenbütteler Arbeitskreis für Bibliotheks-, Buch- und Mediengeschichte; Herzog-August-Bibliothek, Wolfenbüttel
Ort
Wolfenbüttel
Land
Deutschland
Vom - Bis
29.09.2014 - 01.10.2014
Url der Konferenzwebsite
Von
Nikolaus Weichselbaumer, Buchwissenschaft, Friedrich-Alexander Universität Erlangen-Nürnberg

Vom 29. September bis 1. Oktober 2014 fand in der Herzog August Bibliothek Wolfenbüttel die Jahrestagung des Wolfenbütteler Arbeitskreises für Bibliotheks-, Buch- und Mediengeschichte unter der Leitung von Ursula Rautenberg (Buchwissenschaft, Friedrich-Alexander-Universität Erlangen-Nürnberg) und Oliver Duntze (Gesamtkatalog der Wiegendrucke (GW), Staatsbibliothek zu Berlin) statt. URSULA RAUTENBERG (Erlangen) eröffnete die Tagung mit einem Rückblick auf die vordigitale Buchforschung und stellte die in den letzten beiden Jahrzehnten fortgeschrittene Infrastrukturbildung für buchhistorische Digital Humanities im Vergleich zu anderen Fachrichtungen heraus. Es sei eine digitale Infrastruktur entstanden, deren Qualität und Durchdringung des Forschungs- und Lehralltags einen Paradigmenwechsel in nicht wenigen Arbeitsgebieten der Buchforschung, besonders bei quantitativen Projekten und ihrer Auswertung zur Folge haben werde. Elektronische Instrumente bringen aber ihre eigenen Probleme mit sich: Unterzog man früher die Quellen einer Kritik, müssen e-basierte Forschungsprojekte heute eine Kritik der Quellenverzeichnisse betreiben. Dies betrifft die Einschätzung der Art und Qualität der Ausgangsdaten ebenso wie die Anlage der Kataloge bzw. Datenbanken, denn diese haben Auswirkungen auf die Forschungsergebnisse und deren Validität. Welche Fragen man diese Instrumente stellen kann, und welche Antworten sie geben, war dann ein wichtiges Thema der meisten Vorträge.

Die erste Sektion war den „Methoden quantitativer Buchgeschichtsforschung“ gewidmet. In Ihrem Eröffnungsvortrag stellte ANDREA RAPP (Darmstadt) die Anwendungsmöglichkeiten datengetriebener Methoden für die buchhistorische Forschung anhand zweier Projekte vor. Für das Projekt ePoetics wurden 20 deutsche Poetiken aus der Zeit von 1770 bis 1960 im Volltext erfasst. Mithilfe computergestützter Textanalysen konnte die Entwicklung literaturtheoretischer Fachbegriffe und der verwendeten rhetorischen Beispiele nachvollzogen werden. Stärker bildbezogen ist dagegen das Projekt eCodicology, in dem 500 Handschriften aus der Abtei S. Matthias in Trier analysiert werden. Dabei werden hochauflösende Digitalisate der Handschriften mit Bilderkennungsalgorithmen auf Größe, Anordnung und räumliche Verteilung von Bild und Text untersucht. Beide Projekte seien aufgrund ihrer eng gewählten Gegenstände nicht geeignet, endgültige Forschungsergebnisse zu liefern, doch ermöglichten sie durch ihren explorativen Ansatz die Entwicklung von Methoden, die mittelfristig auch auf größere Bestände anwendbar seien. Abschließend rief Rapp unter dem Schlagwort ‚More data is better data‘ dazu auf, für den Aufbau großer Korpora zu sorgen, ohne die Digital Humanities nicht möglich seien. Dem stellte sich in der Diskussion unter anderem Cristina Dondi und Ursula Rautenberg entgegen, die vor allem für eine Verbesserung der Datenqualität und eine vorgängig auf der Grundlage des jeweils projektspezifischen ‚State oft the Art‘ entwickelten Fragestellung eintraten.

RALF STOCKMANN (Berlin) führte in die Möglichkeiten der Visualisierung von Forschungsdaten ein und betonte, dass sich bibliographische Daten besonders gut eigneten, weil sie hochgradig strukturiert sind. Naheliegende Verfahren seien etwa Geovisualisierungen und Netzwerkvisualisierungen. Neben der Demonstration verschiedener, auch für technische Laien zugänglicher Tools wies er darauf hin, dass Visualisierung auch ‚lügen‘ könne. Je nach vorgegebenen Parametern können Daten so dargestellt werden, dass die Aussage verzerrt, im Extremfall sogar umgekehrt wird. Im Gegenzug könnten visualisierende Methoden aber auch dazu eingesetzt werden, schnell und intuitiv Fehler im Datenbestand aufzuspüren, sofern sie zu sichtbar ‚unsinnigen‘ Ergebnissen führen.

Das Problem schlecht normierter bzw. nicht eindeutig interpretierbarer Basisdaten griff im folgenden Vortrag auch GREGORY J. PRICKMAN (Iowa, USA) auf, der als Fallstudie eine neue Version des „Atlas of Early Printing“ vorstellte. Dieser Atlas verzeichnet verschiedene Parameter der Ausbreitung des Buchdrucks im 15. Jahrhundert als einblendbare Ebenen auf einer Karte und verbindet sie mit einer Zeitachse. Prickman berichtete von Problemen bei der Kompilation der bibliographischen Daten, die nicht unkritisch aus den großen Datenbanken übernommen werden könnten, sondern erst gesondert aufbereitet und bereinigt werden müssten. Dabei müssten unsichere Angaben, z.B. erschlossene Datierungen, genauso gewertet werden wie gesicherte. Aus dem Atlasbild ist die Ambiguität der Daten aber nicht mehr ersichtlich. Eine in Planung befindliche dritte Version des Atlas soll diesem Problem begegnen, indem z.B. unsichere Datierungen als solche ausgewiesen werden.

Einen Schritt weiter als die meisten Teilnehmer ging GÜNTHER GÖRZ (Erlangen) in der technischen Komplexität seines Projekts. Er stellte die Wissenschaftliche Kommunikations-Infrastruktur (WissKI) vor, eine für das Germanische Nationalmuseum Nürnberg und das Zoologische Museum König in Bonn entwickelte virtuelle Forschungsumgebung. WissKI dient als Arbeitsumgebung für große Teile der Dokumentation, Erforschung und Präsentation der Museumsbestände und vernetzt sowohl Informationen als auch Mitarbeiter. Dadurch soll der sonst übliche Verlust von Forschungsrohdaten vermieden und die Kommunikation zwischen Bearbeitern verbessert werden. Durch die Integration semantischer Technologien wie die Einbindung der Ontologie CIDOC-CRM ergeben sich zudem neue Erschließungs- und Recherchemöglichkeiten.

In der zweiten Sektion unter dem Titel „Die Vermessung großer bibliographischer Datenbestände“ wies zunächst JONATHAN GREEN (Grand Forks, USA) auf grundlegende Probleme bei der Anwendung quantitativ-statistischer Verfahren im Zusammenhang mit bibliographischen Daten hin. Aus einer Statistik, in wie vielen Exemplaren jede bekannte Inkunabelausgabe noch erhalten ist, interpolierte er, mit wie vielen gänzlich verloren Ausgaben zu rechnen sei. Die dazu verwendeten statistischen Verfahren werden in der Biologie zur Berechnung der Anzahl unbekannter ausgestorbener Arten angewendet (unseen species problem), führten aber bei der Abschätzung ‚verlorener‘ Ausgaben zu unwahrscheinlich hohen Verlustraten. In der anschließenden Diskussion wurde deutlich, dass die statisch interpolierten Ergebnisse dringend einer kritischen Überprüfung durch archivalische Zeugnisse unterzogen werden müssten, z.B. durch den Vergleich erhaltener Exemplare mit überlieferten Auflagenhöhen oder die Prüfung, ob z.B. die in Rechnungsbüchern belegte Ausgaben in nennenswertem Umfang nicht mehr nachweisbar sind.

Im Anschluss daran stellte ISTVÁN MONOK (Budapest) den Gesamtkatalog der im Königreich Ungarn mit der Handpresse gedruckten Bücher vor, der auch die Bestände von Bibliotheken berücksichtigt, die sich heute außerhalb Ungarns befinden, historisch aber zum ungarischen Kulturraum zu rechnen sind. Bei der Erfassung werde grundsätzlich die Provenienz vermerkt, was es ermöglicht viele heute verstreute Sammlungen zu rekonstruieren. Verbunden mit einem Plädoyer für die Erfassung qualitativ guter statt möglichst vieler Daten zeigte Monok daneben eruditio.hu, eine Datenbank zur Lesegeschichte, die beinahe 3.000 Bücherlisten oder Bibliothekskataloge aus dem Königreich Ungarn und Transsilvanien versammelt. Über die Erfassung unter anderem von Berufen und Nationalitäten der Buchbesitzer ermöglicht sie belastbare Aussagen über das historische Buchkauf- und Leseverhalten. In die gleiche Richtung zielt das von DIETRICH HAKELBERG (Wolfenbüttel) präsentierte Projekt zur Erfassung frühneuzeitlicher Gelehrtenbibliotheken. Dort werden unter anderem historische Antiquariatskataloge und andere gedruckte Bücherverzeichnisse erschlossen, deren Einträge durch die großen bibliographischen Datenbanken in der Regel bestimmten Ausgaben zugeordnet werden könnten.

Die Möglichkeit, umfangreiche bibliographische Datenbestände mit visualisierenden Methoden unter neuen Fragestellungen auszuwerten, zeigte CHRISTOPH BOVELAND (Wolfenbüttel) mit seinem Vortrag zu Bekanntschaftsbeziehungen im Verzeichnis der im deutschen Sprachraum erschienenen Drucke des 17. Jahrhunderts (VD17). Er nutzte dabei die Möglichkeiten, die das VD17 durch seine Erfassung von Beiträgern und Dedikationsempfängern eröffnet. Aus diesen Metadaten können Netzwerke von Bekanntschaften und Kollaborationen abgeleitet werden, wenn z.B. das gemeinsame Auftreten als Beiträger als Indikator für soziale Nähe gewertet wird. In diesem Anwendungsgebiet kann Visualisierungssoftware Teil des Erkenntnisprozesses sein, weil die aus der Datenbank extrahierten Netzwerkinformationen visualisiert lesbar werden. Problematisierend wies Boveland darauf hin, dass derartige Visualisierungen einerseits hochgradig interpretationsbedürftig und nicht selbsterklärend seien, andererseits nicht streng normierte Daten (vor allem Personennamen in leicht abweichender Schreibung) leicht zu missverständlichen Ergebnissen führen würden.

Die anschließende Sektion stellte anhand mehrerer Fallbeispiele die Anwendung „Quantitativer Methoden in Buchhandelsgeschichte und Lese(r)forschung“ dar. WOLFGANG UNDORF (Stockholm) präsentierte dazu seine Forschungen über die Bedeutung des Buchhandels zwischen dem Kontinent und Skandinavien und seine Auswirkung auf den skandinavischen Buchdruck. Grundlage der Untersuchung war eine selbst erstellte Spezialdatenbank, in der die für das Projekt relevanten bibliographischen Daten nach kritischer Prüfung manuell übertragen wurden.

Als Beispiel für den Aufbau einer Verbunddatenbank zur Leserforschung zeigte CRISTINA DONDI (Oxford) das von Ihr initiierte Projekt „Material Evidence in Incunabula“ (MEI), das exemplarspezifische Informationen von Beiträgern in Europa und den USA sammelt und in einer an den Incunabula Short Title Catalogue (ISTC) angegliederten Datenbank zugänglich macht. Dondi berichtete weiterhin von einem Editionsprojekt zum „Zornale“ des Francesco de Madiis, dem Rechnungsbuch eines Venezianischen Buchhändlers, das fast 7.000 Verkäufe von insgesamt über 25.000 Exemplaren aus den Jahren 1484–1488 beinhaltet. Eine Transkription wurde in Excel vorgenommen und die genannten Titel in einem zweiten Schritt nach Möglichkeit ISTC/MEI zugeordnet. Diese Zuordnung erfordere jedoch bei aller Computerunterstützung konventionelle buchhistorische Forschungsarbeit.

ULRIKE FUSS (Leuven) berichtete über ihre Untersuchung zum Einfluss von Büchern aus den südlichen Niederlanden auf die frühmodernen intellektuellen Eliten im Vizekönigreich Peru. Fuss benutzte für Ihre Arbeit ebenso wie Undorf Office-Programme und keine spezialisierten Digital-Humanities-Werkzeuge. Dabei sahen beide insbesondere beim Export bibliographischer Daten aus online verfügbaren bibliographischen Datenbanken Raum für Verbesserungen. Die Extrahierung von Daten durch Literaturverwaltungsprogramme wie Zotero oder der Download einzelner Suchergebnisse sei kein Ersatz für gut ausgebaute Schnittstellen zum Download größerer Datenmengen.

In der letzten Sektion beleuchtete HANS-JÖRG KÜNAST (Augsburg) am Beispiel der Augsburger Buchproduktion des 16. Jahrhunderts dezidiert die Probleme bibliographischer Datenbanken. Er stellte dabei insbesondere ‚blinde Flecken‘ der bibliographischen Erfassung in den Vordergrund. So führe die Entscheidung, keine Einblattdrucke in das Verzeichnis der im deutschen Sprachbereich erschienenen Drucke des 16. Jahrhunderts (VD16) aufzunehmen, zu einer deutlichen Unterrepräsentation des Druckorts Augsburg, da dort besonders viele Einblattdrucke produziert wurden. Doch auch die erfolgreichen Bemühungen, vor allem für das frühe 16. Jahrhundert durch typographische Analyse Drucker zu ermitteln, verfälschten das Bild, weil dadurch die Produktion dieser Zeit verstärkt lokal zugeordnet ist, während für spätere Jahrzehnte viele Drucke „sine loco“ verzeichnet sind. Eine unkritische Übernahme von Daten aus bibliographischen Datenbanken führe aufgrund solcher Effekte schnell zu falschen Ergebnissen.

Im abschließenden Vortrag demonstrierte OLIVER DUNTZE (Berlin) die Anwendung digitaler Methoden für die typenkundliche Forschung. Er zeigte, wie mit Hilfe von Software, die in der Bioinformatik für die Erstellung phylogenetischer Bäume eingesetzt wird, Druckausgaben einer Offizin nach ihren typographischen Merkmalen geclustert werden können. Durch die gemeinsame Gruppierung mit datierten Ausgaben ergeben sich dabei wichtige Anhaltspunkte für die zeitliche Einordnung undatierter Drucke. Darüber hinaus führte er eine Visualisierung vor, bei der Drucktypen je nach Häufigkeit ihrer gemeinsamen Verwendung als Netzwerk dargestellt werden. So können wichtige Indikatoren für die Typenbestimmung sowie mögliche Fehlzuweisungen rasch visuell angezeigt werden.

In der lebhaften Abschlussdiskussion wurde besonders der Konflikt zwischen explorativen, experimentellen und integrativen und standardbasierten Ansätzen diskutiert. Für das wiederholt genannte Problem, keine Plattform für Rohdaten zu haben, wies Thomas Stäcker auf die Möglichkeiten von DARIAH-DE hin, die leider noch nicht bekannt genug seien. Auch die Akzeptanz von Digital Humanities in einer noch eher traditionell ausgerichteten Gemeinschaft der Buchforscher wurde angesprochen. Hier könne die Ausbildung einer jüngeren Generation wirksam werden, die Methoden der Digital Humanities in der universitären Lehre kennenlernt. Während Thomas Stäcker Geisteswissenschaftlern riet, bei ihren Methoden zu bleiben und darauf aufbauend digitale Methoden zu erlernen, plädierte unter anderem Oliver Duntze für eine grundlegende Ausbildung in XML, Python/Perl in allen Geisteswissenschaften.

Nicht kontrovers war die Forderung, dass einheitliche Standards für Digital Humanities unverzichtbar seien, denn nur so könnten die an verschiedenen Orten entstehenden Daten gemeinsam weitergenutzt werden. Abschließend waren sich viele Teilnehmer einig, dass durch die Gründung eines Arbeitskreises eine bessere Vernetzung zwischen den vielfältigen Projekte und des wissenschaftlichen Austauschs erreicht werden könne. Zudem könne dieser eine wichtige Brücke zwischen Bibliotheken und wissenschaftlichen Forschungseinrichtungen sein. Gedacht ist an die Etablierung einer Arbeitsgruppe unter dem Dach des Verbandes für Digital Humanities im deutschsprachigen Raum (DHd).

Konferenzübersicht:

Begrüßung und Einführung
Ursula Rautenberg (Erlangen), Introduction to the conference „Book History and Digital Humanities“

Andrea Rapp (Darmstadt), Bibliometrie als buchhistorische Forschungsmethode

Ralf Stockmann (Berlin), Visualisierung bibliographischer Daten

Gregory J. Prickman (Iowa), The atlas of early printing

Günther Görz (Erlangen), WissKI: Semantische Annotation, Wissensverarbeitung und Wissenschaftskommunikation in einer virtuellen Forschungsumgebung

Die Vermessung großer bibliographischer Datenbestände

Jonathan Green (Grand Forks), Databases, book survival, and early printing: Questions one can’t answer, and questions one can’t ask

István Monok (Budapest), eruditio.hu: Verbundkataloge ungarischer Bibliotheken (bis 1850) und Datenbanken der Bibliothekskataloge und Verzeichnisse (1520–1800)

Christoph Boveland (Wolfenbüttel), Wer kennt wen? Hinweise zu Bekanntschaftsbeziehungen im VD 17

Dietrich Hakelberg (Wolfenbüttel), Erschließung frühneuzeitlicher Auktionskataloge und die Nutzung bibliografischer Onlinedatenbanken

Quantitative Methoden in Buchhandelsgeschichte und Lese(r)forschung

Wolfgang Undorf (Stockholm), Skandinavische Buchgeschichte des 15. und frühen 16. Jahrhunderts: Buchhandel und quantitative Kulturtransferforschung – eine Fallstudie

Cristina Dondi (Oxford), Booksellers' archival sources for an insight on contemporary sales, prices, and use: the „Zornale“ of Francesco de Madiis, Venice 1484–88

Ulrike Fuss (Leuven), The infrastructure of globalisation. The printing press of the Southern Netherlands and the creation of the Spanish colonial empire in Peru

Jenseits der Bibliographie – Datenbanken zu buchhistorischen Realien

Hans-Jörg Künast (Augsburg), Die Augsburger Buchproduktion im Spiegel des VD16

Oliver Duntze (Berlin), Druckschriften zählen – Möglichkeiten und Grenzen einer quantitativen Typenkunde


Redaktion
Veröffentlicht am
Autor(en)
Beiträger
Klassifikation
Weitere Informationen
Land Veranstaltung
Sprache(n) der Konferenz
Englisch, Deutsch
Sprache des Berichts