Cover
Titel
Das digitale Archiv. Aufbau und Auswertung am Beispiel der Geschichte des Konzentrationslagers Auschwitz


Autor(en)
Grotum, Thomas
Erschienen
Frankfurt am Main 2004: Campus Verlag
Anzahl Seiten
381 S.
Preis
€ 39,90
Rezensiert für H-Soz-Kult von
Karin Orth, Historisches Seminar, Albert-Ludwigs-Universität Freiburg

Thomas Grotums Darmstädter Dissertation beschreibt die Erstellung und Auswertungsmöglichkeiten einer Datenbank, die „alle vorhandenen Quellen über die ehemaligen Auschwitz-Häftlinge“ umfassen soll (S. 10). Drei Arbeitsgruppen beschäftigten sich von 1990 bis 1996 mit diesem Vorhaben: die Projektgruppe Historische Fachinformatik am Max-Planck-Institut für Geschichte in Göttingen, die Computerabteilung des Archivs im Staatlichen Museum Auschwitz-Birkenau und die am Institut für Geschichte der Technischen Universität Darmstadt angesiedelte Projektgruppe „Archiv Auschwitz-Birkenau“. Vier Ziele wurden angestrebt: Man wollte mit der Datenbank erstens ein Denkmal für die Opfer errichten, zweitens eine Grundlage für weitere quellengestützte Forschungsarbeiten schaffen, drittens die Archivalien durch Digitalisieren dauerhaft konservieren (S. 10) und viertens eine Vernetzung mit ähnlichen Projekten in anderen KZ-Gedenkstäten bzw. Archiven erreichen, um so letztendlich ein „‚digitales Archiv’ zur Geschichte der NS-Konzentrationslager“ zu etablieren (S. 15). Im Mittelpunkt der hier zu besprechenden Studie steht die Entwicklung eines (Daten-)Modells für ein derartiges Archiv am Beispiel der Häftlingsakten von Auschwitz (S. 15).

In fünf Schritten wird das entfaltet: Zunächst gibt Grotum einen Überblick zur Entwicklung der fachspezifischen historischen Datenverarbeitung und beschreibt dann das Vorhaben „Sicherung und Erschließung der Quellen im Archiv des Staatlichen Museums Auschwitz-Birkenau“. In den beiden folgenden Kapiteln erläutert er den Aufbau des „digitalen Archivs“ und potenzielle Anwendungsfelder, während im letzten Abschnitt an ausgewählten Fallbeispielen gezeigt wird, welche neuen Erkenntnisse durch diese Herangehensweise gewonnen werden können. Das Buch schließt mit einem Ausblick, den obligatorischen Verzeichnissen sowie einem knappen, Statistiken und Tabellen umfassenden Anhang.

Die EDV verzeichnete in den letzten Jahrzehnten einen rasanten Fortschritt, von dem auch die Kulturwissenschaften profitierten – man denke nur an die Textverarbeitung. Die vorliegenden gängigen Datenbankprogramme genügen jedoch meist nicht den Anforderungen an eine kultur- und geschichtswissenschaftliche Informationsverarbeitung, da sie primär auf die Verarbeitung von massenhaft gleichförmigen Daten zielen. Daher entwickelte das Max-Planck-Institut für Geschichte das Datenbankprogramm „kleio“, das den Anspruch erhebt, historische Massenquellen – die in ihrer Struktur meist unregelmäßig, mehrdimensional, unscharf und kontextsensitiv sind – adäquat abbilden und verarbeiten zu können. Dies gelingt vor allem dadurch, dass eine Trennung zwischen Quelle und Interpretation vorgenommen wird. Nicht zuletzt können auch die Dokumente selbst in Form von digitalen Reproduktionen als zusätzliche, visuelle Information integriert werden. Kleio schien daher besonders geeignet, die Archivbestände des Staatlichen Museums Auschwitz-Birkenau zu erfassen. Das ehrgeizige Unterfangen – handelt es sich doch um rund 250 laufende Meter Akten unterschiedlichster Provenienz und etwa 430.000 Mikrofilmaufnahmen (S. 86f.) – scheiterte jedoch. Bis zum Sommer 1996 konnten zwar über 20 Teilbestände1 in ihrer jeweiligen Spezifik erfasst und mehr oder weniger vollständig Korrektur gelesen werden. Dann jedoch brachen die beteiligten deutschen Gruppen die Kooperation mit dem Staatlichen Museum Auschwitz-Birkenau aufgrund der dort auftauchenden personellen Querelen ab. Die Datenerfassung kam zum Erliegen (S. 109).

In der Folgezeit unternahm die deutsche Seite gleichwohl den Versuch, ein digitales Archiv aufzubauen. Das Herzstück dieses Archivs bilden die erfassten Teilbestände2, die zusammen rund 220.000 Dokumente mit etwa 5,66 Millionen Einzelinformationen zu über 350.000 KZ-Häftlingen umfassen (S. 124) – eine immense Datenmenge, doch gleichwohl nur ein Bruchteil dessen, was eigentlich hätte zusammengetragen werden sollen. Es galt nun, die erfassten Teilbestände in eine homogene Datenstruktur zu überführen, die Daten langfristig zu sichern und vor Fälschung zu sichern, umfangreiche elektronische Erschließungs-, Abfrage-, Recherche- und Auswertungswerkzeuge zu entwickeln sowie die Voraussetzungen für andere Ausgabeformen zu schaffen. So können beispielsweise alle verfügbaren Informationen zu einzelnen Personen abgerufen, Gedenkbücher generiert und Texteditionen oder multimediale Lerneinheiten erstellt werden.

Neben diesen gängigen Anwendungen zeigt Grotum im letzten Abschnitt des Buches am Beispiel zweier Teilbestände („Sterbebücher“, „Stärkebuch“) zudem, dass und wie die dort vorhandenen Informationen sozialgeschichtlich ausgewertet und in den Kontext einer Lagergeschichte gestellt werden können. Mit Hilfe der EDV lässt sich erstmals eine fundierte, wenn auch quellenbedingt fragmentarische Aussage über die sozialstrukturelle Zusammensetzung bestimmter Opfergruppen treffen. Nur zwei Beispiele seien herausgegriffen: In den „Sterbebüchern“ ist der Tod von rund 15.000 Frauen und knapp 54.000 Männern verzeichnet. 40 Prozent der Männer und mehr als die Hälfte der Frauen waren ledig. Der Anteil der verheirateten Männer sank zwar von 1941 bis 1943, lag aber immer über 50 Prozent. Bei den Frauen blieb der Anteil der Ledigen gleich, die Zahl der Witwen stieg 1943 kriegsbedingt an (S. 253f.). Auch die Altersstruktur der in den Sterbebüchern verzeichneten Opfer veränderte sich: Bei den Männern wurden 1941 zu drei Vierteln Personen zwischen 20 und 45 Jahren als verstorben registriert, 1942 nahm dann der Anteil der verstorbenen 15- bis 19-jährigen sowie der über 45-jährigen Männer 1942 deutlich zu (S. 255ff.). Der Grund hierfür ist in der Verschärfung der Verfolgungsmaßnahmen zu sehen: Mit den Transporten des Reichssicherheitshauptamts wurden verstärkt sowohl jüngere als auch ältere Menschen nach Auschwitz verschleppt.

In diesem letzten, 100 Seiten starken Kapitel kommt Grotum endlich zu historisch relevanten Inhalten. Für den geschichtswissenschaftlich Interessierten wird das Buch erst nach über 200 Seiten informativ und lesbar. Denn bis dorthin schildert Grotum nahezu ausschließlich (informations-)technische Verfahren und Abläufe. Ausführlich und bis ins kleinste Detail erfährt man vieles über Metacodes, Konvertierungsprogramme, Abfrageroutinen, Befehlsfolgen, Satzsysteme und Steuerzeichen. Jedoch: Will man das wissen? Muss man wirklich wissen, dass die zur Datenerfassung eingesetzte UNIX-Workstation erst 1, dann 2 GB Speicherkapazität und ein „magneto-optisches (MO) Laufwerk“ hatte und dass „7 asynchrone ASCII-Terminals mit VT 220-Emulation“ angeschafft wurden (S. 90-95)? Ist es für einen größeren Leserkreis interessant zu erfahren, welche Probleme bei der Datenerfassung auftraten und wie man polnische oder skandinavische Sonderzeichen kodiert (S. 124-133)? Welcher Historiker versteht die mit Steuerzeichen versehenen Rohdatensätze („h$sex=m/h-art=Holl.Jude/h-nr=48177# sic!, numer obozowy 48177 wyst\e{}puje w tomie II St\“arkebuch [...]“, S. 128), die seitenlang wiedergegeben werden? Welcher Historiker kann etwas mit den Erläuterungen zum Konvertierungsprogramm StanFEP anfangen („Ein Token kann aber auch Untertoken besitzen. Dann zerfällt er in einen Primary Body und so genannte Remainder“, S. 197)?

Grotum weiß um die Problematik einer „digitalisierten Geschichte“. Das Individuum soll nicht (erneut) hinter Zahlen und Codes verschwinden. Und tatsächlich bietet das beschriebene „digitale Archiv“ vielfältige, zuvor nicht realisierbare Chancen, sich mit dem Geschehen auseinanderzusetzen und die Opfer der Anonymität zu entreißen – sei es durch öffentlich zugängliches, digitalisiertes Bildmaterial, sei es durch Gedenkbücher, sei es durch fachhistorische Analysen zur Sozialstruktur der Häftlingsgruppen. Die hier vorgestellte Studie beschreitet diesen Weg jedoch nur partiell, da sie primär das Instrument selbst – das digitale Archiv – vorstellt. Grotum bemerkt einleitend, dass sein Buch (das er der Geschichtswissenschaft zuordnet) eine Schnittstelle zur Informatik aufweise (S. 16). Doch allein die Gewichtung zeigt, wo es wirklich steht: 200 von 300 Seiten entfallen auf technisch-methodische Beschreibungen und Problemanalysen, und nur 100 Seiten präsentieren Ergebnisse, die für die Geschichtswissenschaft und historisch Interessierte relevant sind. Für die meisten Historiker wird das Buch daher wohl eines mit den berühmten sieben Siegeln bleiben; für Informatiker ist es möglicherweise zu einfach gestrickt. Für diejenigen hingegen, die sich selbst an der Schnittstelle zwischen beiden Disziplinen bewegen, ist es hochinteressant. Sie werden Grotums Buch mit großem Gewinn lesen.

Anmerkungen:
1 Auf S. 96 spricht Grotum von 21, auf S. 122 von 24 erfassten Teilbeständen.
2 Genau genommen wurden nur 16 Teilbestände in das digitale Archiv überführt (S. 122).

Redaktion
Veröffentlicht am
Autor(en)
Beiträger
Redaktionell betreut durch
Klassifikation
Epoche(n)
Region(en)
Mehr zum Buch
Inhalte und Rezensionen
Verfügbarkeit
Weitere Informationen
Sprache der Publikation
Sprache der Rezension