Cover
Titel
Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie


Herausgeber
Reichert, Ramón
Reihe
Digitale Gesellschaft 3
Anzahl Seiten
494 S.
Preis
€ 29,99
Rezensiert für H-Soz-Kult von
Evelyn Runge, Institut für Medien, Theater und Populäre Kultur, Universität Hildesheim

Purpurne Ströme umwabern die Welt, hauptsächlich zwischen Nordamerika, Europa, Teilen des Nahen und Mittleren Ostens bis nach Australien. Es sind Informationen, Worte und Reaktionen auf diese Worte, die über den Mikroblogging-Dienst Twitter laufen. Der Programmierer und Daten-Künstler Eric Fischer hat sie in seiner Arbeit „Data visualisation of Twitter activity“ aus dem Jahr 2012 abgebildet. Auf den jeweiligen Kontinenten leuchten Knotenpunkte, an denen die Twitter-User offenbar aktiver sind als an anderen Orten. Bezeichnenderweise sind dies Großstädte wie New York City, Rio de Janeiro, Johannesburg, Melbourne, Tokiyo, Moskau und London, und eben keine abgelegenen Dörfer.1

Fischers Karte ziert den Titel des Sammelbandes „Big Data. Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie“, den der Medienwissenschaftler Ramón Reichert herausgegeben hat. Reichert war von 2009 bis 2013 Professor für Neue Medien am Institut für Theater-, Film- und Medienwissenschaft der Universität Wien. Seit 2014 leitet er den postgradualen Masterstudiengang „Data Studies“ und „Cross Media“ an der Donau-Uni Krems in Österreich. Auf der Webseite – ebenfalls verziert mit Fischers Twitter-Bild – sind einige der Wissenschaftler, die zum vorliegenden Sammelband beigetragen haben, als Lehrkräfte der Fakultät aufgeführt: Lev Manovich, Axel Bruns, Jean Burgess, Katrin Weller, Theo Röhle und andere.2 Der Studiengang ist am Department für Bildwissenschaften und Medienkunst angesiedelt; Leiter Oliver Grau hat seit 2005 den ersten Lehrstuhl für Bildwissenschaften im deutschen Sprachraum inne und engagiert sich für die digitale Archivierung gegenwärtiger Medienkunst.3

„Big Data“ sei nicht nur ein derzeit populäres Schlagwort, das „oft als Sammelbegriff für digitale Technologie verwendet“ werde, sondern solle auch als „Machtgeschichte der möglichen Herstellung sozialprognostischen Wissens“ gelesen werden (S. 9). Herausgeber Reichert setzt sich zum Ziel, mit dem Sammelband „einen Reflexionsraum zur differenzierten Auseinandersetzung mit dem datenbasierten Medienumbruch der Gegenwart zu schaffen“ (S. 9). Aus Eric Fischers Titelillustration sind bereits die Kernthesen herauszulesen, mit denen sich viele der Autoren des Bandes beschäftigen und die somit als fachübergreifend interessant bezeichnet werden können.

Übersichtlich in fünf Kapitel gegliedert, befassen sich die Autoren mit Themen wie „Big Digital Humanities“, „Geschichte und Theorie der Daten“, „Digitale Methoden“, „Dataveillance: Algorithmen, Graphen und Protokolle“ sowie „Digitale Technologien und soziale Ordnungsvorstellungen“. Zu den Hauptpunkten, die in den 22 Artikeln fast schon redundant erwähnt werden, gehört die Sorge eines zunehmenden digital gap in vielerlei Hinsicht: als Kluft zwischen jenen, die reich an Informationen sind und jenen, die arm daran sind; als Machtgefälle über die Verfügbarkeit von Daten und die Kontrolle ihrer Zugänglichkeit, das sich zwischen Staaten und kommerziellen Konzernen auftut; die Reflexion nutzerseitiger Prozesse, im Idealfall nicht nur durch Forscher und Datensammler, sondern durch die Nutzer selbst in ihrer Medienpraxis.

Daraus ergeben sich viele Fragen für die gegenwärtige und künftige Forschung: Eignen sich alle Daten für die wissenschaftliche Forschung? Wie repräsentativ sind sie beziehungsweise die Nutzer, die diese Daten überhaupt erst generieren – und dies mehr oder weniger bewusst? Wie können unterschiedliche Disziplinen zusammenarbeiten und voneinander profitieren statt auf Fachgrenzen zu beharren? Und wie kann dies finanziert werden, zum Beispiel im Falle einer etablierten Zusammenarbeit von Geisteswissenschaftlern und Informatikern, ohne von Forschungsstipendien abhängig zu sein? In den Worten von Lev Manovich, Professor für Kunst und Theorie der Neuen Medien: „Wir möchten, dass Geisteswissenschaftler in der Lage sind, in ihrer täglichen Arbeit Datenanalysen und Visualisierungssoftware zu nutzen, damit sie in ihrer Arbeit quantitative und qualitative Methoden kombinieren können. Wie es einmal dazu kommt, ist eine der Schlüsselfragen für ‚digitale Geisteswissenschaften‘.“(S. 81)

Bislang behelfen sich Wissenschaftler beispielsweise über Application Programming Interfaces (API), um Kommunikations- und Nutzungsdaten von Twitter abzurufen. Das Kapitel „Digitale Methoden“ ist fast ausschließlich Twitter gewidmet; die Autoren reflektieren aus ihrer jeweiligen Forschungsperspektive die Vor- und Nachteile API-gestützten Data Minings. Jean Burgess und Axel Bruns sehen die Entwicklung einer „Code Literacy“ als eine der größten Herausforderungen für die Medien- und Kommunikationswissenschaft, auch weil „Code und Software zunehmend selbst zu Objekten, nicht nur Werkzeugen“ für die Wissenschaft werden könnten (S. 200). Carolin Gerlitz und Bernhard Rieder betonen, dass die Daten sozialer Medien sowieso existieren und nicht speziell für Forschungsabsichten generiert werden. Die Auswahl der Daten beziehe sich zudem selten auf volle Datensätze. Sie empfehlen detaillierte Spezifizierungen und damit die Ermittlung der Bedeutung von Hashtags, URLs und Nutzernennungen sowie deren Nähe zueinander (S. 217). Den Zusammenhang zwischen „Twitter und Wahlen“ hat Karin Weller untersucht: In ihrem gleichnamigen Aufsatz beschreibt sie ihre bibliometrische Analyse wahlbezogener Twitter-Studien. Die Zahl dieser Studien hat seit 2007 zugenommen, die Designs sind differenzierter: „Big Data Ansätze mit mehreren Millionen bis hin zu Milliarden Tweets spielen dabei genauso eine Rolle wie stark fokussierte Detailstudien mit wenigen ausgewählten Daten“ (S. 255).

Aufschlussreich und lesenswert ist Annika Richterichs Aufsatz „Infodemiologie – von ‚Supply‘ zu ‚Demand‘“, die sich mit den Google-Flu-Trends beschäftigt und prägnant Kritik an der Datensammlung von Großkonzernen formuliert: Google Flu Trends – eine Anwendung, die seit 2008 Influenzawahrscheinlichkeiten und regionale Intensitäten über Volumina von Suchbegriffen berechnet – sei als „Element eines Produktportfolios zusehen, das zwar inhaltlich auf Gesundheitskommunikation fokussiert ist und dennoch Bestandteil einer kommerziellen Unternehmensstrategie bleibt“ (S. 354). Der Hinweis auf das Gemeinwohl dieses Produkts ist nach Richterich vor allem „der Legitimation von Googles groß angelegten Archivierungs- und Auswertungsprogrammen transaktionaler Daten“ geschuldet (S. 355). Die Reflexivität von Suchanfragen spiele dabei eine wichtige Rolle: Denn es bleibe unklar, warum Nutzer beispielsweise nach Krankheiten suchen – die Anfragen müssen nicht durch Diagnosen bei sich selbst oder im Umfeld motiviert sein: „Auch der mediale Diskurs, d.h. Zeitungen, Fernsehen, Onlinequellen und die Berichterstattung zu Epidemien selbst in geografisch entfernten Regionen, kann das Suchverhalten beeinflussen“ (S. 352).

Der Band ist insgesamt empfehlenswert. Die Texte bieten eine Vielfalt, mit der sowohl Einsteiger in das Thema als auch Fortgeschrittene befriedigt werden können. Die Autoren verdeutlichen die Herausforderungen an die Wissenschaft, die sich durch die Beschäftigung mit Big Data ergeben: Methoden, Datenerhebung beziehungsweise vielmehr Nutzung bereits vorhandener Daten, Repräsentativität, und die Notwendigkeit, neue Forschungsdesigns zu entwickeln. Hervorzuheben sind auch die meist umfangreichen Bibliografien zu den einzelnen Texten, die zum Weiterlesen anregen. Etwas kurz kommt die Visualisierung von Big Data im Rahmen dieses Sammelbandes, ebenso Hinweise auf datenjournalistische Projekte, wie sie etwa ZEIT ONLINE praktiziert.4 In Projekten dieser Art verschwimmen Grenzen zwischen Behörden, Bürgern und kommerziellen Unternehmen. Auch wurden beispielsweise nach dem Attentat auf den Boston Marathon am 15. April 2013 von Bürgern mehr als zehn Terabyte (visueller) Daten bei den Behörden eingereicht, anhand derer die Suche nach den Tätern erleichtert wurde.5 Entwicklungen dieser Art bieten Material für weitere Untersuchungen über die Auswirkung des digitalen Wandels auf Machtverhältnisse und Schnittstellen unterschiedlicher gesellschaftlicher Akteure. Big Data zieht das Interesse vieler Forscher aus unterschiedlichen Fachgebieten an, die alle ihre eigenen Spezifika haben – und genau deshalb voneinander lernen und profitieren können. Der Sammelband kann als implizites Plädoyer für den Nutzen interdisziplinärer Forschung gelesen werden.

Anmerkungen:
1 Tuesday TuneUp #10 – Data visualisation of Twitter activity by Eric Fischer <http://wearesocial.sg/blog/2012/01/social-asia-tuesday-tuneup-10/tuesday-tuneup-10-data-visualisation-of-twitter-activity-by-eric-fischer/> (18.02.2015) ; siehe auch Fischers Flickr-Album „Correlations with tweet density“., <https://www.flickr.com/photos/walkingsf/sets/72157631997342296/> (18.02.2015).
2 <http://www.donau-uni.ac.at/de/studium/data-studies/20798/index.php> (18.02.2015).
3 Vgl. Oliver Grau, Gegenwartskultur vom Verlust bedroht, in: Junge Akademie Magazin 14 (2012), S. 18, 19; <http://www.diejungeakademie.de/fileadmin/user_upload/Dokumente/Publikationen_Magazin/JA_Magazin_No14_2.9MB.pdf> (18.02.2015).
4 Vgl. Datenjournalismus und Infografik: Projekte von Zeit Online. <http://www.zeit.de/datenjournalismus> (18.02.2015).
5 Vgl. u.a. Spencer Ackerman, This is the Modern Manhunt: The FBI, the Hive Mind and the Boston Bombers, in: Wired, 19.4.2013, <http://www.wired.com/2013/04/boston-data-manhunt/> (18.02.2015).

Redaktion
Veröffentlicht am
Autor(en)
Beiträger
Redaktionell betreut durch
Klassifikation
Mehr zum Buch
Inhalte und Rezensionen
Verfügbarkeit
Weitere Informationen
Sprache der Publikation
Sprache der Rezension