Datenschutz und Informationsfreiheit

: Filter Bubble. Wie wir im Internet entmündigt werden. München 2012 : Carl Hanser Verlag, ISBN 978-3-446-43034-1 287 S. € 19,90

: Einführung in das Datenschutzrecht. Datenschutz und Informationsfreiheit in europäischer Sicht. München 2012 : Oldenbourg Verlag, ISBN 978-3-486-59656-4 XIV, 465 S. € 59,80

Rezensiert für H-Soz-Kult von
Wolfgang Schmale, Institut für Geschichte, Universität Wien

Es ist ein offenes Geheimnis, dass wir alle beim Arbeiten und Surfen im Internet einen langen Kometenschweif mit Daten produzieren, die, je nach Sammel- und Auswertungsmethode, uns individuell zugeordnet werden und nicht nur ein individualisiertes elektronisches Profil, sondern geradezu eine elektronische Schattenidentität zur Verfügung stellen. Diese Identität kann einigermaßen falsch und irreführend sein, da die verwendeten Algorithmen mit bestimmten Annahmen arbeiten, die aus Sicht einer individuellen Identität ebenso richtig wie falsch sein können. Im Allgemeinen ist es mit der informationellen Selbstbestimmung bei diesen beiläufig gesammelten Daten nicht weit her. Neben den beiläufig entstehenden Daten gibt es auch jede Menge solcher Daten, die wir bewusst oder nach ausdrücklicher Aufforderung produzieren und für die zumindest teilweise konkrete gesetzliche Schutzbestimmungen, je nach Land verschieden, vorliegen. Entstehung, Verwendung, Schutz der Daten sowie Ausmaß der informationellen Selbstbestimmung werden seit den 1970er-Jahren in zahlreichen Publikationen untersucht. In den letzten Jahren sind dabei neben dem Datenschutzrecht im engeren Sinn und dessen Verletzung zum Beispiel durch sogenannte Staatstrojaner vor allem auch die Algorithmen, mit denen nicht nur die weltweit agierenden Anbieter wie Google, Facebook und Co. arbeiten, in den Fokus des Interesses gelangt. Aus einer schnell wachsenden Reihe von Veröffentlichungen werden hier zwei herausgegriffen, die sich auf zwei geographisch unterschiedliche Tatorte beziehen: Nordamerika (Eli Pariser) und Europa (Tinnefeld; Buchner; Petri). Das Buch von Pariser hat kulturgeschichtliche und kulturwissenschaftliche Einschläge und präsentiert sich zivilgesellschaftlich engagiert – gegen unsere „Entmündigung“ durch das Internet –, die „Einführung in das Datenschutzrecht“ des Autor/innenteams Tinnefeld/Buchner/Petri kombiniert die kulturgeschichtliche und kulturwissenschaftliche Sicht mit der juristischen. Beide reflektieren technische Entwicklungen kulturell. Beide Kombinationen sind ebenso ertragreich wie für die Leser/innen von Rezensionen auf H-Soz-Kult interessant.

Eli Pariser setzt sich mit der Technik der „Personalisierung“ von Suchprozessen im Internet auseinander, wie wir sie alle wahrscheinlich täglich starten. Bei der personalisierten Suche wird eine, je nach Anbieter und Firma, variable Anzahl (bis zu ein-, zweihundert) von „Signalen“ über einen Nutzer/eine Nutzerin gesammelt: Wer loggt sich wann wo mittels welchen Browsers ein, welche Suchbegriffe werden eingegeben usw. usf. Daraus werden gewissermaßen Voraussagen oder Projektionen über vermutliche Interessen der klickenden Person entwickelt, die wiederum die gezeigte Ergebnisliste beeinflussen. Wir kennen das alle: wenn zwei Personen denselben Suchbegriff eingeben, erhalten sie kaum dieselbe Ergebnisliste. Das so entstehende Userprofil, das genau genommen unsere elektronische Schattenidentität wird, wird kontinuierlich ausgebaut; die durch die Klicks entstehenden Signale, die der Algorithmus sammelt, werden vielfach innerhalb von Sekundenbruchteilen an Firmen, die mit solchen Daten ihr Geschäft machen und die oft trotz Milliardenumsätzen so diskret agieren, dass nur echte Kenner dieser Wirtschaftswelt diese benennen können, verkauft – ohne dass wir gefragt würden, ob wir das wollen, und natürlich, ohne dass wir am Umsatz beteiligt würden, obwohl wir selber das Primärmaterial liefern. Was wir bekommen, ist nicht nur personalisierte Werbung, sondern es sind personalisierte Ergebnislisten unserer Suchanfragen. Das pure Anklicken eines angebotenen Suchergebnisses wird als Statement „like it“ interpretiert, das heißt positiv bewertet, ohne dass der Algorithmus tatsächlich ‚wissen‘ kann, warum ich eine Seite aus der Ergebnisliste angeklickt habe oder warum ich einen Suchbegriff eingegeben habe.

Unterschiedliche Anbieter verwenden verschieden programmierte Algorithmen, weil sie sich für zunächst eigene Zwecke für unterschiedliche Aspekte besonders interessieren, letztlich hat sich aber das Prinzip der personalisierten Suche überall durchgesetzt. Eli Pariser führt das an vielen Beispielen, darunter natürlich an Hand der Mächtigen wie Google und Facebook, detailliert aus, er tut dies mit sehr viel technischem Sachverstand, den er in eine allgemeinverständliche Sprache einfließen lässt. Er gehört zur zivilgesellschaftlichen Opposition von MoveOn.org.1 Die Grundproblematik dieser Entwicklung definiert Pariser wie folgt: „Der Grundcode des neuen Internets ist recht simpel. Die neue Generation der Internetfilter schaut sich an, was Sie zu mögen scheinen – wie Sie im Netz aktiv waren oder welche Dinge oder Menschen Ihnen gefallen – und zieht entsprechende Rückschlüsse. Prognosemaschinen entwerfen und verfeinern pausenlos eine Theorie zu ihrer Persönlichkeit und sagen voraus, was Sie als nächstes tun und wollen. Zusammen erschaffen diese Maschinen ein ganz eigenes Informationsuniversum für jeden von uns – das, was ich die Filter Bubble nenne – und verändern so auf fundamentale Weise, wie wir an Ideen und Informationen gelangen.“ (S. 17) Erschwerend kommt hinzu, dass der User ‚allein in seiner Filter Bubble sitzt‘. Das bedeutet: „In einer Zeit, da geteilte Informationen die Voraussetzung für geteilte Erfahrungen sind, wirkt die Filterbubble als Zentrifugalkraft und treibt uns auseinander.“ (S. 17f.)

Das Problem steckt darin, dass wir bei der personalisierten Suche nicht mehr Herr oder Herrin unserer Informationsermittlung sind, sondern mindestens teilweise tatsächlich entmündigt werden. Wir haben keine Kontrolle über die Auswahl. Das ist zwar in der analogen Welt genauso, wenn man ausschließlich die Bild-Zeitung liest, oder wenn man in einer Diktatur der täglichen Propaganda ausgeliefert ist, aber gerade das Internet steht ja theoretisch für Informationsvielfalt und Pluralität. Dieses Pervertierungsphänomen wirkt sich auf das zivile Leben aus, beeinträchtigt aber auch das wissenschaftliche Arbeiten mit dem Internet, da die Algorithmen immer arbeiten. Natürlich sind wissenschaftliche Suchen im Internet meistens stark auf- und ausgefächert und ergeben nicht so ohne weiteres ein klares Profil, aber die Probe auf die Abhängigkeit einer Ergebnisliste vom individuellen User bei gleichem Suchbegriff lässt sich mit jeder studentischen Seminargruppe tagtäglich durchführen.

Die Pervertierung müsste nicht sein, denn Regeln für „Fair Information Practices“ wurden schon in den 1970er-Jahren aufgestellt, auch ist das „Online-Tracking“ kein Naturgesetz, sondern kann auch untersagt werden – von den Usern, die es untersagen wollen. Pariser belässt es also nicht nur bei Kritik, sondern endet mit sehr konkreten Handlungsoptionen. Was wir uns klar machen müssen, ist, dass der Schutz individueller Daten nicht nur unsere Kreditkarte oder unsere Sozialversicherungsnummer betrifft und nicht nur uns vor ungesetzlichem staatlichen Zugriff bewahren soll, sondern jegliche elektronisch entstehenden Daten betrifft. Der kommerziell motivierte ungeregelte Zugriff auf unsere Daten ist der gefährlichere, weil seine Organisation, wie es Pariser nachweist, direkten Einfluss auf unsere Weltsicht hat, soweit wir diese auf Informationen aus dem Internet gründen.

Die „Einführung in das Datenschutzrecht“ von Tinnefeld/Buchner/Petri, drei sehr bekannte Datenschutzexpert/innen, setzt sich mit der Entwicklung der Informations- und Kommunikationstechnologie (IKT) im umfassendsten Wortsinn auseinander – es geht also nicht nur um das Web oder Internet im engeren Wortsinn, sondern um sämtliche, mittlerweile zumeist ins Internet eingebettete, Technologien, die Informationen über uns produzieren, sammeln und – wem auch immer – zur Verfügung stellen. Das schließt jede Art von Chip, Apps, smart-Geräten, GPS etc. ein. Der Grundsatz „zu wissen, wer was wann wo und bei welcher Gelegenheit über [mich] weiß“ (S. 5), lässt sich kaum mehr beachten, zu unkontrollierbar ist das Netz der IKT geworden. Die damit für den Einzelnen verbundenen Unsicherheiten und Verunsicherungen sind enorm und stellen daher keine trockene juristische Frage dar, sondern betreffen die Lebensbedingungen und -umstände des Individuums. Wenn die von Pariser analysierte personalisierte Suche in letzter Konsequenz meine Sicht auf die Welt wie ein geschickter Propagandist lenkt und mir die diesbezügliche Selbstbestimmung nimmt, zwingt mich die IKT zu einem andauernden Drahtseilakt, wo ich jederzeit abstürzen kann. Mein Leben spielt sich informationstechnisch nur noch auf dem Seil ab. Das Autor/innenteam sieht einen Konflikt zwischen der Unkontrollierbarkeit durch den Einzelnen der verbreitbaren und/oder verbreiteten Informationen über den konkreten Einzelnen, und der demokratisch-freiheitlichen Grundordnung. Diese garantiert nun auch die Freiheit der Wissenschaft, und deshalb muss uns als Wissenschaftler/innen die Frage des Datenschutzes und der informationellen Selbstbestimmung geradezu zentral interessieren – nicht nur in Bezug auf den Schutz laufender Forschungen und der Respektierung von Urheberrechten, sondern in einer allgemeinen und daher grundsätzlichen Weise. „Information ist Grundlage der interaktiven Freiheit aller Menschen und zugleich unentbehrlich für die Funktionserfüllung des Staates.“ (S. 11)

Ein Grundproblem, mit dem sich die Autor/innen auseinandersetzen, ist die Frage der Vertraulichkeit und des vertraulichen Informationsaustausches im Sinne einer lebensweltlichen Notwendigkeit. Es handelt sich um ein kulturanthropologisches Grundsatzproblem: Wie viel Vertraulichkeit braucht der Mensch, er kann nicht nur gläsern sein, sondern braucht auch informationelle Schutzräume. Das Verborgene, das Geheimnis ist zuerst einmal weniger eine Frage von Verbrechen und Betrug, sondern ein Erkenntnisobjekt der Kulturanthropologie. Gesetzgebung und Rechtsprechung, insbesondere, im Fall der Bundesrepublik Deutschland, des Bundesverfassungsgerichts, stellen die Frage nach der informationellen Selbstbestimmung in diesen fundamentalen Zusammenhang.

In Kapitel 7.5 des ersten Teils wird Informationsfreiheit in der Forschung behandelt. Diese Freiheit hat Grundrechtscharakter und gehört zu den Grundlagen des demokratischen Rechtsstaats, gleichwohl ist sie an den gesetzlichen Datenschutz gebunden. Wichtig ist jedoch die Gewährleistung des freien Informationszugangs, wobei (S. 161) beispielsweise die Zeitgeschichtsforschung exemplarisch genannt wird. Blickt man auf die sortierende und auswählende Arbeitsweise der von Pariser untersuchten Personalisierungsalgorithmen, muss man zu dem Schluss kommen, dass deren Arbeitsweise das Recht der Informationsfreiheit verletzt und streng genommen grundrechtswidrig ist, mindestens in Bezug auf die Informationsfreiheit der Wissenschaft.

Diese „Einführung in das Datenschutzrecht“ ist auch für Laien verständlich geschrieben, Zitate, Beispiele und Schaubilder lockern die juristischen Erörterungen, die es natürlich gibt, auf. Es eignet sich sehr gut als Nachschlagewerk für viele Fragen, die man als Wissenschaftler/in zum Datenschutz haben kann bzw. haben sollte: Wir alle haben als Forscher/innen und/oder Funktionsträger/innen in der Wissenschaft und ihren Institutionen Umgang mit personenbezogenen Daten, mit unterschiedlichen IK-Technologien, mit der Erstellung, Sammlung und Verwertung von Daten, die allesamt nicht nur uns persönlich, sondern Dritte betreffen.

Eine gut ausgebaute individuelle Kompetenz in Bezug auf alle Aspekte der informationellen Selbstbestimmung dürfte im Moment der beste Datenschutz sein. Beide Bücher dienen dem individuellen Kompetenzaufbau – was durch die Ausstattung beider Titel jeweils mit einem Register sehr gefördert wird!

Anmerkung:
1 <http://front.moveon.org/> (03.12.2012).

Redaktion
Veröffentlicht am
Redaktionell betreut durch
Klassifikation
Epoche(n)
Mehr zum Buch
Inhalte und Rezensionen
Weitere Informationen
Filter Bubble
Sprache der Publikation
Einführung in das Datenschutzrecht
Sprache der Publikation
Sprache der Rezension