Big Data ist ein mächtiges Werkzeug, um die Wirklichkeit, in der wir leben, zu verstehen. Jene, die dieses Werkzeug effektiv einsetzen, ziehen daraus nachhaltige Vorteile. Dies bedeutet freilich auch Umverteilungen nicht nur informationeller Macht in unserer Gesellschaft – womit wir bei den Schattenseiten von Big Data angekommen sind.
Seit den Enthüllungen von Edward Snowden über die Machenschaften der NSA wurde viel über die Gefahren von Big Data geschrieben. Dabei wird in der Regel als erstes die umfassende Überwachung und Datensammlung genannt. Aber das Bedrohungsszenario geht über die NSA hinaus.
Wenn uns die Vergangenheit immer wieder einholt
Wenn einfache Verfügbarkeit und günstiges Speichern zum grenzenlosen Datensammeln anregen, dann besteht damit vor allem die Gefahr, dass uns die eigene Vergangenheit immer wieder aufs Neue einholt. Zum einen bemächtigt dies jene, die mehr über unser vergangenes Handeln wissen, als wir vielleicht selbst erinnern können.
Würde uns dann regelmäßig vorgehalten, was wir in früheren Jahren gesagt oder getan haben, könnten wir versucht sein, uns selbst zu zensieren, in der Hoffnung, damit in Zukunft nicht Gefahr zu laufen, mit einer dann unangenehmen Vergangenheit konfrontiert zu werden. Schülerinnen und Studenten, Gewerkschafter und Aktivistinnen könnten sich so veranlasst sehen, zu schweigen, weil sie fürchten müssten, in Zukunft für ihr Handeln bestraft oder jedenfalls schlechter behandelt zu werden.
Das Festhalten an Vergangenem verhindert auch, so meinen Psychologen, dass wir in der Gegenwart leben und handeln. So wird in der Literatur der Fall einer Frau beschrieben, die nicht vergessen kann, und deren Erinnerung an jeden Tag der zurückliegenden Jahrzehnte sie in ihren Entscheidungen in der Gegenwart blockiert.
Wird „Minority Report“ wahr?
Im Kontext von Big Data lassen sich auch aus Analysen vergangenen oder gegenwärtigen Verhaltens Prognosen für die Zukunft erstellen. Das kann für die gesellschaftliche Planung durchaus von positiver Bedeutung sein, etwa wenn es darum geht, zukünftige Ströme des öffentlichen Verkehrs vorherzusagen. Es wird aber höchst problematisch, wenn wir beginnen, Menschen schon lediglich aufgrund eines durch eine Big-Data-Vorhersage prognostizierten zukünftigen Verhaltens zur Verantwortung zu ziehen.
Das wäre dann so wie im Hollywood-Film „Minority Report“ und würde unsere bisherigen Vorstellungen von Gerechtigkeit infrage stellen. Mehr noch: Wenn Strafe nicht mehr mit tatsächlichem, sondern schon mit bloß vorhergesagtem Verhalten verknüpft wird, dann ist das im Kern auch das Ende des gesellschaftlichen Respekts gegenüber dem freien Willen.
Algorithmen als Richter
Dieses Schreckensszenario ist noch keine Realität, aber zahlreiche Versuche in aller Welt zeigen schon in diese Richtung. So wird etwa in dreißig US-Bundesstaaten für die Entscheidung, ob jemand auf Bewährung freikommt oder nicht, eine Big-Data-Vorhersage herangezogen, die prognostizieren soll, wie wahrscheinlich die Person künftig in einen Mord verwickelt sein wird.
Und in vielen Städten der westlichen Welt wird die Entscheidung, welche Polizeistreife wann und wo patrouilliert, von einer Big-Data-Vorhersage des wahrscheinlich nächsten Verbrechens abhängig gemacht. Letzteres ist keine unmittelbare individuelle Strafe, aber für die Betroffenen in verbrechensstarken Straßen kann es durchaus so empfunden werden, wenn jeden Abend die Polizei an die Tür klopft, selbst wenn nur freundlich nachgefragt wird, ob alles in Ordnung ist.
Was wäre, wenn die Big-Data-Analyse vorhersagen könnte, ob jemand ein guter Autofahrer wird, noch bevor dieser jemand die Führerscheinprüfung ablegt hat? Würden wir dann prognostiziert schlechten Fahrern den Führerschein versagen, auch wenn sie die Prüfung bestehen? Und würden Versicherungen diesen Personen bei vorhergesagt erhöhtem Risiko immer noch eine Police anbieten? Zu welchen Konditionen?
Viktor Mayer-Schönberger für bpb.de, CC-by-nc-nd 3.0
Stand: 22.06.2018