Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.
Verbrechen voraussagen zu können klingt wie der Traum jedes Polizisten. In der Tat werden datenbasierte Algorithmen und Überwachungssysteme vermehrt dazu eingesetzt. Doch „Predictive Policing“ ist nicht immer effektiv – und wirft ethische Fragen auf.
Es klirren Fensterscheiben, ein SWAT-Team kracht durch die Glasdecke auf ein Bett, in dem Mann und Frau nebeneinander liegen. Zum gleichen Zeitpunkt rast ihr Vorgesetzter, Captain John Anderton, durch die Schlafzimmertür – und legt dem Mann Handschellen an. Er wird wegen eines doppelten Mordes festgenommen, der jedoch noch nicht stattgefunden hat.
Denn im Film „Minority Report“ werden Verbrechen geahndet, die erst in der Zukunft passieren. Es ist eine dieser Zukunftsvorstellungen, die je nach Betrachter als Utopie oder Dystopie bewertet werden kann. Denn dass ein Doppelmord nicht geschieht, weil die Strafverfolgungsbehörden ihn im Vorhinein erkennen können, ist eine positive Entwicklung. Doch die Überwachung von Menschen, die nicht nur in der Gegenwart, sondern sogar in der Zukunft gläsern geworden sind, löst nicht nur bei Datenschützern Gänsehaut aus.
Ideengeber für den Film war übrigens die gleichnamige Kurzgeschichte des Romanautors Philip K. Dick, die bereits im Jahre 1956 verfasst wurde. Auch eine amerikanische TV-Show wurde produziert.
Die Kernfrage, die sich hier stellt: Wie hoch ist die Wahrscheinlichkeit, dass eine Technologie, die Verbrechen im Voraus erkennt, in Zeiten von Big Data und predictive Analytics Realität wird? Wenn man diversen Blog- und Zeitungsartikeln Glauben schenken darf, groß: Hier, hier und hier wird beschrieben, wie Minority Report-ähnliche Zustände bereits in unserer Gesellschaft angekommen sind – oder bald ankommen könnten.
Zudem greift eine neue Dokumentation namens „Pre-Crime“ das Thema „Predictive Policing” auf und zeigt, wie Polizeibehörden auf Daten und Algorithmen setzen, um Verbrechenswahrscheinlichkeiten vorauszusagen.
Dabei werden Informationen wie Kameraaufnahmen von öffentlichen Plätzen sowie persönliche Informationen (Wohnort, Alter, Ausbildung, Geschlecht) genutzt, um zu definieren, an welchen Orten illegale Handlungen höchstwahrscheinlich stattfinden werden. Zudem wird prognostiziert, von welchen Personen diese Taten begangen werden könnten.
Die Polizeibehörde in Chicago erstellte 2013 beispielsweise eine „Heat List“ mit Namen von Personen, die mit der größten Wahrscheinlichkeit in eine Schiesserei verwickelt werden könnten. Die Liste wurde jedoch nicht von Menschen, sondern von einem Algorithmus entworfen. Dabei wurden nicht nur vergangene Verhaftungen beachtet, sondern auch soziale Verbindungen zu Personen, die bereits in Schiessereien verwickelt waren. Die Polizei stattete den auf der Liste vertretenen Personen gemeinsam mit Sozialarbeitern Besuche ab, um sie von potenziellen Verbrechen abzuhalten.
Was übergriffig wirken mag ist wohl als Akt der Verzweiflung zu verstehen. Denn Chicago hat hat eine der höchsten Mordraten der USA. Gemessen an der Bevölkerung zwar – wie in Medien oft behauptet – bei weitem nicht die höchste des Landes, doch mit 475 Mordfällen im Jahr 2015 und 785 im Jahr 2016 ist die Stadt kein sicheres Pflaster. Doch das Experiment zeigte keine Wirkung. Die durch eine zwei Millionen US-$ schwere Förderung entstandene Heat List verhinderte keine Verbrechen, wie eine Studie des Thinktanks RAND Corporation zeigt. Vielmehr wurde sie demnach für zusätzliches „Profiling“ benutzt.
Neben Listen werden auch Überwachungstechniken ausgebaut. Die Stadt San Francisco installierte etwa Kameras in U-Bahn-Stationen, um Verbrecher das Handwerk zu legen. Die Kameras sollen feststellen, ob sich jemand „abnormal“ verhält, also eine gesperrte Zone betritt, Gepäck in einer mit Menschen befüllten Region abstellt oder sich verdächtig bewegt. Falls das der Fall ist, wird das Wachpersonal umgehend alarmiert. Was auch im Kampf gegen schwerwiegendere Verbrechen zum Einsatz kommen könnte, wird vorerst verwendet, um Fahrraddieben das Handwerk zu legen.
Das Department of Homeland Security (DHS) entwickelt zudem ein Überwachungsprogramm namens „FAST“ (Future Attribute Screening Technology), das ähnlich einem Lügendetektor anhand von erhöhtem Herzschlag, Körpertemperatur und Schwitzverhalten erkennen will, ob jemand böse Absichten hat. Laut DHS erreichte das System in ersten Tests eine Genauigkeit von bis zu 80 Prozent.
Wenn diese Technologien greifen, ist das für die Gesellschaft natürlich ein großer Vorteil. In Virginia nutzte die Polizei während einer Serie an Schiessereien Predictive Analytics, um die Wahrscheinlichkeit des Ortes des nächsten Vorfalls vorauszusagen. Sie nahm einen Verdächtigen am Friedhof in Arlington fest, der einen Rucksack voller Materialien hatte, um eine Bombe zu bauen. Der „Täter“ Yonathan Melaku gestand und wurde zu 25 Jahren Haft verurteilt.
Was, wenn der Computer falsche Voraussagen macht?
Doch die Dokumentation „Pre-Crime“ wirft einige entscheidende Fragen auf: Was, wenn der Computer falsche Voraussagen macht? Eine fehlende Transparenz von Algorithmen bringt auch fehlende Durchsichtigkeit polizeilicher Maßnahmen mit sich. Wie wird man von einer „Heat List“ gestrichen, wenn man von einem Algorithmus als verdächtig definiert wurde?
Einen weiteren Kritikpunkt werfen die Brüsseler Rechtsprofessoren Rosamunde van Brakel und Paul de Hert in einem Paper auf: Jeder Bürger, der gewisse Informationen nicht an zentrale Stellen wie Regierungen abgeben möchte, wird in einer solchen Welt verdächtigt. Die Unschuldsvermutung, ein Grundpfeiler westlicher Rechtssysteme, wird damit zu Grabe getragen.
In China sind derartigen Ansätze bereits Realität: Im Land der Mitte wird ein (derzeit noch freiwilliger) Citizen Score erstellt, der die Bürger der Volksrepublik anhand von sozialer Aktivität, politischem und kulturellem Engagement sowie ihrem Auftritt in sozialen Medien bewertet, um eine Art soziale Kreditwürdigkeit – also den Ruf einer Person – zu ermitteln. Ein Ansatz, der vor allem in westlichen Gesellschaften hoch umstritten ist und zahlreiche ethische Diskussionen nach sich zieht.
Ein Knackpunkt inmitten dieser Entwicklungen dürften Social Media sein: Die Datenmengen, die über Twitter und Instagram, vor allem aber über Facebook über Personen verfügbar sind, wären für Polizeibehörden in einem Minority Report-Szenario ein gefundenes Fressen. Forbes-Kontributor Kalev Leetaru schreibt dazu folgendes: „As predictive technologies are increasingly able to determine what we want before we want it and know us better than we know ourselves, it is only a matter of time before the “precrime” world of Minority Report becomes a reality, but enacted through algorithms rather than fortunetelling humans – and Facebook has perhaps the greatest archive of global society’s deepest and most intimate dreams and fears ever created.“
Utopie für die einen, Dystopie für die anderen. Ohne klare gesellschaftliche Regeln sind prädiktive Voraussagen in der Strafverfolgungen ein gefährliches Tool, das nicht nur Vorurteile verhärten, sondern den Bürger auch gläsern machen könnte. Doch der Reiz, in einer Welt ohne Verbrechen zu wohnen, könnte viele Regierungen und Strafverfolgungsbehörden verstärkt dazu bewegen, mit solchen Technologien zu experimentieren. Uns steht vermutlich eine heikle Diskussion bevor.