• Artificial Intelligence

Dunkle Vorahnung

Verbrechen voraussagen zu können klingt wie der Traum jedes Polizisten. In der Tat werden datenbasierte Algorithmen und Überwachungssysteme vermehrt dazu eingesetzt. Doch „Predictive Policing“ ist nicht immer effektiv – und wirft ethische Fragen auf.

Es klirren Fensterscheiben, ein SWAT-Team kracht durch die Glasdecke auf ein Bett, in dem Mann und Frau nebeneinander liegen. Zum gleichen Zeitpunkt rast ihr Vorgesetzter, Captain John Anderton, durch die Schlafzimmertür – und legt dem Mann Handschellen an. Er wird wegen eines doppelten Mordes festgenommen, der jedoch noch nicht stattgefunden hat.

Denn im Film „Minority Report“ werden Verbrechen geahndet, die erst in der Zukunft passieren. Es ist eine dieser Zukunftsvorstellungen, die je nach Betrachter als Utopie oder Dystopie bewertet werden kann. Denn dass ein Doppelmord nicht geschieht, weil die Strafverfolgungsbehörden ihn im Vorhinein erkennen können, ist eine positive Entwicklung. Doch die Überwachung von Menschen, die nicht nur in der Gegenwart, sondern sogar in der Zukunft gläsern geworden sind, löst nicht nur bei Datenschützern Gänsehaut aus.

Ideengeber für den Film war übrigens die gleichnamige Kurzgeschichte des Romanautors Philip K. Dick, die bereits im Jahre 1956 verfasst wurde. Auch eine amerikanische TV-Show wurde produziert.

Die Kernfrage, die sich hier stellt: Wie hoch ist die Wahrscheinlichkeit, dass eine Technologie, die Verbrechen im Voraus erkennt, in Zeiten von Big Data und predictive Analytics Realität wird? Wenn man diversen Blog- und Zeitungsartikeln Glauben schenken darf, groß: Hier, hier und hier wird beschrieben, wie Minority Report-ähnliche Zustände bereits in unserer Gesellschaft angekommen sind – oder bald ankommen könnten.

Zudem greift eine neue Dokumentation namens „Pre-Crime“ das Thema „Predictive Policing” auf und zeigt, wie Polizeibehörden auf Daten und Algorithmen setzen, um Verbrechenswahrscheinlichkeiten vorauszusagen.

Dabei werden Informationen wie Kameraaufnahmen von öffentlichen Plätzen sowie persönliche Informationen (Wohnort, Alter, Ausbildung, Geschlecht) genutzt, um zu definieren, an welchen Orten illegale Handlungen höchstwahrscheinlich stattfinden werden. Zudem wird prognostiziert, von welchen Personen diese Taten begangen werden könnten.

Die Polizeibehörde in Chicago erstellte 2013 beispielsweise eine „Heat List“ mit Namen von Personen, die mit der größten Wahrscheinlichkeit in eine Schiesserei verwickelt werden könnten. Die Liste wurde jedoch nicht von Menschen, sondern von einem Algorithmus entworfen. Dabei wurden nicht nur vergangene Verhaftungen beachtet, sondern auch soziale Verbindungen zu Personen, die bereits in Schiessereien verwickelt waren. Die Polizei stattete den auf der Liste vertretenen Personen gemeinsam mit Sozialarbeitern Besuche ab, um sie von potenziellen Verbrechen abzuhalten.

Was übergriffig wirken mag ist wohl als Akt der Verzweiflung zu verstehen. Denn Chicago hat hat eine der höchsten Mordraten der USA. Gemessen an der Bevölkerung zwar – wie in Medien oft behauptet – bei weitem nicht die höchste des Landes, doch mit 475 Mordfällen im Jahr 2015 und 785 im Jahr 2016 ist die Stadt kein sicheres Pflaster. Doch das Experiment zeigte keine Wirkung. Die durch eine zwei Millionen US-$ schwere Förderung entstandene Heat List verhinderte keine Verbrechen, wie eine Studie des Thinktanks RAND Corporation zeigt. Vielmehr wurde sie demnach für zusätzliches „Profiling“ benutzt.

Neben Listen werden auch Überwachungstechniken ausgebaut. Die Stadt San Francisco installierte etwa Kameras in U-Bahn-Stationen, um Verbrecher das Handwerk zu legen. Die Kameras sollen feststellen, ob sich jemand „abnormal“ verhält, also eine gesperrte Zone betritt, Gepäck in einer mit Menschen befüllten Region abstellt oder sich verdächtig bewegt. Falls das der Fall ist, wird das Wachpersonal umgehend alarmiert. Was auch im Kampf gegen schwerwiegendere Verbrechen zum Einsatz kommen könnte, wird vorerst verwendet, um Fahrraddieben das Handwerk zu legen.

Das Department of Homeland Security (DHS) entwickelt zudem ein Überwachungsprogramm namens „FAST“ (Future Attribute Screening Technology), das ähnlich einem Lügendetektor anhand von erhöhtem Herzschlag, Körpertemperatur und Schwitzverhalten erkennen will, ob jemand böse Absichten hat. Laut DHS erreichte das System in ersten Tests eine Genauigkeit von bis zu 80 Prozent.

Wenn diese Technologien greifen, ist das für die Gesellschaft natürlich ein großer Vorteil. In Virginia nutzte die Polizei während einer Serie an Schiessereien Predictive Analytics, um die Wahrscheinlichkeit des Ortes des nächsten Vorfalls vorauszusagen. Sie nahm einen Verdächtigen am Friedhof in Arlington fest, der einen Rucksack voller Materialien hatte, um eine Bombe zu bauen. Der „Täter“ Yonathan Melaku gestand und wurde zu 25 Jahren Haft verurteilt.

Was, wenn der Computer falsche Voraussagen macht?

Doch die Dokumentation „Pre-Crime“ wirft einige entscheidende Fragen auf: Was, wenn der Computer falsche Voraussagen macht? Eine fehlende Transparenz von Algorithmen bringt auch fehlende Durchsichtigkeit polizeilicher Maßnahmen mit sich. Wie wird man von einer „Heat List“ gestrichen, wenn man von einem Algorithmus als verdächtig definiert wurde?

Einen weiteren Kritikpunkt werfen die Brüsseler Rechtsprofessoren Rosamunde van Brakel und Paul de Hert in einem Paper auf: Jeder Bürger, der gewisse Informationen nicht an zentrale Stellen wie Regierungen abgeben möchte, wird in einer solchen Welt verdächtigt. Die Unschuldsvermutung, ein Grundpfeiler westlicher Rechtssysteme, wird damit zu Grabe getragen.

In China sind derartigen Ansätze bereits Realität: Im Land der Mitte wird ein (derzeit noch freiwilliger) Citizen Score erstellt, der die Bürger der Volksrepublik anhand von sozialer Aktivität, politischem und kulturellem Engagement sowie ihrem Auftritt in sozialen Medien bewertet, um eine Art soziale Kreditwürdigkeit – also den Ruf einer Person – zu ermitteln. Ein Ansatz, der vor allem in westlichen Gesellschaften hoch umstritten ist und zahlreiche ethische Diskussionen nach sich zieht.

Ein Knackpunkt inmitten dieser Entwicklungen dürften Social Media sein: Die Datenmengen, die über Twitter und Instagram, vor allem aber über Facebook über Personen verfügbar sind, wären für Polizeibehörden in einem Minority Report-Szenario ein gefundenes Fressen. Forbes-Kontributor Kalev Leetaru schreibt dazu folgendes: „As predictive technologies are increasingly able to determine what we want before we want it and know us better than we know ourselves, it is only a matter of time before the “precrime” world of Minority Report becomes a reality, but enacted through algorithms rather than fortunetelling humans – and Facebook has perhaps the greatest archive of global society’s deepest and most intimate dreams and fears ever created.“

Utopie für die einen, Dystopie für die anderen. Ohne klare gesellschaftliche Regeln sind prädiktive Voraussagen in der Strafverfolgungen ein gefährliches Tool, das nicht nur Vorurteile verhärten, sondern den Bürger auch gläsern machen könnte. Doch der Reiz, in einer Welt ohne Verbrechen zu wohnen, könnte viele Regierungen und Strafverfolgungsbehörden verstärkt dazu bewegen, mit solchen Technologien zu experimentieren. Uns steht vermutlich eine heikle Diskussion bevor.

Klaus Fiala,
Chefredakteur

Up to Date

Mit dem FORBES Newsletter bekommen Sie regelmäßig die spannendsten Artikel sowie Eventankündigungen direkt in Ihr E-Mail-Postfach geliefert.

Surprise me

Naturtalent

Die Natur – also Tier- und Pflanzenwelt – führt seit jeher zu utopischen Vorstellungen. Egal ob Batman, Spider-Man, Catwoman: sie alle nutzen Fähigkeiten, um „besser“ zu werden. In den Medien ist die „Bionik“ sehr prominent, in der Wirtschaft jedoch weniger stark vertreten. Wieso?

Read more

#hacked #stopped?

Europol war in den vergangenen Jahre im Kampf gegen Cybercrime nicht selten erfolgreich. Zeit auszuruhen hat man dennoch nicht: das Internet of Things stellt eine besondere Gefahr dar.

Read more

Moonwalk

Weltraumtouristen gibt es bereits, bis zum Mond hat es aber noch kein Urlauber geschafft. Beim Wettlauf ins All 2.0 ringen private Raumfahrtunternehmen um die Vormachtstellung, sie loten aus, ob das Geschäft rentabel ist. Die Kosten aber sind astronomisch.

Read more

Zeit ist nicht Geld

Alternative Wirtschaftskonzepte mit Zeit als Währung gewinnen wieder an Auftrieb. Trotzdem scheint das Ende des klassischen Währungssystems noch Science-Fiction.

Read more

Cool Rider

Wenn Coolness ein Synonym hat, heißt es vermutlich „K.I.T.T.“. Jeder wollte einmal mit dem schwarzen Kultmobil aus der TV-Serie „Knight Rider“ davondüsen. Denn K.I.T.T. kann einfach alles. Wie steht’s mit den heutigen Autos?

Read more

Total Sozial

Soziale Ungleichheit ist nicht nur in modernen Gesellschaften ein heißes Thema. Vorboten gab es in der Fiktion schon früh. Doch wie sollten wir damit umgehen?

Read more

Die E-Pille

Die utopische Vorstellung, ein beliebiges Protein von selbst im Körper produzieren zu lassen, könnte bald schon Realität werden. Denn in Zürich forscht man an der E-Pille.

Read more

Speed it up

Interstellare Flüge zu einem anderen Sternensystem: Das ist die große Vision der internationalen Weltraumgemeinschaft. Die derzeitigen Antriebssysteme sind aber noch zu schwach, um dies zu ermöglichen. Wie lange noch?

Read more