Predicitve Policing #2 – Was ist das eigentlich & wo kommt es her?

3

Keinen Post mehr verpassen? Folge uns auf Facebook oder Twitter!

Wie nah sind wir schon an der Vision aus dem Film Minority Report? Was ist technisch machbar und wo kommt die Idee, mit Statistiken Verbrechen zu verhindern, eigentlich her? Was IST Predicitve Policing eigentlich nun ganz genau?

Generell gesprochen versucht Predicitve Policing oder Voraussagende Polizeiarbeit, statistische Daten über Kriminalitätsdelikte in einem sehr großen Maßstab mit Raumdaten zu kombinieren. Daraus sollen dann im Idealfall bestimmte Wahrscheinlichkeiten abgeleitet werden, für das Auftreten von Straftaten in einem bestimmten Gebiet zu einer bestimmten Zeit. Die Idee dahinter ist es nicht unbedingt, Täter*innen auf frischer Tat zu ertappen. Stattdessen sollen Einsatzkräfte zielgerichteter eingesetzt werden, um potentielle Täter*innen abzuschrecken und so die Verbrechensraten zu senken.

Die Verknüpfung von statistischen und geographischen Daten gibt es schon sehr lange. Das Neue ist die Masse an Daten, die ohne moderne Computertechnik nicht nutzbar wären. Dabei kommen die Rechenmodelle und Programme im Normalfall gar nicht aus der Strafverfolgung, sondern aus der Konsumforschung. Dort werden schon seit vielen Jahren Algorithmen eingesetzt, um zum einen das Werbeangebot zu personalisieren und auf die Kund*innen zuzuschneiden und zum anderen das vorhandene Angebot in Supermärkten möglichst passgenau zur Verfügung zu stellen. In den USA nutzt Walmart beispielsweise Wetterdaten, um das Angebot im Laden anzupassen. Sind für die nächsten Tage Stürme, Wintereinbrüche oder ähnliche Wettervorkommnisse abzusehen, lagert Walmart mehr abgefülltes Wasser, Isolierband und – Erdbeerküchlein. Während die ersten beiden Dinge relativ offensichtlich sind, hat sich die dritte Vorliebe erst durch Analyse statistischer Daten ergeben. Scheinbar wollen die US-Amerikaner*innen gern Erdbeerküchlein essen, wenn draußen die Welt untergeht. Ein weiterer amüsanter Fall, der die Macht der Daten offenbart, ist der der Frau, die Werbematerialien für Schwangere zugeschickt bekam, bevor ihr Vater (sie lebte noch bei ihren Eltern) überhaupt von der Schwangerschaft erfuhr. Die Supermarktkette analysierte das Einkaufsverhalten der Frau und errechnete anhand dieser Daten, dass sie höchstwahrscheinlich schwanger ist – und schickte ihr entsprechendes Werbematerial zu.

Ein alter Hut

Historisch gesehen gibt es schon seit langem Versuche, Kriminalität vorherzusehen. Schon in der ersten Hälfte des 19. Jahrhunderts stellte der belgische Astronom und Statistiker Adolphe Quetelet statistische Überlegungen an, die sich um den Zusammenhang zwischen Kriminalität auf der einen und Armut, Bevölkerungsdichte und Bildung auf der anderen Seite beschäftigten. Deutlich stichhaltiger wurden diese Versuche durch die sogenannte Chicago School, eine an der Universität von Chicago beheimatetes, 1892 gegründetes Institut. das vor allem durch seine soziologischen Forschungen zur Stadt Berühmtheit erlangte. Die Arbeiten von Clifford Robe Shaw und Henry D. McKay stechen dabei ganz besonders hervor, da sie sich mit städtischen Gebieten befassten, die sowohl eine hohe Kriminalitätsbelastung, als auch andere soziale Probleme (hoher Anteil an Menschen, die staatlich unterstützt werden, hohe Krankheitsraten) aufwiesen. Bei Shaw und McKay hießen diese Gebiete ‚Deliquency Areas’, am ehesten zu übersetzen mit ‚Kriminalitätsbelasteten Orten’. In der Folge wurden jahrzehntelang Kriminalitätslagen per Hand mit Stecknadeln kartographiert. So konnte man zwar erste Einblicke gewinnen, aber keine versteckten statistischen Zusammenhänge.

Neue Entwicklungen

Gut 100 Jahre später erhielt  diese Art der Polizeiarbeit dann einen neuen Anstoß durch die Gründung des Crime Mapping Research Centers am National Institute of Justice in den USA. Hierbei lag der Fokus aber nach wie vor auf dem Kartieren von Straftaten – nur eben computergestützt. Was noch fehlte war der Blick in die Zukunft. Dieser war vor knapp zwanzig Jahren noch nicht möglich, da die damals verwendeten Computer rasch an ihre Grenzen stießen und nicht mit mehreren Gigabyte an Daten umgehen konnten, wie es heute selbstverständlich ist. Auch die Verknüpfung verschiedener Datenbanken war damals noch bei weitem nicht wo weit gediehen. Die Beschränkungen wurden dann erstmal durch die Software Blue CRUSH, eine Verbindung eines Geoinformationssystems und der Statistiksoftware SPSS, umgangen. Diese Software wird seit 2006 vom Memphis Police Departement eingesetzt. Zu noch größerer Bekanntheit gelangte die Lösung des Los Angeles Police Departments, welches 2008 in Zusammenarbeit mit mehreren Universitäten untersuchte, inwieweit man sich Algorithmen zunutze machen könnte, die für die Vorhersage von Nachbeben entwickelt wurden. Nach diesen Pilotprojekten ging die Entwicklung rasend schnell und mittlerweile ist Predictive-Policing-Software in den USA weit verbreitet: 70% aller Polizeidienststellen setzen eine solche Software ein und 90% wollen es bis 2016 implementieren, sofern noch nicht geschehen. Auch in Großbritannien, Südafrika und Australien sind diese Techniken in der Erprobung. In Deutschland wird momentan nur in München und Nürnberg getestet, ob diese Form der Polizeiarbeit von Vorteil ist. Die Projekte laufen dort seit 2014.

Im nächsten Teil dieser Artikelreihe steigen wir sozusagen in den Maschinenraum von Predictive Policing und schauen uns an, auf welchen soziologischen Grundlage die Annahme fußt, dass man Straftaten in gewisser Weise vorhersagen kann. Außerdem wird uns interessieren, was das für künftige Polizeiarbeit bedeutet und wie (un)bedenklich diese Entwicklungen sind.

3 KOMMENTARE

Kommentar verfassen