Predictive Policing soll eingesetzt werden, um besonders Serientätern auf die Schliche zu kommen. Bei einem Pilotprojekt zur automatischen Gesichtserkennung an einem der größten Bahnhöfe Berlins, dem Südkreuz, zeigte sich allerdings, dass die digitale Verbrechensbekämpfung auch viele falsche Ergebnisse lieferte.
Software liefert falsche Ergebnisse
Für den Testlauf wurden Fotos von mehr als 300 Freiwillige, die den Bahnhof häufig passieren, in einer Datenbank hinterlegt. Die Software sollte sie aus tausenden Reisenden herausfischen. Doch einige Personen wurden nicht erkannt und andere fälschlicherweise. Diese sogenannte "Falsch Positiv Rate" soll am Südkreuz bei rund 0,1 Prozent gelegen haben. Das heißt: Bei 100.000 Reisenden pro Tag 100 falsche Verdächtigte – allein am Bahnhof Berlin-Südkreuz!
Datenschutz
Neben den Chancen, die Predictive Policing bieten könnte, gibt es auch Kritik an der neuartigen Methode. Bevor überhaupt ein Verbrechen passiert ist, werden riesige Datenmengen von Menschen erhoben und teils in Echtzeit abgeglichen. Ob dass mit der deutschen Verfassung vereinbar ist, muss noch geklärt werden. Gut zu wissen hat sich mit dem Für und Wider der digitalen Verbrecherjagd beschäftigt.