ARD-alpha - Campus


26

Campus Doku Die Welt des Verbrechens - Führt mehr Sicherheit zu totaler Überwachung?

Computer können Gesichter identifizieren und Wahrscheinlichkeiten errechnen, ob Menschen straffällig werden oder wann und wo in Zukunft ein Einbruch passieren wird. Algorithmen revolutionieren die Verbrechensbekämpfung. Aber verbessert modernste Technik tatsächlich die Sicherheit?

Von: Friederike Kühn, Boris Geiger

Stand: 08.07.2019

Wo, wann und sogar von wem ein Verbrechen verübt wird – diese Wahrscheinlichkeiten können heutzutage von Computern ermittelt werden. "Predictive Policing" heißt das. Bei der Polizei in Chicago etwa berechnen Algorithmen die kriminelle Energie von Personen - Polizisten nehmen Gefährder "vorsorglich" in Gewahrsam. Diese Art der präventiven Verbrechensbekämpfung ist in Deutschland nicht möglich, doch Polizeipräsidien und Landeskriminalämter experimentieren bereits mit einer ähnlichen Software. In Berlin wird KRIMPRO, in München PRECOBS eingesetzt – Programme, die berechnen, mit welcher Wahrscheinlichkeit in welchem Viertel als nächstes eingebrochen wird.

Daraufhin schickt die Polizei verdeckte Ermittler oder Streifenpolizisten in das Risikogebiet, um potentielle Einbrecher abzuschrecken. Doch was passiert, wenn unschuldige Bürger ins Visier der Ermittler geraten oder der Algorithmus der Prognose-Software sich irrt? Führt diese Form der Polizeiarbeit tatsächlich zu mehr Sicherheit - oder nur zu mehr Überwachung?

Predictive Policing:

Durch Predictive Policing, der vorhersagenden Polizeiarbeit, sollen Verbrechen verhindert werden, bevor sie passieren. Dabei berechnen Algorithmen etwa aufgrund von Daten bisheriger Einbrüche wie Tatzeit, Tatort und Handschrift des Täters (Modus Operandi) die Wahrscheinlichkeit eines künftigen Einbruchs für einen bestimmten Stadtbezirk. Ob die Prognose-Software wirkt, konnte wissenschaftlich bislang noch nicht bewiesen werden.

Das Dilemma der Wirksamkeit

"Wenn die Prognose-Software für ein bestimmtes Gebiet ein Risiko ausmacht, entsprechend einen Alarm generiert und die Polizei fährt in dieses Gebiet und zeigt Präsenz, und es findet dann kein Einbruch statt, weiß man hinterher nicht, ob die gesamte Strategie des Predictive Policing, nämlich Präsenz zeigen und Täter abschrecken, erfolgreich war oder ob die Prognose schlichtweg falsch war und das Risikogebiet falsch vorhergesagt wurde."

Simon Egbert, Kriminologe und Soziologe, Universität Hamburg

Mehr Daten, mehr Sicherheit?

"Die aktuelle Anwendung von Predictive Policing ist vergleichsweise rudimentär, da sie nur raumbezogen agiert und relativ wenige Daten integriert, vor allem polizeiliche Daten zum Wohnungseinbruchdiebstahl. Es gibt aber in NRW schon ein Projekt, das auch mit Daten zur Infrastruktur arbeitet und zu sozioökonomischen Zusammensetzungen von Wohngebieten. Das ist sicherlich ein Weg, der in die Richtung geht, wo das eigentliche Potential von Predictive Policing gesehen wird - das heißt, man wird mehr Daten integrieren wollen."

Simon Egbert, Kriminologe

Near repeat-Theorie:

Im Visier des Algorithmus: Professionelle Wiederholungstäter

Predictive Policing basiert auf der so genannten Near repeat-Theorie, nach welcher ein professioneller Serieneinbrecher dazu neigt, im Umkreis des ersten Tatorts kurze Zeit später noch einmal zuzuschlagen. Er bricht also nicht nur in derselben Gegend ein, sondern macht das auch sehr bald wieder. Diese Annahme liegt dem Algorithmus zugrunde, der für die Software zur Wahrscheinlichkeitsberechnung von Einbrüchen verwendet wird.

Aber was, wenn der Algorithmus sich geirrt hat? Statistisch ist das durchaus möglich. Oder wenn die Programmierer absichtlich oder aus Versehen falsche, diskriminierende, Daten einspielen? Ein Code, den jemand anders geschrieben hat, ist schwer zu lesen, selbst für Experten - die Richtigkeit der Prognose zu beurteilen, umso schwerer. Die Informatikerin Katharina Zweig von der Uni Kaiserslautern fordert deshalb, dass für Programme, die mit der Beurteilung von Menschen zu tun haben, eine neue Form der Computer-Ethik entwickelt wird.

Brauchen wir eine Ethik für Algorithmen?

"Der Informatiker wirft jede Menge Informationen über Menschen in ein System und dieses System entscheidet dann eigenständig, welche der Informationen vermutlich stark damit korrelieren, ob jemand kriminell wird. Aber es kann zum Beispiel fehlerhaft sein, zu viele Informationen hineinzuwerfen. Es kann fehlerhaft sein, Daten hineinzuwerfen, von denen man denkt, sie seien unkritisch, weil sie zum Beispiel weder mit der Ethnie zu tun haben, noch mit dem Geschlecht. Die Fehler hängen stark davon ab, wie wir Entscheidungsregeln aus Daten herausholen."

Prof. Dr. Katharina Zweig, Informatikerin, TU Kaiserslautern

Intelligente Videoüberwachungstechnik

"Predictive Policing" ist nur ein Bereich, in dem Algorithmen die Ermittler unterstützen können. Ein anderer: biometrische Gesichtserkennungstechnik. Kann intelligente Videoanalysetechnik zur eindeutigen Identifikation dienen – wie bisher ein Fingerabdruck? Und wie effektiv kann sie die Polizei unterstützen?

Mit Hilfe von Algorithmen können Computer lernen, Gesichter zu erkennen. Dabei werden die Pixel in digitalen Bildern wie Fotos oder Videos analysiert und die charakteristischen Eigenschaften – vermutlich Merkmale wie der Augenabstand und der Abstand der Nase zum Mund – mathematisch berechnet. Je kleiner der mathematische Abstand zwischen zwei Gesichtern ist, desto größer ist die Wahrscheinlichkeit, dass es sich um ein und dieselbe Person handelt.

Hundertprozentig kann Gesichtserkennungssoftware also niemanden identifizieren. Doch die besten Systeme sind schon auf dem Niveau von so genannten „Super Recognisern“. Das sind Menschen, etwa 1-2 Prozent der Bevölkerung, die sich überdurchschnittlich gut Gesichter merken können. Die Polizei setzt sie bei Ermittlungen ein. Doch im Unterschied zu den talentiertesten Menschen, gleichen die Computer Gesichter in Sekundenschnelle ab und das millionenfach.

Für die Qualität von Gesichtserkennungssoftware spielen zwei Faktoren eine Rolle:

  • Die Erkennungsrate: Sie besagt, wie viele Personen von der Software richtig erkannt wurden.
  • Die Falsch Positiv Rate: Sie besagt, wie viele Personen falsch identifiziert wurden.

Pilotprojekt automatische Gesichtserkennung am Bahnhof Berlin-Südkreuz

Von August 2017 bis Ende Juli 2018 lief ein Pilotprojekt zur automatischen Gesichtserkennung des Bundesinnenministeriums, der Bundespolizei, der Deutschen Bahn und des Bundeskriminalamts am Bahnhof Berlin-Südkreuz - einem der größten Umsteigebahnhöfe der Hauptstadt mit täglich über 100.000 Reisenden. Mit Kameras im Eingangsbereich und an einer Rolltreppe wurde getestet, ob intelligente Videoüberwachungssysteme Personen, die diesen Bahnhof regelmäßig passieren, identifizieren können. Fotos von über 300 Freiwilligen wurden dazu in einer Datenbank hinterlegt. Die Software sollte sie aus tausenden Reisen herausfischen. Ziel ist es künftig, gesuchte Verbrecher und Terroristen zu identifizieren, um sie auf der Stelle zu verhaften.

Ergebnis:

Das beste System lieferte eine
Erkennungsrate von 80 Prozent
bei einer Falsch Positiv Rate von weniger als 0,1 Prozent
.

Im Realbetrieb würde das bedeuten: 20 Prozent aller gesuchten Personen würden von der Software nicht erkannt. Und bei 100.000 Reisenden pro Tag am Bahnhof-Südkreuz würden fast 100 Personen falsch verdächtigt!

Um eine signifikant niedrigere Falsch-Positiv-Rate von 0,00018 Prozent zu bekommen, könnte man mehrere Systeme zusammenschließen, so das Bundesinnenministerium. Das ginge aber mit einer deutlich niedrigeren Erkennungsrate einher.

"Das ist erstmal kein beeindruckendes Ergebnis. Zudem kommt natürlich, dass das Szenario künstlich war. Die freiwilligen Testpersonen haben kooperiert. D.h. sie hatten kein Problem damit erkannt zu werden. Sie haben vermutlich in Richtung Kamera geschaut, anstatt ihr Gesicht zu verbergen.

Wenn man den technischen Fortschritt in diesem Bereich kennt, sind die Ergebnisse am Südkreuz eher ernüchternd. Aber wie man in anderen Ländern sieht – etwa in China, wo man heute schon großflächig auf Gesichtserkennung setzt -, kann es schon viel besser gehen."

Florian Gallwitz, Informatiker, TH Nürnberg

Florian Gallwitz, Spezialist für Algorithmen basierte Gesichtserkennung, hält allein die Kombination der am Südkreuz getesteten Systeme für praktikabel. Nur sie produziert eine akzeptable Falsch Positiv Rate mit allerdings niedriger Erkennungsrate. Grundsätzlich bezweifelt er aber, dass sich die Sicherheit durch intelligente Videoüberwachung signifikant verbessern ließe:

"Ich glaube, dass sich die wenigsten Verbrechen oder Anschläge durch Gesichtserkennung im Vorhinein verhindern lassen. Ich sehe eher die Gefahr, dass wir sehr viel Privatsphäre aufgeben, unter Umständen hohe Kosten haben und sich an der Sicherheit wenig ändert."

Florian Gallwitz, Experte für Mustererkennung, TH Nürnberg

Eine bundesweite Einführung der intelligenten Videoüberwachung würde bedeuten, dass massenhaft personenbezogene Daten der Bürger erfasst und gespeichert würden. Das Bundesinnenministerium sieht in den Testergebnissen dagegen einen Erfolg:

"Die Ergebnisse zeigen, dass die Technik zur Gesichtserkennung unsere Polizistinnen und Polizisten im Alltag erheblich unterstützen kann. Die Systeme haben sich in beeindruckender Weise bewährt, so dass eine breite Einführung möglich ist. Wir können damit in bestimmten Bereichen die Polizeiarbeit noch effizienter und effektiver gestalten und damit die Sicherheit für die Bürgerinnen und Bürger verbessern."

Bundesinnenminister Horst Seehofer

Unter welchen Bedingungen und in welchem Umfang intelligente Videotechnik in Deutschland eingeführt wird, ist noch offen. Erstmal müsste eine gesetzliche Grundlage geschaffen werden. Massenhaft Daten der Bürger zu erfassen und zu speichern, ist nicht ohne weiteres mit unserer Verfassung vereinbar. Der Datenschutz und das Recht auf informationelle Selbstbestimmung sind zu beachten.

Die Welt von morgen

Nicht nur Behörden digitalisieren ihre Sicherheitsarbeit, auch global agierende Firmen sehen darin die Zukunft. Als Erfinder von mobilen Überwachungssystemen hat die Firma Ekin das Polizeiauto „Ekin Patrol“ auf den Markt gebracht. Das mit 360-Grad-Videokameras und einem Haufen intelligenter Technik ausgestattete Fahrzeug kann Nummernschilder und Geschwindigkeiten aus der Ferne erfassen und so etwa Verkehrssünder in Sekundenschnelle überführen. Die Bilder aus den Kameras auf dem Polizeiauto können auch für die Gesichtserkennung genutzt werden. Anders als stationäre Systeme können die mobilen Einsatzfahrzeuge überall hinfahren und nach Personen suchen – sei es auf einer Demonstration oder vor dem Fußballstadion. Seine „Technologie für die sichere Stadt von morgen“ verkauft Firmenchef Akif Ekin  z.B. nach Abu Dhabi und Aserbaidschan. Er ist sich sicher, dass Algorithmen basierter Polizeiarbeit die Zukunft gehört:

"So wie künstliche Intelligenz die Medizin und andere Bereiche revolutioniert, revolutioniert sie auch die Verbrechensbekämpfung."

Akif Ekin

Doch ob die Welt dadurch sicherer wird, ist bislang nicht bewiesen.


26