Ukrainische Soldaten verwenden Gesichtserkennungssoftware im Krieg.
Bildrechte: picture alliance / ZUMAPRESS.com | Bryan Smith

Ukrainische Soldaten verwenden Gesichtserkennungssoftware im Krieg.

    Gesichtserkennung als Waffe im Ukraine-Krieg

    Ukrainische Behörden dürfen kostenlos die Gesichtserkennungssoftware Clearview AI benutzen. So sollen laut Angaben des Unternehmens leichter Tote und Gefangene identifiziert werden. Experten befürchten aber einen gefährlichen Präzedenzfall.

    Mit Beginn des Ukraine-Krieges begann eine Welle der Solidarität: McDonald’s schloss alle Restaurants in Russland, auch Netflix ist nicht mehr verfügbar und Elon Musk stellte Starlink-Equipment zur Verfügung, um Ukrainern Internetzugang zu ermöglichen. Nun zeigen Recherchen von Reuters und der New York Times, dass auch das New Yorker Start-Up Clearview AI seine Dienste kostenlos ukrainischen Behörden zur Verfügung stellt.

    Wie funktioniert die Clearview AI-Gesichtserkennung?

    Clearview AI ist vor allem für die hauseigene Gesichtserkennungssoftware bekannt, die in den USA von mittlerweile 600 Strafverfolgungsbehörden, darunter die Polizei, verwendet wird. Die Kunden können durch die App ein Foto machen oder hochladen. Dieses wird anhand biometrischer Gesichtspunkte mit den Inhalten einer großen Datenbank, die bis zu zehn Milliarden Fotos umfassen soll, abgeglichen. So sollen vor allem Straftäter identifiziert werden - denn laut Clearview AI selbst dürfen nur Strafverfolgungsbehörden die App nutzen. Die Datenbank besteht unter anderem aus Fotos sozialer Netzwerke - Facebook und dessen russisches Pendant VKontakte stellen den größten Anteil, aber auch Instagram gehört dazu.

    Identifizierung russischer Soldaten

    Als der Krieg in der Ukraine ausbrach, soll sich der Clearview AI-CEO Hoan Ton-That an die ukrainische Regierung gewandt und den Service kostenlos angeboten haben, berichtete Reuters. Mittlerweile gäbe es ca. 200 Accounts bei drei ukrainischen Behörden, darunter die Nationale Polizei (NPU). Laut Recherchen der New York Times solle Clearview AI den Behörden vor allem dabei helfen, Soldaten und Saboteure zu identifizieren. So habe man bereits erfolgreich einen Offizier einer Spezialeinheit identifiziert, der auf einem Überwachungsvideo an Plünderungen beteiligt war.

    In anderen Fällen konnten die ukrainischen Behörden die Identität toter Soldatinnen und Soldaten ermitteln. Auch an Checkpoints soll Clearview AI zum Einsatz kommen, um mögliche Saboteure zu erkennen. Überhaupt ist Gesichtserkennung ein wichtiges Tool im Krieg geworden: Während Russland vor allem darauf setzt, Oppositionelle zu identifizieren und Protest zu ersticken, nutzt die Ukraine die Technologie für den Informationskrieg: So sei die Identifizierung toter russischer Soldaten auch wichtig, um deren Angehörige über ihren Tod zu informieren - und ihnen damit gleichzeitig mitzuteilen, dass der von Putin propagierte “Sondereinsatz”, bei der keine Russen sterben würden, gelogen sei.

    Schwere Folgen durch Fehler bei Gesichtserkennung

    Doch gerade die Versuche, Saboteure an Check-Points zu identifizieren, sorgen für Kritik. Wie jede auf künstlicher Intelligenz aufbauende Software gibt es eine gewisse Fehlerquote. Gerade jetzt, wenn Angst vor Sabotage oder unerkannten Kriegsverbrechern das Land umgibt, könne eine falsche Identifizierung schwere Folgen haben. Nicht alle sozialen Netzwerke sind mit der Nutzung ihrer Bilder einverstanden: Facebook und Google beispielsweise verlangten schon vor einigen Jahren, als die Software an den Markt ging, dass die Bilder aus Clearviews Datenbank entfernt werden sollen.

    Nutzung im Krieg: Gefährlicher Präzedenzfall?

    Clearview AI und anderen Anbietern von Gesichtserkennungssoftware wird immer wieder vorgeworfen, dass deren Geschäftsmodell an Überwachung grenze: Menschen würden ihr Recht auf Privatsphäre genommen, weil sie mit der Software jederzeit und überall erkennbar seien. Besonders betroffen dabei sind Minderheiten: China nutzt Gesichtserkennung, um die Uiguren zu überwachen, in Russland hat man Gesichtserkennung genutzt, um Anti-Kriegs-Demonstranten zu identifizieren. Datenschützer kritisieren , dass die Nutzung von Clearview AI im Ukraine-Krieg einen gefährlichen Präzedenzfall darstellen: so könne man den Einsatz der Software nicht nur legitimieren, sondern auch normalisieren - und dementsprechend auch in friedlichen Zeiten verwenden.

    Ist Clearviews Solidarität nur Tarnung?

    Genau das wird Clearview AI mit seinem großzügigen Angebot, den Service kostenfrei anzubieten, vorgeworfen. Das Start-Up musste sich bereits in der Vergangenheit wegen unlauterer Methoden gegen Kritik wehren, sei es die private Nutzung der Software von Kunden, um beispielsweise Angehörige auszuspionieren oder Kontaktdaten anderer Menschen zu ermitteln.

    "Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!