BR24 Logo
BR24 Logo
Startseite

Nix Zukunftsmusik: Wo der Staat Künstliche Intelligenz einsetzt | BR24

© dpa/Michael Hanschke
Bildrechte: dpa/Michael Hanschke

Auch bei den deutschen Sicherheitsbehörden kommen heute schon mehrere KI-Anwendungen zum Einsatz. Das Foto stammt aus dem Jahr 2002.

Per Mail sharen

    Nix Zukunftsmusik: Wo der Staat Künstliche Intelligenz einsetzt

    In manchen Bereichen mag Deutschland immer noch das Land der Faxgeräte sein, doch offenbar tut sich etwas. Ein aktueller Bericht zeigt, dass der Staat bereits Künstliche Intelligenz anwendet - doch das muss nicht immer ein Grund zu Freude sein.

    Per Mail sharen
    Von
    • Thomas Moßburger

    Wenn im Zug mal wieder die Netzverbindung abbricht, ein Formular nur in Papierform gilt oder Corona-Ergebnisse per Fax versendet werden, sind Häme und Spott über den Stand der Digitalisierung in Deutschland nicht weit.

    Dass der deutsche Rückstand in Sachen Digitalisierung auch von der Politik als Problem wahrgenommen wird, zeigt nicht zuletzt das Corona-Konjunkturpaket der Bundesregierung. Mit viel Geld soll laut den dort festgelegten Plänen digital vieles vorangebracht werden. Beim Thema Künstliche Intelligenz (kurz KI) und Quantencomputing will man sich gar an die Weltspitze setzen.

    KI ist angekommen – bei Sicherheitsbehörden

    Dass der deutsche Staat auch schon jetzt mit Künstlicher Intelligenz experimentiert, zeigt der Bericht "Automating Society 2020" von AlgorithmWatch und der Bertelsmann Stiftung. Er beschäftigt sich vor allem mit ADM, was für "Automatet Decision Making" steht, also für Anwendungen, die ihrem Nutzer mit Hilfe von KI bestimmte Entscheidungen abnehmen oder zumindest erleichtern.

    Bisher finden solche Systeme in Deutschland offenbar vor allem bei Sicherheitsbehörden Anklang. Als Beispiel wird ein Versuch mit Gesichtserkennungssoftware am Berliner Südkreuz-Bahnhof genannt. Doch der Bericht listet weit mehr auf als nur Experimente:

    • Gefahrenbewertung bei Islamisten: Ermittler des Bundeskriminalamtes (BKA) tragen über einen Fragebogen möglichst viele Informationen über eine Person ein, die sie als militanten Salafisten führen. Das Programm errechnet davon ausgehend für die Person eine abgestufte Gefahren-Bewertung (hoch, auffällig, moderat). Der Ermittler entscheidet dann über das weitere Vorgehen.
    • Einbrecher-Vorhersage: Mehrere Bundesländer, auch Bayern, setzen Programme ein, die Einbruchs-Hotspots vorhersagen sollen. Das in Bayern verwendete System nutzt etwa Daten über bisherige Einbrüche, um neuerliche Taten zu prognostizieren, sodass die Polizei dort verstärkt auftreten kann.
    • Kinderpornographie-Auswertung: Die Auswertung von kinderpornographischem Material ist belastend für Beamte und aufwändig. Derzeit sind laut dem AlgorithmWatch-Bericht in Deutschland, bei der Einsatzstelle Cybercrime in Köln, bereits Systeme im Einsatz, die versuchen, Gesichter von Opfern und Tätern in Videos oder auf Fotos automatisiert in Datenbanken zu erkennen. Auch bei der Verpixelung der Inhalte helfen Programme, bevor diese auf Polizeiserver geladen werden.
    • Suizid-Prävention im Gefängnis: In Nordrhein-Westfalen wurde 2019 ein System geordert, das Suizide bei Strafgefangenen verhindern soll. Wird ein Insasse als gefährdet eingeschätzt, kontrolliert ein Überwachungssystem seine Zelle auf verdächtige Gegenstände wie Schlingen oder Feuerzeuge und warnt im Zweifelsfall die diensthabenden Aufseher. Bisher werden suizidgefährdete Gefangene durch regelmäßige, persönliche Zellenkontrollen überwacht. Ein System, das als emotionale Belastung für die Betroffenen kritisiert wird.
    • Identitätsbestimmung bei Migranten: KI soll auch dabei helfen, Migranten oder Geflüchtete ohne Ausweispapiere besser einzuordnen. Einerseits kann dies durch eine Auswertung der Daten auf persönlichen Geräten der Menschen passieren. Andererseits gibt es auch Systeme, die auf Grundlage von Sprachschnipseln von Asylbewerbern Dialekte auswerten und einschätzen, woher eine Person stammt.

    Hinzu kommen weitere Anwendungen:

    • Sozialarbeit und Sozialleistungen: In Hamburg wird ein System genutzt, um Sozialarbeit zu planen und auch entsprechende Zahlungen an Familien oder Jugendliche zu automatisieren. Auch die Bundesagentur für Arbeit nutzt Programme, die die Höhe der Zuwendungen für Leistungsempfänger berechnen.
    • Gewalt-Vorhersage: In mehreren Bereichen werden in Deutschland laut der AlgorithmWatch-Untersuchung auch KI-Werkzeuge eingesetzt, um Gewaltbereitschaft vorherzusagen. Dafür muss der Nutzer Fragen über das Verhalten der Person beantworten, die er auf Gewaltpotential checken möchte. Dies können Islamisten, aber etwa auch Beziehungspartner oder Schüler sein.
    • Internationale Krisen-Vorhersage: Im Auswärtigen Amt wird ein KI-System eingesetzt, um internationale Krisenherde vorherzusagen. Politische, wirtschaftliche und gesellschaftliche Daten und Trends verschiedener Länder und Weltregionen werden ausgewertet und aufbereitet, um Mitarbeitern die Arbeit zu erleichtern.

    Grundsätzlich lässt sich der Staat folglich schon – zumindest in Testphasen – bei einigen recht elementaren Entscheidungen von KI-System beraten. So entscheiden solche Systeme offenbar mit, wer als potenzieller Gewalttäter gilt und wer wie viel Geld vom Staat erhält. Entscheidungen, die starken Einfluss auf Leben und Alltag von Menschen haben können.

    Mehr noch gilt das bei der Suizidprävention in Gefängnissen, wo eine KI potenziell über Leben und Tod eines Menschen mitentscheiden kann. Etwa wenn ein Objekt nicht erkannt wird und eine persönliche Zellen-Kontrolle in Vertrauen auf das KI-System ausbleibt.

    Auch Künstliche Intelligenz macht Fehler

    Dass auch Künstlichen Intelligenzen Fehler unterlaufen, ist keine Befürchtung von notorischen Kulturpessimisten, sondern erwiesene Realität. So zeigte die Organisation "Human Rights Watch" erst in diesem Jahr, dass ein automatisiertes Berechnungssystem für Grundsicherung in Großbritannien auf einer fehlerhaften Algorithmus-Grundlage beruht, teils zu geringe staatliche Unterstützung berechnet und damit Menschen in Hunger und Armut treibt.

    Auch konkrete, oben genannte Systeme sind in der Kritik. Vor allem ist fraglich, ob sie wirklich ihren Zweck erfüllen. Etwa das bayerische Einbruchs-Prognosetool PRECOBS. Der tatsächliche Nutzen solcher Systeme sei schlicht nicht nachweisbar, wie der Soziologe Simon Egbert gegenüber "Netzpolitik.org" erklärt. Das liegt nicht zuletzt daran, dass die Grund-Vermutung des Prognose-Systems, dass Täter kurze Zeit nach einer Tat in der Nähe eines Tatorts wieder zuschlagen, nur auf einen Teil von Einbrüchen zutreffe und bei anderen Straftaten gar nicht wirksam sei.

    Auch eine KI kann rassistisch sein

    Auch den Nutzen des oben genannten Islamisten-Einschätz-Programmes des BKAs stellt Egbert in Frage, da eigentlich nicht genug Fälle vorhanden seien, um daraus ein musterhaftes Verhalten, etwa vor Anschlägen ableiten zu können, dass die KI prüfen könnte. Als Allheilmittel sollte man Künstliche Intelligenz folglich nicht ansehen.

    Auch der Bericht von AlgorithmWatch und der Bertelsmann-Stiftung nennt fragwürdige Beispiele. So berechnete ein Algorithmus in Großbritannien Abschlussnoten für von Corona betroffene Schulabschlussjahrgänge und kam dabei auf deutlich schlechtere Zensuren als die Lehrer ihren Schülern zuvor angekündigt hatten. Das kann Zulassungen an Wunsch-Universitäten und Berufswege beeinflussen. Die Noten-Vergabe per KI wurde von der Politik schließlich gestoppt.

    Auch außerhalb staatlicher KI-Systeme zeigen Untersuchungen immer wieder, dass Algorithmen nicht vor menschlichen Makeln - wie etwa Rassismus - gefeit sind. So wurde erst kürzlich klar, dass ein US-Programm, das bei der Einstufung der Schwere von Nierenschäden helfen sollte, schwarze Patienten systematisch benachteiligte, wie etwa die "Wired" berichtet. Aufgrund falscher Berechnungsgrundlagen wurden sie etwa seltener als Kandidaten für Nierenspenden gelistet.

    Große Diskussion noch nötig

    Es zeigt sich, dass gerade der staatliche Einsatz von Künstlicher Intelligenz Regeln bedarf. Die Bundesregierung hat hier erste Strategiepapiere vorgelegt, eine Enquete-Kommission im Bundestag beschäftigt sich weiter mit dem Thema. Der Bericht von AlgorithmWatch nennt das "einen guten Start". Das Papier weist jedoch auch daraufhin, dass es mehr als dieser Diskussionen in der Berliner Politik bedürfe.

    Vom Gesichtserkennungsversuch am Berliner Südkreuz einmal abgesehen, finden KI-Experimente meist eher recht unbehelligt von der deutschen Öffentlichkeit statt. Dabei muss die Nutzung Künstlicher Intelligenz in der gesamten Gesellschaft diskutiert und entschieden werden, finden die Autoren des "Automating Society 2020"-Berichts.

    Wie weit darf der Staat für "KI-Futter" gehen?

    Ob und vor allem wie Künstliche Intelligenzen über die Höhe staatlicher Unterstützungen oder auch die Härte von Gerichtsurteilen, entscheiden sollen, wie etwa in den USA, sollte besser nicht in Hinterzimmern sondern auf offener politischer Bühne geklärt werden.

    Das betrifft auch die Frage, wie weit Staat und Sicherheitsbehörden gehen dürfen, um Daten zum Füttern der KIs zu bekommen. Bei Geflüchteten ohne Papiere liest der Staat die Handys der Betroffenen aus. Gegen diese Praxis klagen gerade mehrere Geflüchtete. Auch so könnte ein Gerichtsverfahren Teil einer wichtigen politischen Debatte sein.

    "Darüber spricht Bayern": Der BR24-Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!