Als eine Kanadierin im März 2023 einen Anruf von ihrem Enkel bekam, kam sie nicht auf die Idee, dass es sich um einen Betrug handeln könnte. Ihr Enkel erzählte ihr, er sei im Gefängnis gelandet, ohne Geldbörse oder Smartphone. Und er brauche dringend Geld, um die Kaution zu bezahlen.
Wie die Washington Post berichtet, war der Enkel tatsächlich aber wohlbehalten zuhause. Betrüger hatten seine Stimme gefaked, mithilfe von künstlicher Intelligenz.
KI-Betrüger bei der Arbeit
Im Falle der Kanadierin ging die Geschichte einigermaßen gut aus – die Wahrheit kam ans Licht, bevor viel Geld den Besitzer wechselte. Doch zuletzt häufen sich im englischsprachigen Raum die Fälle einer neuen Art des Telefonbetrugs: Anrufe von Stimmen, die dank KI-Programmen klingen wie Verwandte oder Freunde.
Im deutschsprachigen Raum sind bislang keine Fälle bekannt. Das liegt wohl auch daran, dass die KI-Programme bisher vor allem englische Stimmen anbieten. Das dürfte sich jedoch bald ändern – dann könnte es auch in Deutschland massenhaft zu Anrufen mit Fake-Stimmen kommen.
So entstehen Stimm-Fakes
Stimm-Fakes entstehen auf ähnliche Weise wie die sogenannten "Deepfakes", computergenerierte Aufnahmen, in denen real existierende Menschen in Situationen gezeigt werden können, die nie wirklich passiert sind.
Auf Audio übertragen funktioniert die Technologie so, dass zunächst riesige Mengen an Audio-Material gesammelt und mithilfe von maschinellem Lernen analysiert werden. Anschließend muss man lediglich eine Stimmprobe einer Person in das Programm laden, und ihre Stimme kann täuschend echt nachgeahmt werden. Eine aktuelle KI von Microsoft braucht Angaben von Microsoft zufolge nur drei Sekunden Original-Tonmaterial, um eine Stimme kennenzulernen und zu imitieren.
Im Internet greifen diese Stimm-Fakes nun seit einigen Wochen um sich. Manchmal werden sie für Witz-Projekte genutzt, etwa, um die Stimmen von Joe Biden, Donald Trump und Barack Obama über Videospiele diskutieren zu lassen. Ernster wird es, wenn Menschen Volksverhetzung in den Mund gelegt wird: In einer bekannten Datei hört man etwa die falsche Stimme von Schauspielerin Emma Watson aus Mein Kampf vorlesen.
Geheimes Passwort schafft Sicherheit
Besonders hinterhältig droht die Technologie nun für Betrügereien zu werden. Falsche Kidnapper, Polizisten oder Familienmitglieder könnten sich bald am Telefon melden und um Lösegeld, Kautionszahlungen oder Leihgaben bitten – unterstützt mit täuschend echten Stimm-Fakes.
Da es sich bei Anrufen dieser Art um eine neue Form des Telefonbetrugs handelt, gelten jedoch die klassischen Anweisungen wie beim sogenannten "Enkeltrick": Am besten direkt die Polizei informieren. Außerdem kann es sich lohnen, ein Passwort auszumachen, nach dem man am Telefon fragen kann. Dieses geheime Passwort wird nur in der Familie weitergegeben und stellt sicher, dass sich nicht jeder am Telefon als Familienmitglied ausgeben kann.

Fake News könnten in Zukunft auch als manipulierte Audios verbreitet werden
Das ist die Europäische Perspektive bei BR24.
"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!