Diesen Anruf wird Jürgen Roth nicht so schnell vergessen. Ein Polizist erzählt ihm am Tefefon, dass seine Freundin eine schwangere Frau überfahren und Fahrerflucht begangen habe. Er müsse jetzt 80.000 Euro zahlen, damit sie aus der Untersuchungshaft frei kommt. Ein Schock.
Und dann ist seine Freundin plötzlich selbst am Telefon. Mit Tränen erstickter Stimme erzählt sie ihm, was passiert ist. Das denkt Jürgen Roth zumindest. Tatsächlich aber hört er ein sogenanntes Deepfake - die Stimme seiner Freundin ist verfälscht.
KI ahmt Stimmen nach
Deepfakes sind täuschend echt wirkende, manipulierte Bild-, Audio- oder auch Videoaufnahmen. Sie werden mithilfe von Künstlicher Intelligenz erstellt. So können auch in Videos Gesichter imitiert oder Stimmen täuschend echt nachgeahmt werden.
Thorsten Holz kennt diese Gefahren. Er ist Forscher am Hemholtz-Zentrum für Informationssicherheit. "Mit modernen KI-Methoden ist es inzwischen sehr einfach, das Ganze skalierbar zu machen. Man kann personalisierte Texte erstellen, die dann wirklich auf ein einzelnes Opfer passen. Bilder zu manipulieren ist jetzt viel einfacher geworden." Es ließen sich ganze Videosequenzen erzeugen, die eine frei erfundene Story erzählten, so der Experte.
Strafanzeige läuft ins Leere
Jürgen Roth macht sich nach dem Fake-Anruf tatsächlich auf dem Weg, um das geforderte Geld für seine Freundin zu besorgen. Doch dann fliegt der Betrug doch noch auf. Seine Freundin – dieses Mal die Echte - ruft Jürgen Roth zufällig an. Erst jetzt ist klar: Ihr geht es gut. Es ist nichts passiert. Eine Strafanzeige gegen unbekannt läuft danach allerdings ins Leere.
Prominente: Viel Trainingsmaterial für die KI
Oft werden Prominente Opfer solcher Fälschungen. Der Grund: Gerade von ihnen sind viele Aufnahmen im Internet zu finden. Damit lässt es sich leichter fälschen, denn hier hat die KI besonders viel Trainingsmaterial.
Das hat auch der bekannte Arzt und Autor Dietrich Grönemeyer erlebt. Mitarbeiter fanden plötzlich ein Video im Netz, in dem ein täuschend echter Professor Grönemeyer in einer Fernsehsendung Werbung für ein Abnehmprodukt machte. Grönemeyer wendete sich über seinen Anwalt an den Facebook-Mutterkonzern Meta und bat darum, das Video zu löschen. Ohne Erfolg.
"Plattformen wie Facebook, Instagram oder andere können solche Videos zwar löschen", sagt Sicherheitsforscher Holz. Angreifer würden aber darauf reagieren, indem sie das Material auf ein neu erstelltes Profil laden und darauf verlinken.
Im Fall von Dietrich Grönemeyer half nur eine einstweilige Verfügung. Jetzt ist das Video von den meisten Seiten gelöscht. Ob es aber nicht doch noch irgendwo geteilt wird, das weiß Grönemeyer nicht.
Mit KIVI gegen Hatespeach
Rechtsverstöße im Netz finden, das ist auch Aufgabe der Landesmedienanstalt. Um Verstöße gegen den Jugendschutz, Hass, Hetze, Antisemitismus oder frei zugängliche Pornografie aufzuspüren setzt man dort selbst erfolgreich auf Künstliche Intelligenz. Was früher Mitarbeitende erledigt haben, übernimmt seit 2021 das KI-Tool KIVI mit sehr hoher Trefferquote. Von Twitter und YouTube bis zu Plattformen wie Telegram kann das Tool heute täglich mehr als 10.000 Seiten automatisch durchsuchen. KIVI steht dabei für die Verschmelzung der Begriffe KI und vigilare (lateinisch für wachsam sein).
Der Algorithmus durchkämmt dabei das Netz, sammelt verfassungsfeindliche Inhalte und gibt sie zur Prüfung weiter. "Damit schaffen wir es, nicht nur zehn, zwölf oder 30 Verfahren, sondern Hunderte und Tausende Verfahren einzuleiten und damit dieser zunehmenden Welle von Hass und Hetze gerecht zu werden", sagt Tobias Schmid, Direktor der Landesanstalt.
Zu der Themenreihe "Unser Leben mit KI" zeigt das WDR-Fernsehen am 25. September 2024 um 22.15 Uhr die Sendung "Wie uns künstliche Intelligenz täuscht."
Unsere Quellen: