Redaktionen in professionellen Medien erhalten täglich Bilder und Videos, die Nachrichten und Behauptungen zu aktuellen Geschehen transportieren. Ob es sich dabei um echte Aufnahmen oder Bilder im richtigen Zusammenhang handelt, ist nicht immer eindeutig. Hinzu kommt, dass komplexe Themen oft unter hohem Zeitdruck bearbeitet werden müssen - auch im WDR.
Im Sender gibt es daher das Projektteam Verifikation und Faktencheck, das flexibel und schnell auf Anfragen reagieren kann. Mit dem Krieg in der Ukraine seien die Anfragen sprunghaft angestiegen, berichtet Dustin Haack, wissenschaftlicher Dokumentar im Verifikationsteam des WDR. Auf einmal sei eine Flut an Videos aufgetaucht, die vermeintliche Kriegshandlungen zeigten. Nicht alle waren echt. Manche von ihnen hätten sich im Nachhinein sogar als Ausschnitte aus Computerspielen entpuppt.
Wir haben mit Dustin Haack über seine Arbeit, irreführende Bilder und Regeln fürs Enttarnen gesprochen.
WDR: Wie kommt das Material zu euch und wie geht ihr dann damit um?
Dustin Haack: Wenn jemand aus dem WDR ein Video findet oder zugespielt bekommt und es für senderelevant hält, kann er es uns vor der Veröffentlichung schicken. Wir bemühen uns, innerhalb von 45 Minuten eine erste Einschätzung zu geben.
Wir teilen uns dann im Team auf und prüfen unterschiedliche Aspekte. Der eine guckt zum Beispiel, ob der Ort stimmt, ein anderer schaut sich den Kontext genauer an und ein dritter versucht zu recherchieren, wer das eigentlich veröffentlicht hat. Dann puzzeln wir von verschiedenen Seiten. Die Videos selbst sind oft gar nicht falsch, sondern aus dem Kontext gerissen. Deshalb ist auch die zeitliche Einordnung wichtig.
WDR: Kannst du mal ein aktuelles Beispiel nennen?
Dustin Haack: Uns haben im August 2024, als es die Straßen-Krawalle in Großbritannien gab, einige Videos dazu erreicht. Rechtsextreme, aber auch Muslime waren da losgezogen und teilweise gab es auch Ausschreitungen. Dann mussten wir erst einmal rausfinden, ob die Videos wirklich aktuell sind. Eines dieser Videos war zum Beispiel schon zehn Jahre alt.
Wir versuchen zunächst den Ort zu finden, an dem das Ereignis stattgefunden haben soll. Wenn wir Straße und den Ort gefunden haben, können wir das mit verschiedenen Kartentools nachvollziehen, können den Weg der Randalierer quasi selber gehen. Und wir können gucken, wie es dort heute aussieht. Die Bilder, die man bei Google Maps, Apple Cards oder Mapillary sieht, sind ja alle zu unterschiedlichen Zeitpunkten entstanden. So kann man herausfinden, wie wahrscheinlich es ist, dass es eine aktuelle Aufnahme ist und ob der Ort wirklich stimmt.
Bei den Bildern zu den Krawallen war das Besondere, dass es zwölf Videos waren, aber nicht zwölf Ausschreitungen. Es waren nur drei, aber immer aus verschiedenen Perspektiven gefilmt. Und dann findet man am Ende heraus: Es ist eine Gruppe von vielleicht 20 Leuten, die hier schreiend durch die Innenstadt zieht. Davon kursieren wahnsinnig viele Videos, die so suggerieren, dass hier Tausende Menschen die Stadt auseinandernehmen.
WDR: Fake-Bilder werden heute auch mit Künstlicher Intelligenz erstellt. Arbeitet ihr eigentlich mit KI, um KI zu entlarven?
Dustin Haack: Wir setzen das manchmal zur Unterstützung ein. Man wirft da aber nicht ein Video ein und bekommt ein eindeutiges Ergebnis "fake oder nicht". Aber es gibt Tools, in die man Fotos, Bilder oder Texte hochladen kann, die dann angeben, wie wahrscheinlich es ist, dass ein Inhalt menschengemacht ist oder nicht. Die Tools werden immer besser, aber diejenigen, die nichts Gutes im Schilde führen, arbeiten schon am nächsten Fake und sind am Ende schon wieder einen Schritt voraus.
WDR: Apropos Fake-Bilder - 2023 haben gleich zwei KI-genierte Bilder bei renommierten Fotowettbewerben erste Preise abgeräumt. Wenn Profis solche Bilder schon nicht erkennen, wie können es dann normale User?
Dustin Haack: Die Bilder und Videos, die uns begegnen, sind in aller Regel noch zu entlarven, wenn man weiß, auf welche Details man gucken muss. Das werden wir irgendwann nicht mehr können. Deshalb ist mein Tipp, dass man Bilder und Videos inhaltlich immer kritisch hinterfragt.
Ein Beispiel: Ich sehe ein Video von Kanzler Olaf Scholz, in dem er seinen Rücktritt verkündet oder ein Bild von ihm, das ihn in Badehose an der Spree zeigt. Dann sollte man sich fragen: Wie wahrscheinlich ist das eigentlich oder welche Agenda könnte dahinter stehen? In der Regel sind die Fakes schon darüber ganz gut zu enttarnen.
WDR: Was würdest du Usern beim Betrachten und Teilen mit auf den Weg geben wollen?
Dustin Haack: Egal, was ich im Internet sehe, erst mal skeptisch sein, vor allem, wenn es in mein eigenes Narrativ passt. Man hat ja meist eine eigene Haltung oder steht in einem Konflikt vielleicht auf einer bestimmten Seite. Und dann sehe ich etwas, was dazu passt. Ich würde da noch mal genauer hingucken - vor allem, wenn ich den Absender nicht kenne. Und das ist ja meistens der Fall, wenn die Dinge von irgendwelchen No-Name-Accounts veröffentlicht werden.
Das Interview führte Katja Goebel
Zu der Themenreihe "Unser Leben mit KI" zeigt das WDR-Fernsehen am 25. September 2024 um 22.15 Uhr die Sendung "Wie uns künstliche Intelligenz täuscht."