Eine junge Frau, die leblos und halbnackt auf der Ladefläche eines Pick-Ups liegt. Sie wird von Bewaffneten mutmaßlich in den Gaza-Streifen entführt. Dieses Video war bei Facebook unverpixelt zu sehen. Die Entfernung des Videos wegen der Gewaltdarstellung lehnte der Onlinedienst ab, weil der Film nicht gegen die Gemeinschaftsstandards der Plattform verstoße. So geschehen kurz nach dem Angriff der Terrororganisation Hamas auf Israel am vergangenen Wochenende.
Fake-News fluten die Online-Netzwerke
Aber wäre die schnelle Löschung eines solchen Inhalts nicht die Aufgabe der entsprechenden Prüf-Instanzen bei Sozialen Netzwerken wie Facebook? Die Möglichkeiten wirken begrenzt: Seit dem Großangriff der Hamas und den darauf folgenden Angriffen Israels auf den Gazastreifen werden Online-Netzwerke Forschern zufolge mit "Fake-News" geflutet. Ausmaß und Geschwindigkeit seien beispiellos.
Die Prüfer bei den Diensten können da offenbar nicht Schritt halten. Nun hat die EU nach dem für Facebook verantwortlichen Meta-Konzern und dem von Elon Musk betriebenen Twitter-Nachfolger "X" aus den USA am Donnerstag auch den vom chinesischen Konzern ByteDance betriebenen Onlinedienst Tiktok verwarnt. Tiktok solle innerhalb von 24 Stunden Maßnahmen vorlegen, wie man gegen Falschinformationen vorgehen wolle. Es gehe vor allem darum, Kinder und Jugendliche vor gewaltsamen Darstellungen zu schützen. Das geschehe nicht rechtzeitig.
Zwei Tage nach der EU-Kritik erklärte Tiktok in seinem Blog, man habe seit Beginn des Krieges zwischen Israel und der radikalislamischen Palästinenserorganisation Hamas am 7. Oktober mehr als 500.000 Videos gelöscht und 8.000 Live-Übertragungen gestoppt. Die Schritte seien wegen Verstoßes gegen die Nutzungsrichtlinien erfolgt, schrieb das Unternehmen am Sonntag (15.10.2023). Außerdem seien die Teams zur Suche nach verbotenen Inhalten verstärkt worden.
Künstliche Intelligenz kann nur bekannte Fake-News erkennen
Dass sich dies schnell ändert, erwarten Fachleute nicht. "Ich sehe nicht, dass proaktiv gegen Fake-News vorgegangen wird", sagt etwa WDR-Digitalexperte Jörg Schieb. Das sei angesichts der Flut von Fotos, Videos und Texten, die einzeln gelesen und überprüft werden müssten, "eine nahezu unmöglich zu leistende Aufgabe" und "unbezahlbar". Künstliche Intelligenz könne aber keine neuen Fake-News erkennen, lediglich Wiederholungen von bereits markierten Texten oder Fotos.
Was die Sozialen Netzwerke Desinformationen entgegensetzen, reiche "hinten und vorn nicht, um die Plattformen komplett frei von Lügen, Propaganda und illegalen Inhalten zu halten", sagt auch Digitalexperte Simon Hurtz, Mitbetreiber des Social-Media-Watchblogs und Autor der Süddeutschen Zeitung.
Zu wenig Personal, um Plattformen "sauber" zu halten
Simon Hurtz vom Social-Media-Watchblog
Die Ursache hierfür liegt nach Einschätzung der Experten vor allem beim Personal: "Bei X gibt es in der Tat nicht mal mehr genug Personal, um Algorithmen und KI weiterzuentwickeln, geschweige um aktiv die Inhalte zu sichten und zu säubern", so Schieb. Meta hat laut Hurtz im vergangenen Jahr die zuständigen Teams deutlich verkleinert. Im Vergleich zu dem, was Musk auf "X" anrichte, sei das aber harmlos: "Seit der Übernahme vor knapp einem Jahr hat Musk einen Großteil der Leute gefeuert, die Inhalte moderieren." Das räche sich jetzt, der Twitter-Nachfolger sei vollkommen überfordert und versage angesichts des Terrors in Israel, so Hurtz.
Teil des Problems sei, dass sich mit dem Kampf gegen Desinformation kein Geld verdienen lasse: "Algorithmen lieben Desinformation: Nach der Logik kommerzieller Dienste sind sie sogar willkommen. Solche Inhalte sind Aufreger - und halten die Menschen in den Netzwerken", sagt Schieb. Erst, wenn Werbekunden sich angewidert abwendeten, unternähmen die Plattformen etwas. Ansonsten täten sie nur das, was der Gesetzgeber vorschreibt.
Prüfung der Inhalte durch Menschen ist aufwendig und teuer
Hurtz ergänzt, dass alles, was KI nicht erkennt, durch Menschen geprüft und gelöscht werden müsse. Das sei aufwendig und teuer. Der Digitalexperte glaubt allerdings nicht, dass Konzerne wie Meta ein wirtschaftliches Interesse daran hätten, virale Fehlinformationen nicht zu löschen. Der Imageschaden übertreffe die zusätzlichen Anzeigenerlöse bei Weitem.
Was die Möglichkeiten der EU betrifft, etwaige Versäumnisse der Online-Dienste im Kampf gegen Fehlinfomationen zu ahnden, sieht Hurtz die aktuelle Situation als "ersten Test" für das neue EU-Gesetz über digitale Dienste (Digital Service Act, DSA): "Das Gesetz sieht massive Bußgelder vor, die selbst den großen Plattformen wehtun." Insbesondere für "X", das ohnehin massiv verschuldet sei und Milliarden Zinsen zahle, sei das bedrohlich.
Desinformationen sind nicht zwangsläufig illegal
Im Extremfall könnte die EU unkooperative Plattformen sogar ganz sperren. Das wäre definitiv schmerzhafter, als Geld in die Bekämpfung von illegalen Inhalten und gezielten Desinformationskampagnen zu investieren. Allerdings unterscheide das DSA zwischen illegalen Inhalten wie strafbarer Hassrede und falschen Behauptungen, die nicht per se verboten seien. Erstere müssen Plattformen nach Hinweis binnen 24 Stunden löschen, Letztere seien nicht zwangsläufig illegal.
Tim Schrankel, Moderator und strategischer Entwickler des WDR-Kanals "nicetoknow", hält die jüngste EU-Warnung an Tiktok für richtig, hat aber auch manchmal den Eindruck, dass der Onlinedienst strenge Maßstäbe anlegt - zuweilen sogar "zu" streng, eher restriktiv: "Von uns wurden in dieser Woche beispielsweise bereits zwei Videos zum Nahost-Konflikt als 'sensibler Inhalt' gekennzeichnet, sprich eingeschränkt. Zwischenzeitlich wurden sie sogar gelöscht und erst nach Widerspruch von uns wieder online gestellt."