
So will NRW Social Media kontrollieren
Stand: 14.04.2025, 06:00 Uhr
Die Angst ist groß, dass gezielte Social-Media-Kampagnen hierzulande Wahlen und Meinungen manipulieren. Das Land NRW hat einige Mittel dagegen in der Hand, will aber noch mehr.
Von Rainer Striewski
Dialogbox
Kommentieren [1]In der Theorie klingt es einfach: Regeln sind Regeln. Ob eine Straftat im digitalen oder "analogen" Raum begangen wird, sollte keine Rolle spielen, die Konsequenzen gleich sein. Sind sie aber nicht. Das weiß jeder, der auf den großen Social-Media-Plattformen unterwegs ist. Viele Beleidigungen oder auch Hasspostings dort bleiben ohne Konsequenzen.
Damit das nicht so bleibt, will das Land NRW nun digital aufrüsten. "Wenn Terrorunterstützer und Radikale im Porsche unterwegs, sind, dürfen Behörden nicht im Polo unterwegs sein", meint NRW-Medienminister Nathanael Liminski (CDU) - und geht gleich auf mehreren Ebenen in die Offensive. Mit einem eigenen "Aktionsplan" will das Land Desinformation im Netz bekämpfen. Zudem setzt sich NRW auf europäischer Ebene für eine Verschärfung des sogenannten "Digital Services Act" (DSA) ein.
Was können die Bundesländer regeln? Und wie arbeiten die Aufsichtsbehörden? Das haben sich die landespolitischen Redaktionen von WDR und BR näher angeschaut.
- DSA & Co: Welche Regeln gelten in Europa?
- Landesmedienanstalten schneller dank DSA
- Welche Inhalte werden überhaupt überprüft?
- Künstliche Intelligenz hilft bei der Suche im Netz
- KI-Erfolgsquote in NRW von 23 Prozent
- Aktionsplan gegen Desinformation für NRW
- Nutzung von Social-Media-Angeboten stark gestiegen
DSA & Co: Welche Regeln gelten in Europa?
2022 hat Europa neue Regeln für digitale Plattformen beschlossen: das Gesetz über digitale Dienste (DSA) und das Gesetz über den digitalen Markt (DMA). Sie sollen für mehr Sicherheit und Transparenz im Netz sorgen, indem sie die Grundrechte der Nutzerinnen und Nutzer schützen und gleiche Wettbewerbsbedingungen für Unternehmen schaffen.
Die Regeln gelten für Anbieter von Social-Media-Plattformen, Providern, Suchmaschinen oder Online-Marktplätzen. Sie sollen illegale Inhalte schnell entfernen und dafür sorgen, dass Desinformationen weniger geteilt oder gefälschte Produkte nicht weiterverkauft werden.
Diese Regeln will NRW jetzt noch verschärfen: "Wir erleben, dass die Plattformen ihre ehemals eingegangenen Selbstverpflichtungen dezidiert zurücknehmen", erklärt dazu NRW-Medienminister Liminski im Interview mit dem WDR. "Und dementsprechend ist es notwendig, dass wir diese Regeln selber von Staats wegen durchsetzen."
"In Europa gelten unsere Regeln": NRW-Medienminister Nathanael Liminski (CDU) im Gespräch mit WDR-Hauptstadtkorrespondent Philipp Menn über Plattformregulierungen
12:27 Min.. Verfügbar bis 11.04.2027.
Umsetzung in Deutschland und den Bundesländern
Die grundsätzlichen Regeln für etwa Social-Media-Plattformen werden zwar auf europäischer Ebene erstellt, um- und durchsetzen müssen es aber die EU-Mitgliedsstaaten. In Deutschland wird das über das "Digitale-Dienste-Gesetz" (DDG) gemacht.
Mit seinem Inkrafttreten wurde in Deutschland eine Koordinierungsstelle für digitale Dienste (DSC) bei der Bundesnetzagentur eingerichtet. Sie ist entsprechend für die Durchsetzung des Digital Services Act verantwortlich.
Die neue Koordinierungsstelle arbeitet dabei im Bereich des Jugendmedienschutzes und der Aufsicht über Medienanbieter eng mit den Landesmedienanstalten zusammen. 14 gibt es davon in Deutschland. Berlin und Brandenburg sowie Hamburg und Schleswig-Holstein haben jeweils eine gemeinsame Aufsichtsbehörde.
Landesmedienanstalten schneller dank DSA
Für NRW ist die Landesanstalt für Medien (LfM) in Düsseldorf zuständig, in Bayern ist es die Bayerische Landeszentrale für neue Medien (BLM) in München. Sie kümmern sich darum, dass strafbare und medienrechtlich unzulässige Inhalte, z. B. Beleidigungen, aus dem Netz entfernt werden.

Schnellere Reaktionen dank DSA
Das haben sie zwar auch schon vor Verabschiedung des DSA 2022 getan, allerdings war der Weg damals deutlich langsamer. "Wir mussten früher immer erst versuchen, den eigentlichen Urheber einer Äußerung ausfindig zu machen. Erst, wenn uns das nicht gelungen war, konnten wir an die Plattform herantreten", erläutert Dr. Laura Braam, Justiziarin und Leiterin der Abteilung Recht der Landesanstalt für Medien NRW. Dank des DSA kann sich die Landesmedienanstalt nun direkt an die Plattform wenden, um die Löschung von Inhalten zu verlangen.
Zusammenarbeit mit dem BKA
Dabei stimmt sich die Landesmedienanstalt NRW eng mit den Ermittlungsbehörden ab. Stößt sie auf einen strafbaren oder medienrechtlich unzulässigen Inhalt, so meldet die Landesmedienanstalt den Fund in der Regel nicht zuerst der Plattform, sondern der "Zentralen Meldestelle für strafbare Inhalte im Internet (ZMI)" beim Bundeskriminalamt. Dort bekommen die Ermittler zwei Wochen Zeit, Beweise zu sichern. Erst danach wendet sich die Landesmedienanstalt mit einer Löschaufforderung an die Plattform.
"So haben wir einen guten Mechanismus gefunden, um dem Medienrecht und dem Strafrecht Rechnung zu tragen." Laura Braam
Welche Inhalte werden überhaupt überprüft?
Das Posting brauche einen "Deutschlandbezug", um geprüft zu werden, erklärt LfM-Justiziarin Laura Braam. Sprich: Die Absenderin oder der Absender muss in Deutschland wohnen oder das Posting muss sich erkennbar an Nutzerinnen und Nutzer in Deutschland richten. Wird eine Gewaltdarstellung beispielsweise in den USA gepostet, die nach US-Recht zulässig ist, wird dieses Posting in Deutschland nicht geprüft, weil es nicht auf die deutsche Bevölkerung abzielt.
Künstliche Intelligenz hilft bei der Suche im Netz

Laura Braam: Posts brauchen "Deutschlandbezug"
Noch vor wenigen Jahren war die Suche nach problematischen Beiträgen auf Social-Media-Plattformen recht mühsam. "Wir hatten eine Gruppe von Studenten, die hat sich hingesetzt und hat Facebook und andere Plattformen nach Rechtsverstößen durchsucht", erinnert sich Laura Braam. Mittlerweile hat aber auch hier Künstliche Intelligenz (KI) Einzug gehalten und den Prozess deutlich beschleunigt.
Seit 2021 setzt die Landesmedienanstalt NRW ein selbst entwickeltes KI-Tool ein, das automatisiert Plattformen wie X, YouTube, Telegram oder auch klassische Webseiten nach potenziellen Rechtsverstößen durchsucht. Bei den in Deutschland besonders verbreiteten Plattformen Facebook und Instagram bleibt die KI-Software allerdings außen vor. Da der Meta-Konzern den Einsatz des Tools aktiv unterbindet, müssen diese Plattformen weiterhin manuell beaufsichtigt werden.
Trotz dieser Einschränkung nutzen mittlerweile alle Landesmedienanstalten in Deutschland die "KIVI" genannte Software ("KI" wie Künstliche Intelligenz und "VI" wie "vigilare", Lateinisch für "wachsam sein").
Viele KI-Funde, aber wenig tatsächliche Verstöße
Seit Projektstart hat die Software 47.000 potenzielle Rechtsverstöße ermittelt. Allerdings: Nach der Überprüfung der einzelnen Software-Meldungen blieben nur 8.800 tatsächliche Verstöße übrig.
Die Software schaut bei ihrer Arbeit nicht nur auf den reinen Inhalt eines Postings, sondern auch auf den jeweiligen Urheber, sofern sie oder er erkennbar ist. Wohnt die Absenderin oder der Absender eines Postings erkennbar in Berlin, so weist die Software den Fund der dortigen Landesmedienanstalt zur Überprüfung zu. Ist kein Wohnort ermittelbar, so landet der Fund in einem "Deutschland-Pool", auf den alle Landesmedienanstalten Zugriff haben und den sie je nach Kapazität abarbeiten können.
KI-Erfolgsquote in NRW von 23 Prozent
In NRW wurden letztes Jahr 4.200 Meldungen der "KIVI"-Software geprüft. In 953 Fällen konnte dabei nach Angaben der LfM ein Verstoß festgestellt werden. Damit lag die Erfolgsquote in NRW bei 23 Prozent.
Die Diskrepanz kommt unter anderem durch die Grauzonen zustande, in denen sich die Postings bewegen. Bislang dürfen die Medienanstalten das Netz nur nach strafrechtlich relevanten und medienrechtlich unzulässigen Inhalten durchsuchen. Damit fallen aber massenhaft verbreitete Fake-News oder Desinformationskampagnen durchs Raster.
LfM-Justiziarin Braam erklärt das so: "Die Spannbreite dessen, was in unserer gesellschaftlichen Diskussion als Desinformation definiert wird, ist nicht immer deckungsgleich, je nachdem, wen man fragt."
Medienrechtlich bedenkliche Posts werden aber nicht nur von "KIVI" gesucht. Auch Bürgerinnen und Bürger können Inhalte melden. Zudem arbeitet die Landesmedienanstalt NRW mit ihrer Initiative "Verfolgen statt nur Löschen" mit verschiedenen Medienhäusern - wie auch dem WDR - sowie der Zentral- und Ansprechstelle Cybercrime NRW (ZAC NRW) zusammen. Insgesamt hat die LfM NRW im letzten Jahr 7.820 Inhalte geprüft.
Auch die Landesmedienanstalt in Bayern (BLM) durchsucht nicht nur per KI das Netz nach strafbaren Inhalten. Sie kooperiert in dem Bereich unter anderem mit der Meldestelle "Respect! - Gegen Hetz im Netz". Hierüber wurden ihr im vergangenen Jahr 872 Fälle übermittelt. Insgesamt sind der BLM im vergangenen Jahr 3.723 Fälle neu aufgefallen. Vorgegangen ist sie in 2.122 Fällen.
Während die Düsseldorfer Landesmedienanstalt ihren Fokus auf die schnelle Entfernung des Inhalts aus dem Netz legt, versuchen ihre bayerischen Kolleginnen und Kollegen eher, die Urheberin oder den Urheber des Inhalts ausfindig zu machen.
Im Netz wird nicht nur Deutsch gesprochen
Bislang findet die "KIVI"-Software nur Inhalte in deutscher Sprache. Doch das wird sich ab Mai ändern. "Es wird ja nicht nur Deutsch gesprochen im Netz, sondern genauso Englisch oder Arabisch", erklärt NRW-Medienminister Liminski. "Und dementsprechend trainieren wir die Künstliche Intelligenz nun auch auf diese Sprachen hin, um diesem massenhaften Phänomen auch entsprechend kraftvoll zu begegnen." 160.000 Euro stellt das Land für die Erweiterung der Software zur Verfügung.
Aktionsplan gegen Desinformation für NRW
Doch nicht nur bei den Sprachen hat NRW nachgerüstet. Im Februar veröffentlichte die Landesregierung einen "Aktionsplan" gegen Desinformation. Der sieht unter anderem vor, Medienkompetenz und einen unabhängigen Journalismus in NRW zu stärken.
Und nicht nur das: "Wir fordern die EU-Kommission auf, den DSA im engen Austausch mit den Mitgliedstaaten und den Ländern in Deutschland anzupassen und insbesondere um ein Verbot von manipulativen Verbreitungstechniken zu ergänzen", heißt es im Plan. Das bedeutet: Die Behörden sollen auch gegen gekaufte Reichweite, gefälschte Accounts oder den Einsatz von Bots vorgehen dürfen.
Das alte Verständnis davon, dass die Digital-Plattformen neutrale Infrastruktur seien, sei spätestens unter der Ägide von Elon Musk mit seiner Präferenz für radikale, extremistische Inhalte vorbei, erklärt Medienminister Liminski. Für ihn ist klar: "Wenn man für freie Rede ist, dann kann man nicht für die manipulative Verzerrung von Öffentlichkeit sein."
Kaum Mittel gegen Extremismus im Netz
Aber nicht nur Desinformation ist ein Problem im Netz, sondern auch Extremismus. "Da ziehen sich die Plattformbetreiber in der Regel auf den Standpunkt zurück: Das ist eben nicht strafbar und deswegen fällt das im weitesten Sinne unter die Meinungsfreiheit. Und deswegen löschen die da auch nicht", erklärte Jürgen Kayser, Leiter des Verfassungsschutzes in NRW, bei der Vorstellung des Verfassungsschutzberichtes letzte Woche.
Auch NRW-Innenminister Herbert Reul (CDU) zieht ein durchaus ernüchterndes Fazit. Der Einfluss der Social-Media-Plattformen sei "gigantisch und die staatlichen Möglichkeiten sind überschaubar".
Die FDP in NRW fordert angesichts des Anstiegs von politisch motivierter Kriminalität im Netz ein Umdenken: "Es reicht nicht, TikTok oder Telegram als Virenschleudern zu benennen - wir müssen ihnen auch etwas entgegensetzen", betonte Marc Lürbke, innenpolitischer Sprecher der FDP-Landtagsfraktion. Er fordert deshalb "rechtssichere Zugriffsmöglichkeiten" und "digitale Aufklärung, die junge Menschen dort erreicht, wo sie online unterwegs sind."
Nutzung von Social-Media-Angeboten stark gestiegen
38 Prozent der Menschen in Deutschland nutzen laut ARD/ZDF-Medienstudie mindestens einmal wöchentlich Instagram. Bei Facebook sind es 33 Prozent, gefolgt von TikTok mit 19 Prozent.
Insgesamt ist die Zahl derer, die mindestens einmal wöchentlich eine Social-Media-Plattform nutzen, in den letzten Jahren deutlich gestiegen: von 47 Prozent 2021 auf 60 Prozent im vergangenen Jahr.
Kleinere, offene Plattformen wie der Mikroblogging-Dienst Mastodon sind für die Medienanstalten noch kaum Thema. Gerade mit Blick auf die Marktmacht der großen Anbieter formieren sich zwar gerade Initiativen wie "Save Social", die sich für diese offenen Plattformen einsetzen. "Medienpolitisch begleiten wir solche Dinge natürlich immer mit sehr wachsamen Augen", erklärt LfM-Justiziarin Laura Braam. Aber: "Der Großteil der Plattformen kommt nun einmal aus den USA oder außerhalb Europas." Noch zumindest.
Dieser Text entstand im Rahmen einer Kooperation der landespolitischen Redaktionen von WDR und BR. Der BR berichtet in dieser Woche ebenfalls über das Thema.
Der WDR berichtet darüber am Montag (14.04.) unter anderem in den Hörfunknachrichten und in der WDR 5-Sendung Westblick ab 17.04 Uhr.
Unsere Quellen:
- Gespräch mit LfM-NRW-Justiziarin Laura Braam
- Interview mit NRW-Medienminister Nathanael Liminski (CDU)
- Bayerische Landeszentrale für neue Medien (BLM)
- BLM-Jugend- und Nutzerschutzbericht 2024
- Pressekonferenz mit NRW-Innenminister Herbert Reul (CDU) und Verfassungsschutz-Leiter Jürgen Kayser
- Mitteilung von Marc Lürbke (FDP)
- "Aktionsplan Desinformation" des Landes NRW
- ARD/ZDF-Medienstudie
1 Kommentar
Kommentar 1: Bürgerrechte schreibt am 14.04.2025, 12:30 Uhr :
Schon bezeichnend, dass hier niemand kommentieren möchte, was unter dem Deckmäntelchen verborgen ist: Zensur, Überwachung, Einschüchterung Andersdenkender, Medienbeeinflussung im Sinne der bekannten Parteien.... und unter der neuen Bundesregierung scheint noch viel mehr zu drohen!