„Trusted Flagger“ im Kontext des AI Act: Eine kritische Betrachtung von Zensur, Meinungsfreiheit und gerichtlicher Kontrolle
Die zunehmende Rolle von Trusted Flaggern in der Inhaltsmoderation, gepaart mit der wachsenden Nutzung von künstlicher Intelligenz (KI), wirft ernsthafte Fragen zur Wahrung der Meinungsfreiheit und zur möglichen Zensur auf. Der EU AI Act und das Netzwerkdurchsetzungsgesetz (NetzDG) sind zwei bedeutende gesetzliche Regelwerke, die eng mit diesem Thema verknüpft sind. Beide Regularien zielen darauf ab, illegale Inhalte online effektiver zu bekämpfen, bringen aber gleichzeitig Risiken für die freie Meinungsäußerung mit sich.
Was sind Trusted Flagger?
Trusted Flagger sind speziell akkreditierte Organisationen oder Institutionen, die von Plattformen bevorzugt behandelt werden, wenn sie Inhalte melden, die ihrer Ansicht nach gegen Gesetze oder Richtlinien verstoßen. Der Status als Trusted Flagger wird nach den Bestimmungen des Digital Services Act (DSA) der EU vergeben. Hierbei handelt es sich nicht um Einzelpersonen, sondern um Organisationen wie NGOs oder staatliche Institutionen, die besondere Expertise im Erkennen illegaler Inhalte haben und unabhängig von Plattformen agieren sollen. Diese Flagger genießen eine privilegierte Stellung und ihre Meldungen werden von Plattformen schneller und prioritär bearbeitet.
Chancen des Systems
- Effizientere Inhaltsmoderation: Trusted Flagger können Plattformen unterstützen, problematische Inhalte wie Hassrede, Desinformation oder Terrorpropaganda schneller zu identifizieren und zu entfernen.
- Schutz vor illegalen Inhalten: Durch den Einsatz von Trusted Flaggern in Verbindung mit KI-gestützten Moderationstools kann die Verbreitung illegaler Inhalte effektiver verhindert werden.
Der AI Act und seine Auswirkungen auf Trusted Flagger
Der AI Act sieht vor, dass KI-Systeme, die zur Inhaltsmoderation eingesetzt werden, streng reguliert und als „Hochrisiko-Anwendungen“ behandelt werden. Im Zusammenspiel mit Trusted Flaggern könnten KI-gestützte Moderationstools dazu führen, dass Inhalte automatisiert entfernt werden, ohne menschliche Überprüfung. Diese automatisierte Zensur birgt das Risiko, dass legitime Meinungsäußerungen unterdrückt werden, insbesondere wenn KI-Algorithmen nicht in der Lage sind, den Kontext oder die Nuancen von Inhalten korrekt zu bewerten.
Zensur und Meinungsfreiheit
Die Verknüpfung von Trusted Flaggern und KI bringt ernsthafte Gefahren für die Meinungsfreiheit mit sich. Falschpositive Meldungen, bei denen harmlose Inhalte fälschlicherweise als illegal eingestuft und entfernt werden, sind eine bekannte Schwachstelle. So wurde z. B. einrein edukatives Video, das historische Ereignisse analysierte, fälschlicher Weise als “Hasserede” eingestuft.
Wie sich in der Sammlung der Beispiele der Bundesnetzagentur (siehe unten) zeigt, sind auch Tatbestände aufgenommen, die entweder einer weiteren, unter Umständen umfangreichen juristischen Wertung bedürfen (z. B. “Patentverletzung”) oder als Definition wenig nützen (z. B. “Andere”, “Nichteinhaltung der sprachlichen Anforderungen”) und zum Teil auch keine Straftatbestände darstellen.
Darüber hinaus könnte der privilegierte Zugang der Trusted Flagger dazu führen, dass bestimmte politische oder kontroverse Perspektiven systematisch gemeldet bzw. unterdrückt werden. Laut dem DSA müssen Trusted Flagger transparent und unabhängig agieren, doch es gibt Bedenken, dass nicht alle dieser Akteure vollkommen unabhängig von den Plattformen oder staatlichen Einflüssen sind.
NetzDG und statistische Einblicke
Das Netzwerkdurchsetzungsgesetz (NetzDG) verlangt von Plattformen, gemeldete Inhalte innerhalb von 24 Stunden zu prüfen und gegebenenfalls zu entfernen. Im Jahr 2022 gab es mehr als 1,7 Millionen Beschwerden, von denen etwa 65 % zu Löschungen oder Sperrungen führten. Zusätzlich wurden über 500 Strafverfahren wegen Verstößen gegen das NetzDG eingeleitet. Diese Zahlen verdeutlichen, dass die Auswirkungen von Inhaltsmoderation bereits spürbar sind, und dass erhebliche Eingriffe in die Meinungsfreiheit stattfinden.
Gerichtliche Kontrolle und Transparenz
Um sicherzustellen, dass die Inhalte fair und verhältnismäßig moderiert werden, ist eine gerichtliche Kontrolle unerlässlich. Der AI Act fordert Mechanismen, um Entscheidungen, die durch KI-Moderation oder Trusted Flagger getroffen wurden, rechtlich überprüfen zu können. Gerichte sollten die Möglichkeit haben, unfaire oder voreilige Löschungen rückgängig zu machen und dafür zu sorgen, dass die Grundrechte, insbesondere die Meinungsfreiheit, geschützt bleiben.
Mehr Transparenz und Kontrolle erforderlich
Das Zusammenspiel von Trusted Flaggern, KI und dem NetzDG bietet eine wirksame Möglichkeit, illegale Inhalte zu bekämpfen, doch es bringt auch erhebliche Risiken für die freie Meinungsäußerung und den öffentlichen Diskurs mit sich. Transparenz, gerichtliche Kontrolle und eine klare Regulierung des Einsatzes von KI in der Inhaltsmoderation sind entscheidend, um sicherzustellen, dass legitime Inhalte nicht ungerechtfertigt zensiert werden. Der Schutz der Grundrechte muss dabei im Vordergrund stehen.
Durch die Optimierung des Trusted Flagger-Systems in Verbindung mit KI und einer starken gerichtlichen Überprüfung könnte das Gleichgewicht zwischen effektiver Moderation und der Wahrung der Meinungsfreiheit gefunden werden.
Beispiele aus dem Leitfaden zur Zertifizierung als Trusted Flagger gemäß Artikel 22 Digital Services Act der Bundesnetzagentur (Stand: 14.05.2024)
Tierschutzverstöße:
- Tierleid
- Illegaler Verkauf von Tieren und/oder Schmuggel von Wildtieren
- Andere
Verstöße gegen den Datenschutz und die Privatsphäre:
- Verletzung biometrischer Daten
- Fehlender Verarbeitungsgrund für Daten
- Verstöße gegen das Recht auf Vergessenwerden
- Fälschung von Daten
- Andere Datenschutzverstöße gegen die DSGVO
- Andere
Unerlaubte Rede:
- Verleumdung
- Diskriminierung
- Hassrede (unabhängig von Medium und Inhalt: Bilder, Videos, Texte, öffentliche Ansprachen usw.)
- Androhung von Gewalt (z. B. Todesdrohungen)
- Holocaust-Leugnung
- Andere
Verstöße gegen das geistige Eigentum und andere gewerbliche Rechte:
- Verletzung des Urheberrechts
- Verletzung eines Geschmacksmusters
- Rechtsverletzungen bei Sportveranstaltungen
- Verstöße gegen geografische Angaben
- Patentverletzung
- Verletzung von Geschäftsgeheimnissen
- Verletzung von Markenrechten
- Gefälschte Produkte
- Andere
Negative Auswirkungen auf den zivilen Diskurs oder Wahlen:
- Ausländische Informationsmanipulation und Einmischung
- Informationsmanipulation mit dem Ziel, die Integrität/den Ausgang von Wahlen zu beeinflussen
- Andere
Nicht einvernehmliches Verhalten:
- Nicht einvernehmliche Nutzung von Bildern
- Nicht einvernehmliche Inhalte mit Deep-Fake- oder ähnlichen Technologien, die Merkmale/Eigenschaften eines Dritten nutzen
- Doxing (Veröffentlichung von persönlich identifizierbaren Informationen)
- Andere
Online-Mobbing/Einschüchterung:
- Stalking
- Sexuelle Belästigung
- Andere
Pornografie oder sexualisierte Inhalte:
- Bildbasierter sexueller Missbrauch (mit Ausnahme von Inhalten, in denen Minderjährige dargestellt werden)
- Darstellung von Vergewaltigung und Anstiftung zur Vergewaltigung
- Andere
Straftaten an Minderjährigen:
- Versäumnis, alterspezifische Beschränkungen für Minderjährige einzuführen
- Kinderpornografie/Material über sexuellen Missbrauch von Kindern
- Grooming/sexuelle Verführung von Minderjährigen
- Gefährliche Challenges
- Andere
Gefährdung der öffentlichen Sicherheit:
- Provokation oder Anstiftung zur Begehung einer Straftat, die die öffentliche Sicherheit gefährdet
- Illegale Organisationen
- Gefahr von Umweltschäden
- Gefahr für die öffentliche Gesundheit
- Terroristische Inhalte
- Andere
Betrug und/oder Täuschung:
- Unechte Konten
- Unechte Inserate
- Unechte Nutzerbewertungen
- Nachahmung oder unerlaubtes Übernehmen von Konten
- Phishing
- Schneeballsysteme
- Andere
Anstiftung zur Selbstschädigung:
- Inhalte, die Essstörungen fördern
- Anstiftung zur Selbstverstümmelung
- Anstiftung zum Selbstmord
- Andere
Unzulässiger Umfang des Zugangs zur Plattform/zu den Inhalten:
- Versäumnis, andere altersbezogene Beschränkungen als die für Minderjährige anzuwenden
- Unzulässige geografische Anforderungen
- Nichteinhaltung der sprachlichen Anforderungen
- Andere diskriminierende Zugangsbeschränkungen
- Andere
Unsichere und/oder illegale Produkte:
- Unzureichende Informationen über Händler
- Illegales Angebot von regulierten Waren und Dienstleistungen (z. B. Gesundheit)
- Verkauf von nicht konformen Produkten (z. B. gefährliches Spielzeug)
- Drogen- und Waffenschmuggel
- Unzulässige Praktiken nach dem Verbraucherschutzrecht
- Malware und Ransomware
- Andere
Gewalt:
- Koordinierte Schädigung
- Geschlechtsspezifische Gewalt
- Ausbeutung von Menschen
- Menschenschmuggel
- Andere