„Trusted Flagger“ im Kontext des AI Act: Eine kritische Betrachtung von Zensur, Meinungsfreiheit und gerichtlicher Kontrolle
Die zunehmende Rolle von Trusted Flaggern in der Inhaltsmoderation, gepaart mit der wachsenden Nutzung von künstlicher Intelligenz (KI), wirft ernsthafte Fragen zur Wahrung der Meinungsfreiheit und zur möglichen Zensur auf. Der EU AI Act und das Netzwerkdurchsetzungsgesetz (NetzDG) sind zwei bedeutende gesetzliche Regelwerke, die eng mit diesem Thema verknüpft sind. Beide Regularien zielen darauf ab, illegale Inhalte online effektiver zu bekämpfen, bringen aber gleichzeitig Risiken für die freie Meinungsäußerung mit sich.
Was sind Trusted Flagger?
Trusted Flagger sind speziell akkreditierte Organisationen oder Institutionen, die von Plattformen bevorzugt behandelt werden, wenn sie Inhalte melden, die ihrer Ansicht nach gegen Gesetze oder Richtlinien verstoßen. Der Status als Trusted Flagger wird nach den Bestimmungen des Digital Services Act (DSA) der EU vergeben. Hierbei handelt es sich nicht um Einzelpersonen, sondern um Organisationen wie NGOs oder staatliche Institutionen, die besondere Expertise im Erkennen illegaler Inhalte haben und unabhängig von Plattformen agieren sollen. Diese Flagger genießen eine privilegierte Stellung und ihre Meldungen werden von Plattformen schneller und prioritär bearbeitet.
Chancen des Systems
- Effizientere Inhaltsmoderation: Trusted Flagger können Plattformen unterstützen, problematische Inhalte wie Hassrede, Desinformation oder Terrorpropaganda schneller zu identifizieren und zu entfernen.
- Schutz vor illegalen Inhalten: Durch den Einsatz von Trusted Flaggern in Verbindung mit KI-gestützten Moderationstools kann die Verbreitung illegaler Inhalte effektiver verhindert werden.
Der AI Act und seine Auswirkungen auf Trusted Flagger
Der AI Act sieht vor, dass KI-Systeme, die zur Inhaltsmoderation eingesetzt werden, streng reguliert und als „Hochrisiko-Anwendungen“ behandelt werden. Im Zusammenspiel mit Trusted Flaggern könnten KI-gestützte Moderationstools dazu führen, dass Inhalte automatisiert entfernt werden, ohne menschliche Überprüfung. Diese automatisierte Zensur birgt das Risiko, dass legitime Meinungsäußerungen unterdrückt werden, insbesondere wenn KI-Algorithmen nicht in der Lage sind, den Kontext oder die Nuancen von Inhalten korrekt zu bewerten.
Zensur und Meinungsfreiheit
Die Verknüpfung von Trusted Flaggern und KI bringt ernsthafte Gefahren für die Meinungsfreiheit mit sich. Falschpositive, bei denen harmlose Inhalte fälschlicherweise als illegal eingestuft und entfernt werden, sind eine bekannte Schwachstelle. Darüber hinaus könnte der privilegierte Zugang der Trusted Flagger dazu führen, dass bestimmte politische oder kontroverse Perspektiven systematisch unterdrückt werden. Laut dem DSA müssen Trusted Flagger transparent und unabhängig agieren, doch es gibt Bedenken, dass nicht alle dieser Akteure vollkommen unabhängig von den Plattformen oder staatlichen Einflüssen sind.
NetzDG und statistische Einblicke
Das Netzwerkdurchsetzungsgesetz (NetzDG) verlangt von Plattformen, gemeldete Inhalte innerhalb von 24 Stunden zu prüfen und gegebenenfalls zu entfernen. Im Jahr 2022 gab es mehr als 1,7 Millionen Beschwerden, von denen etwa 65 % zu Löschungen oder Sperrungen führten. Zusätzlich wurden über 500 Strafverfahren wegen Verstößen gegen das NetzDG eingeleitet. Diese Zahlen verdeutlichen, dass die Auswirkungen von Inhaltsmoderation bereits spürbar sind, und dass erhebliche Eingriffe in die Meinungsfreiheit stattfinden.
Gerichtliche Kontrolle und Transparenz
Um sicherzustellen, dass die Inhalte fair und verhältnismäßig moderiert werden, ist eine gerichtliche Kontrolle unerlässlich. Der AI Act fordert Mechanismen, um Entscheidungen, die durch KI-Moderation oder Trusted Flagger getroffen wurden, rechtlich überprüfen zu können. Gerichte sollten die Möglichkeit haben, unfaire oder voreilige Löschungen rückgängig zu machen und dafür zu sorgen, dass die Grundrechte, insbesondere die Meinungsfreiheit, geschützt bleiben.
Mehr Transparenz und Kontrolle erforderlich
Das Zusammenspiel von Trusted Flaggern, KI und dem NetzDG bietet eine wirksame Möglichkeit, illegale Inhalte zu bekämpfen, doch es bringt auch erhebliche Risiken für die freie Meinungsäußerung und den öffentlichen Diskurs mit sich. Transparenz, gerichtliche Kontrolle und eine klare Regulierung des Einsatzes von KI in der Inhaltsmoderation sind entscheidend, um sicherzustellen, dass legitime Inhalte nicht ungerechtfertigt zensiert werden. Der Schutz der Grundrechte muss dabei im Vordergrund stehen.
Durch die Optimierung des Trusted Flagger-Systems in Verbindung mit KI und einer starken gerichtlichen Überprüfung könnte das Gleichgewicht zwischen effektiver Moderation und der Wahrung der Meinungsfreiheit gefunden werden.