Flagging Trusted Flaggers – Verfassungsblog – Go Health Pro

Zur Rolle vertrauenswürdiger Hinweisgeber unter dem Digital Services Act

Der DSA zeigt praktische Wirkung und sorgt weiterhin für rechtspolitische Diskussionen. Nachdem die Bundesnetzagentur den ersten vertrauenswürdigen Hinweisgeber (Trusted Flagger) benannt hat, werden Vorwürfe der Zensur, übermäßigen Einschränkung der Meinungsfreiheit und fehlenden Erforderlichkeit solcher Stellen laut. Für Wirbel hat auch eine Pressemitteilung der Bundesnetzagentur gesorgt, die leicht misszuverstehen war; Desinformationen und rechtswidrige Inhalte wurden in den Diskussionen vermischt. Dabei ist das Konzept der Trusted Flagger keinesfalls neu oder eine Idee das DSA und das Vorgehen gegen illegale Inhalte im Netz weiterhin eine große Herausforderung in demokratischen Gesellschaften. Der DSA schafft klare Vorgaben für Trusted Flagger und transparente Verfahren.

Desinformation, Demokratie und der DSA

Zahlreiche Analysen zeigen, dass die durch Aufmerksamkeitslogik definierte algorithmische Informationsverbreitung im digitalen Raum nicht an den Kriterien von Fakten, Qualität oder Verifizierbarkeit ausrichtet, sondern nach den ökonomischen Interessen der Unternehmen, die eine massenhafte Datenextraktion von Nutzer:innen verfolgen. Das führt dazu, dass polarisierende, auf Affekte ausgerichtete Inhalte durch selbstverstärkende Effekte weite Verbreitung finden, sich faktenbasierte, informatorisch wertvolle Inhalte hingegen weniger durchsetzen.

Gefahren für Demokratien, gegen die sich zur Wehr gesetzt werden sollte, sind in der Regel multikausal und deshalb selten in einem klassischen Kausalschema identifizierbar. Dies gilt auch für Desinformationen. Zunächst bestehen unterschiedliche Risiken für Wahlen, demokratische Institutionen oder die freie Meinungsbildung. Einen eindeutigen empirischen Nachweis für die kausale Beeinträchtigung demokratischer Prozess durch bestimmte, präzise identifizierbare Desinformationen liegt meines Wissens bisher nicht vor. Beispielsweise konnte bisher nicht belegt werden, dass der Cambridge Analytica Skandal die US-Wahl 2016 beeinflusst hat. Dies ist aufgrund der Komplexität des Themenfeldes auch wenig verwunderlich, da die beschriebenen multikausalen Einflüsse, die erforderliche Selbsteinschätzung von befragten Personen ebenso eine Rolle spielen. Dieser Befund lässt aber keinesfalls den Umkehrschluss zu, dass Desinformationen keinen Einfluss hätten oder unproblematisch sind.

Ohne hier auf die unterschiedlichen Demokratietheorien eingehen zu können, setzen demokratische Prozesse freie und informierte Entscheidungen und damit Autonomie der Büger:innen voraus. Desinformationen hingegen verfolgen das Ziel einer Manipulation und untergraben damit einen faktenbasierten öffentlichen Diskurs. Aufschlussreich ist dazu eine Studie der Bertelsmann Stiftung, der zufolge 81% der Deutschen Desinformationen als Gefahr für eine Demokratie ansehen. Fast die Hälfte der befragten Personen sind sich unsicher, ob Informationen im Internet der Wahrheit entsprechen. Demokratien müssen deshalb vor skalierbaren Desinformationen, wie durch Verbreitungen in sozialen Netzwerken geschützt werden.

Wehrhafte Demokratie ist die Verteidigung gegen feindliche Bestrebungen, es handelt sich dabei aber nicht um einen feststehenden Rechtsbegriff, sondern um ein bedeutungsoffenes Konzept. Das Bundesverfassungsgericht sieht wehrhafte Demokratie in Art. 9 Abs. 2, Art. 18 und Art. 21 Abs. 2 GG verankert (BVerfGE 144, 20 – 367, Rn. 418). Es soll gewährleistet werden, „dass Verfassungsfeinde nicht unter Berufung auf die Freiheiten, die das Grundgesetz gewährt, und unter ihrem Schutz die Verfassungsordnung oder den Bestand des Staates gefährden, beeinträchtigen oder zerstören“. Zu Recht sind Instrumente wie ein Parteienverbot die ultima ratio. Demokratieschutz beginnt aber bereits unterhalb dieser Schwelle und dies schlägt die Brücke zum Vorgehen gegen Desinformationen. Eine gemeinsame Faktengrundlage ist Voraussetzung demokratischer Diskussionen auf deren Grundlage Bürger:innen frei von Manipulationen entscheiden sollen. Die Pflege dieser Grundlage ist notwendige „Demokratiehygiene“, die in digitalen Kontexten besonderer Aufmerksamkeit bedarf.

In Bezug auf das Vorgehen gegen Desinformationen führt dies auf einen schmalen Grat zwischen demokratischer Selbstbehauptung und totalitären Beschränkungen, den es sich aber dringend zu definieren lohnt. Dabei ist die Wahl der Mittel entscheidend: Idealerweise wären alle Bürger:innen durch entsprechende Medienkompetenz in der Lage, Desinformationen zu erkennen und staatliche Interventionen infolgedessen obsolet. Allerdings stößt auch das Argument zur demokratischen Bildung dort an Grenzen, wo Menschen gezielt manipuliert werden, Informationen nicht mehr überschaubar und Prozesse wie algorithmische Inhaltsmoderation nicht verständlich sind. Der Schutz der Demokratie ist zudem inhärent präventiv ausgerichtet, weshalb der offene empirische Forschungsstand zu Desinformationen kein Argument gegen entsprechende Bestrebungen ist.

Auf unionsrechtlicher Ebene erkennt der DSA dies ausdrücklich an und kodifiziert systemische Risiken, die über das bilaterale Verhältnis zwischen Nutzer:in und Plattform hinausgehen und ganze Gesellschaften betreffen. Dazu zählen nach Art. 34 auch nachteilige Auswirkungen auf die gesellschaftliche Debatte, Wahlprozesse und die öffentliche Sicherheit, die von sehr großen Online-Plattformen überwacht werden müssen. Auch die konkrete Verpflichtungen zur Risikominderung nach Art. 35 DSA stehen in einem komplexen Spannungsfeld zur Meinungsfreiheit, denn eine übermäßige Zurückdrängung bestimmter Meinungen kann wiederum selbst demokratiegefährdend sein. Deshalb sind ein Ausgleich zwischen verschiedenen Interessenpolen und Akteuren, sowie entsprechend rechtlich flankierte Verfahren unerlässlich.

Illegale Inhalte vs. „legal but harmful content“

Desinformationen sind nicht zwingend illegale Inhalte, sie können es aber sein. Der Begriff der Desinformation ist kein Rechtsbegriff und wird vom DSA – anders als die illegalen Inhalte – auch nicht definiert. Dass die Bundesnetzagentur nun die Meldestelle “REspect!” der Stiftung zur Förderung der Jugend in Baden-Württemberg zum ersten Trusted Flagger ernannt hat, rief aufgeregte Gegenreaktionen hervor. Dazu hat wohl auch eine unpräzise Pressemitteilung der Bundesnetzagentur beigetragen, die sich im Kontext der Trusted Flagger auf „Illegale Inhalte, Hass und Fake News“ bezog. Hass und Fake News gehen über den Wortlaut des Art. 16 DSA hinaus, der ausdrücklich nur von rechtswidrigen Inhalten spricht. Rechtswidrige Inhalte sind im demokratischen Diskurs schlicht unerwünscht und die Entscheidung darüber, was rechtswidrig ist, wird durch den Gesetzgeber getroffen. Dies stellte Klaus Müller, der Präsident der Bundesnetzagentur in der Pressemitteilung zur Benennung des ersten Trusted Flaggers in Deutschland auch klar: „Was illegal ist, entscheiden weder Trusted Flagger noch die Bundesnetzagentur.“ Nicht alle illegalen Inhalte auf Online-Plattformen führen zu komplexen Abwägungsentscheidungen hinsichtlich der Meinungsfreiheit; Darstellungen sexualisierter Gewalt oder Urheberrechtsverstöße sind in vielen Fällen eindeutige Rechtsverstöße.

Trusted Flagger unter dem DSA

Ausgehend vom Ziel des DSA, ein vertrauenswürdiges und sicheres Online-Umfeld zu schaffen, sollen Trusted Flagger (vertrauenswürdige Hinweisgeber) dazu beitragen, rechtswidrige Inhalte zu bekämpfen (Art. 16 DSA).

Art. 22 Abs. 1 DSA verpflichtet Online-Plattformen, die erforderlichen technischen und organisatorischen Maßnahmen zu ergreifen, damit Meldungen von Trusted Flaggern vorrangig behandelt, unverzüglich bearbeitet und einer Entscheidung zugeführt werden. Die Entscheidung über die Inhalte verbleibt bei den Plattformen, es handelt sich vielmehr um eine verfahrensbezogene Regelung, die bestimmte Meldungen im Mechanismus des Art. 16 DSA priorisiert. Um den Status eines Trusted Flaggers zu erlangen, müssen die Stellen besondere Sachkenntnis und Kompetenz in Bezug auf die Erkennung, Feststellung und Meldung rechtswidriger Inhalte nachweisen, von Online-Plattformen unabhängig sein und ihre Tätigkeit sorgfältig, genau und objektiv ausüben (Art. 22 Abs. 2 a-c DSA). Trusted Flagger unterliegen Berichtspflichten über ihre Tätigkeit (Art. 22 Abs. 3 DSA) und ihr Status ist widerrufbar (Art. 22 Abs. 6 DSA), insbesondere auch als mögliche Konsequenz auf zahlreiche, unpräzise, ungenaue und unzureichend begründete Meldungen (Art. 22 Abs. 6 DSA).

Zensurvorwurf und staatliche Abhängigkeit

An verschiedenen Stellen wurde der Vorwurf der Zensur und dadurch Eingriff in die Meinungsfreiheit erhoben; schon begrifflich ein Fehlgriff, da Art. 5 Abs. 1 S. 3 GG bekanntermaßen nur die staatliche Vorzensur umfasst, es aber um die Entfernung bereits veröffentlichter Inhalte geht und Trusted Flagger gar keine inhaltliche Entscheidung treffen. Dass sich deutschlandweit eine unüberschaubare Anzahl an Trusted Flaggern etabliert, wie zum Teil suggeriert wurde, ist ebenfalls unwahrscheinlich und ausdrücklich kein Ziel des DSA („Um den Mehrwert eines solchen Verfahrens nicht zu mindern, sollte die Gesamtzahl der gemäß dieser Verordnung anerkannten vertrauenswürdigen Hinweisgeber begrenzt werden“, Erwgr. 61).

Substanzieller ist die Kritik an der staatlichen Unabhängigkeit einer Meldestelle, die staatlich finanziert wird. Der Wortlaut des DSA fordert nach Art. 22 Abs. 2 c) eine Unabhängigkeit der Trusted Flagger von Online-Plattformen, nicht aber von staatlichen Stellen. Darüber hinaus können auch Behörden selbst als Trusted Flagger fungieren. ErwG 61 S. 4 des DSA nennt ausdrücklich auch „öffentliche Einrichtungen“. Ob Trusted Flagger Beliehene sind und ihr Verhalten daher dem Staat zurechenbar ist, was aufgrund der prima facie nicht ersichtlichen Verwaltungsaufgabe („Weitergabe von Meldungen von Nutzer:innen an Online-Plattformen“) fraglich ist, kann dahinstehen. Denn Fragen des Rechtsschutzes entfalten sich nicht auf der Ebene der Trusted Flagger, sondern richten sich gegen die Entscheidungen der Plattformen, sei es durch Anrufung staatlicher Gerichte oder einer außergerichtlichen Streitbeilegungsstelle nach Art. 21 DSA.

Dass staatliche und nichtstaatliche Akteuren eng zusammenarbeiten, wurde aufgrund von „Transparenzgesichtspunkten“ als problematisch angesehen. Der DSA hingegen schafft Berichts- und Transparenzpflichten der Trusted Flagger über die eingereichten Meldungen im Jahresturnus (Art. 22 Abs. 3), die öffentlich zugänglich sein müssen. Die Berichte müssen eine Erläuterung der Verfahren enthalten, worüber sichergestellt werden soll, dass die Hinweisgeber unabhängig sind. Die Kommission veröffentlicht zudem eine öffentliche Datenbank der zertifizierten Stellen nach Art. 22 Abs. 5 DSA. Im Vergleich zu anderen Kooperationen zwischen Staat und Privaten, z.B. im Bereich der Nutzung privater Softwareprogramme im Bereich des Sicherheitsrechts, sind die Tätigkeit der Trusted Flagger öffentlich zu dokumentieren und damit kontrollierbar. Dagegen spricht auch nicht, dass die nun nach Art. 22 DSA zertifizierte Stelle unabhängig vom DSA als Kooperationspartner der Zentralen Meldestelle für strafbare Inhalte des BKA anerkannt war. Denn auch in diesem Mechanismus liegt die Prüfung des Anfangsverdachts bei den Strafverfolgungsbehörden und nicht bei der Meldestelle selbst.

Angefeuert von gezielten Diffamierungskampagnen rechtspopulistischer Medien übersieht die aufgeregte Diskussion um Trusted Flagger dabei das Wesentliche: Es handelt sich bei Art. 22 DSA um eine Verfahrensvorschrift, die in Bezug auf die Inhaltmoderation lediglich eine zeitliche Priorisierung regelt und zugleich Anforderungen an die hinweisgebenden Stellen etabliert. Auch ohne Art. 22 DSA steht es den Mitgliedstaaten frei, öffentliche oder private Stellen zu finanzieren, die rechtswidrige Inhalte an Online-Plattformen melden. Die inhaltliche Entscheidung über rechtswidrige Inhalte verbleibt hingegen bei den Plattformen. Hierbei stellen sich komplexe Fragen der Grundrechtsgeltung und -bindung, die aber nichts mit den Trusted Flaggern zu tun haben. Die Wirkung der Trusted Flagger wird damit maßlos überschätzt. Die Aufsichtsbehörden des DSA mit einem Vielfachen an Ressourcen auszustatten, um die Pflichten der Plattformen nach Art. 16 und anderen Vorgaben schärfer zu überwachen dürfte einen wesentlich stärkeren Effekt haben. Zudem sind die Plattformen weiterhin verpflichtet, auch alle übrigen Meldungen zeitnah, sorgfältig und nicht willkürlich zu bearbeiten, vgl. Erwgr. 61 S. 1 DSA. Es handelt sich damit auch nicht um einen absoluten, sondern relativen Vorrang der Behandlung von Trusted Flagger-Meldungen, denn auch Online-Plattformen unterliegen dem faktischen „Vorbehalt des Möglichen“.

Kritikwürdig ist allerdings die Wahl der Personalie: Die zuständigen Koordinatoren für digitale Dienste müssen nach Art. 50 Abs. 2 DSA völlig unabhängig, frei von äußeren Einflüssen und weisungsunabhängig sein. Wie man diese Anforderung nun bewerten mag, ist eine andere Frage (dazu aufschlussreich: Buchheim), sie ist aber geltendes Unionsrecht. Unabhängig von der konkreten Person wäre es wünschenswert gewesen, die kommissarische Leitung gerade nicht dem Chef der Bundesnetzagentur zu übertragen, der dem Bundeswirtschaftsministerium untersteht.

Trusted Flagger als unnötige Einrichtung?

Der überzeugendste Einwand gegen die Trusted Flagger mag die Frage nach der Notwendigkeit sein. Warum braucht es nun eine weitere Vorschrift, die bürokratischen Aufwand durch zusätzliche Verfahrensregelungen schafft? Idealerweise würden sich Trusted Flagger faktisch etablieren und auch ohne die besonderen Anforderungen des Art. 22 DSA als kompetente Hinweisgeber hervortun, deren Meldungen dann von den Plattformen vorrangig behandelt werden. Denn es liegt auch im Interesse der Plattformen, dadurch ihren Pflichten zur Inhaltsmoderation nachzukommen.

Multipolare Governance-Strukturen sind kompliziert. Im Bereich der Plattformregulierung hat sich hingegen seit Langem gezeigt, dass die tradierten Aufsichtsschemata nicht in der Lage sind, Rechtsvorgaben gegen die Mechanismen digitaler Plattformen effektiv durchzusetzen. Trusted Flagger sind demnach ein Versuch der Vollzugsoptimierung; die geprüfte Unabhängigkeit und Sachkunde begründet ihre prioritäre Behandlung. Trusted Flagger können dazu beitragen, Standards und Praktiken in Bezug auf das Verfahren (nicht den Inhalt) der Meldung rechtswidriger Inhalte zu harmonisieren und effektiver zu gestalten.

Einen Versuch ist es wert

Der im Gesetzgebungsverfahren verworfene Vorschlag, den Status der Trusted Flagger alle zwei Jahre zu erneuern, wäre für die Absicherung der Unabhängigkeit sinnvoll gewesen, da es sich um eine „Dauerpflicht“ handelt. Die Effektivität eines mehrpoligen, komplexen Aufsichtsregimes des DSA wird sich letztlich in der Praxis zeigen. Dabei ist es wünschenswert, dass insbesondere in grundrechtsensiblen Bereichen wie der Plattformregulierung weitere Akteure geschaffen oder einbezogen werden, wie die durch den Zugangsanspruch adressierten Forscher:innen (Art. 40 Abs. 2 DSA), die außergerichtlichen Streitbeilegungsstellen (Art. 21 DSA) und eben die Trusted Flagger. Auch über den DSA hinaus setzt der Unionsgesetzgeber auf neue Governancestrukturen: Gremien zur Stärkung der Vollzugskohärenz (Art. 65 KI-VO), die Institutionalisierung von Expert:innenwissen (Art. 68 KI-VO) in der KI-VO oder die zentralen Datenintermediäre des Data Acts (Art. 10 DA). Im mediennahmen Bereich der Plattformregulierung sind pluralistische Stimmen essentiell für einen ausgewogenen Diskurs. Die Intention, zumindest eine Möglichkeit zu schaffen, neben öffentlichen Stellen auch zivilgesellschaftliche Institutionen einzubinden ist ein Instrument, das sich zumindest ausprobieren zu lohnt.

 

Die Autorin dankt Daniel Hauck für hilfreiche Anmerkungen.

Transparenzhinweis: Die Autorin ist Mitglied des Advisory Boards bei user-rights.org.

Leave a Comment

x