Wahlen in der wehrhaften Plattform-Demokratie – Go Health Pro

Warum Art. 34-35 DSA den systemischen Risiken dieses Bundestagswahlkampfs kaum abhelfen konnte

Die Integrität der anstehenden Bundestagswahl und zukünftiger europäischer Wahlen ist von Einflussnahmen über soziale Netzwerke bedroht. Eine Abhilfe soll der Digital Services Act (DSA) darstellen, der nicht nur von Bundesdigitalminister Wissing als ein „scharfes Schwert“ gegen Wahlmanipulation angesehen wird. Die erst 2024 vollständig in Kraft getretene EU-Verordnung nimmt Online-Plattformen und ihre Inhaltsmoderation in den Fokus – aber vermag sie auch den systemischen Risiken des derzeitigen Wahlkampfes abzuhelfen? Die Online-Plattformen selbst scheinen nur bedingt vorbereitet, aber auch die Vorschriften des DSA versprechen ob ihrer Flexibilität und Entwicklungsoffenheit anstatt einer schnellen Hilfe nur eine langfristig angelegte Lösung. In diesem Blogbeitrag werden zunächst drei Möglichkeiten der Einflussnahme auf den Wahlkampfdiskurs skizziert, die verstärkt transnational erfolgen. Anschließend wird aufgezeigt, dass der DSA den systemischen Risiken der Wahlkampfmanipulation jedenfalls nicht kurzfristig begegnen kann – mit einer Ausnahme, die aber ihre eigenen Probleme aufweist.

Integrität der Wahl zwischen Desinformation, Reichweitenungleichheit und Hassrede

In wenigen Tagen findet die Wahl zum 21. Deutschen Bundestag statt – doch schon länger steht fest, dass die Integrität des wahlbezogenen Diskurses nicht vollumfänglich gewährleistet ist. Im Zentrum der Aufmerksamkeit stehen dabei insbesondere der öffentliche Diskurs und die damit verbundene politische Meinungsbildung, welche sich zunehmend in den digitalen Raum verschoben haben. Doch auch im Internet gilt: Freie Wahlen und damit eine funktionale Demokratie setzen gerade in Wahlkampfzeiten voraus, dass der öffentliche Diskurs angemessen frei von unzulässigen Einflüssen stattfinden kann. Leider stellte sich im aktuellen Wahldurchgang schon frühzeitig heraus, dass diskursmaßgebliche Online-Plattformen wie Facebook, TikTok und Co. ein Einfallstor für Manipulationsversuche des Wahlkampfes darstellen. Drei Aspekte stehen im Folgenden im Fokus: Desinformation, Reichweitenungleichheit und Hassrede.

Prominent warnte etwa der Verfassungsschutz bereits im November vor einer „ausländischen Einflussnahme durch Desinformation und Propaganda“; drei Monate später folgte die Bundesregierung mit Warnungen vor russischer Desinformation, nachdem einzelne Desinformationskampagnen wie „Storm-1516“ oder „Doppelgänger-Webseiten“ durch NPOs aufgedeckt werden konnten. Ein einschlägiger Aktionsplan gegen Desinformation konnte dennoch nicht vor der Bundestagswahl fertiggestellt werden. Besonders fatal an dieser gezielten Irreführung durch Falschinformation: Obwohl eine deutliche Mehrheit in Deutschland in Desinformation bereits eine Gefahr für die Demokratie und den gesellschaftlichen Zusammenhalt erkennt, fehlt es häufig an der nötigen Informationskompetenz, Desinformation auch als solche zu entlarven – bei deutschen Jugendlichen etwa besteht in dieser Hinsicht deutlicher Förderbedarf. Doch obwohl Desinformation das wahrscheinlich prominenteste Mittel der unzulässigen Einflussnahme darstellt, machen sich andere Instrumente die Eigenheiten von Online-Plattformen besonders zu Nutze.

Die Reichweite von Inhalten oder Accounts bestimmt sich auf sozialen Netzwerken durch Algorithmen – und wer hinter dem Netzwerk steht, bestimmt über die Algorithmen. Dass dies zu einer Reichweitenungleichheit führen kann, ließ sich zuletzt auf X beobachten: Plattform-Eigentümer Musk führte dort prominent ein Gespräch mit AfD-Politikerin Weidel, woraufhin Forschende des HIIG feststellen konnten, dass Weidel durch Musks Einfluss auf X von höheren Reichweiten als alle anderen deutschen Politiker:innen profitierte – auch die Bundestagsverwaltung leitete eine Prüfung aufgrund des Verdachts der illegalen Parteispende aus dem Ausland ein. Das Beispiel verdeutlicht, dass in sozialen Netzwerken nicht nur Staaten wie Russland, sondern auch Einzelpersonen erheblichen Einfluss auf den öffentlichen Diskurs in Deutschland nehmen können. Dabei ist aber nicht aus dem Blick zu verlieren, dass losgelöst von den Handlungen mächtiger Einzelakteure auch in den Online-Plattformen selbst antidemokratisches Gefährdungspotential besteht.

Insbesondere die private Einschüchterung durch Hassrede, welche sich „überwiegend gegen gesellschaftliche Minderheiten richtet“, kann etwa zu einem gesellschaftlichen Abschreckungseffekt (silencing effect) führen, der nicht nur in Hinblick auf partizipative Demokratie- und Diskurstheorien zu problematisieren ist: Marginalisierte Gruppen werden durch Hassrede gezielt aus dem öffentlichen Diskurs gedrängt, da sie sich aus Angst digitalen Hass zu erfahren, aus diesem zurückziehen (vgl. Markard/Bredler, 2021; Hoven/Witting, 2021; Eifert/Wiendorf, 2023). Es überrascht also nicht, dass die meisten Menschen weltweit in Bezug auf soziale Medien inzwischen eine uneingeschränkte Meinungsfreiheit ohne Inhaltsmoderation ablehnen.

Transnationalisierung der wehrhaften Demokratie

Obwohl die skizzierten Einflussmaßnahmen nur eine Auswahl darstellen können – man denke etwa an social bots, Mikrotargeting, etc. – zeigt sich an ihnen bereits, dass der deutsche Wahlkampfdiskurs längst nicht mehr nur durch Manipulationen aus dem Inland bedroht ist. Dieser Paradigmenwechsel findet sich auch in der öffentlichen Wahrnehmung wieder: Nachdem die Wahlen im EU-Beitrittskandidaten Moldau und EU-Mitgliedsstaat Rumänien merklich unter russischem Einfluss litten, rechnen laut repräsentativer Umfrage des Branchenverbandes Bitkom 88 % der deutschen Bevölkerung mit einer Beeinflussung der Bundestagswahl durch ausländische Akteure über soziale Medien. Demokratien müssen sich nicht nur gegen inländische Bedrohungen, sondern auch gegen unzulässige ausländische Einflussnahme wehren. Im Hinblick auf den aktuellen Wahlkampf zeigt sich bei den maßgeblichen Akteuren weiterhin, dass sich die Methoden dabei durchaus unterscheiden.

Da wäre zum einen Russland, in der Bitkom-Umfrage als wahrscheinlichster Wahlmanipulator eingeschätzt, was sich auch durch Russlands diesbezügliche Erfolge in Deutschland bestätigen lässt. Einer Studie der Friedrich-Naumann-Stiftung zufolge verbreitet sich russische Desinformation insbesondere unter jungen Menschen. Für seinen Informationskrieg bedient sich Russland maßgeblich Fake-Accounts auf in Europa genutzten sozialen Netzwerken, was auch dadurch bedingt ist, dass derzeit keine populäre Online-Plattform in Europa russischen Ursprungs ist. Entsprechend bleibt Russland neben Fake-Webseiten vor allem die Einflussnahme durch die Verbreitung von Inhalten auf sozialen Netzwerken, wie bei Desinformation und Hassrede – etwaige Gegenmaßnahmen müssen also bei der Inhaltsmoderation auf Online-Plattformen ansetzen.

Der in der Bitkom-Umfrage am zweithäufigsten genannte Akteur, die Vereinigten Staaten, können hingegen den Vorteil nutzen, dass es zumeist amerikanische Unternehmen sind, welche hinter den meistgenutzten Online-Plattformen in Europa stehen. Entsprechend erweitern sich die Methoden der Einflussnahme, wie das Musk-Weidel-Gespräch exemplifiziert; man denke auch an eine politisch motivierte Anpassung der algorithmischen Empfehlungssysteme. Insbesondere mit dem zweiten Amtsantritt von Donald Trump und seinem Einfluss auf die amerikanische Tech-Branche ist zu befürchten, dass die Unternehmen hinter den sozialen Netzwerken versuchen werden, sich derart gestützt einer europäischen Regulierung zu entziehen. Nicht ohne Grund – um dem Risiko ihrer unzulässigen Einflussnahme per Online-Plattformen entgegenzuwirken, erscheint eben diese Regulierung besonders wichtig.

Damit stellen die aktuellen europäischen Wahlen insbesondere den DSA vor einen weiteren Praxistest: Als Aushängeschild einer neuen Online-Plattformregulierung muss die junge EU-Verordnung jetzt zeigen, inwieweit sie den aufgezeigten Einflussmaßnahmen begegnen kann.

Art. 34-35 DSA und die systemischen Risiken einer Wahl

Obwohl der DSA nicht nur mit Blick auf den Diskurs im Wahlkampf erlassen worden ist, dienen seine Sorgfaltspflichten für digitale Vermittlungsdienste, gestaffelt nach ihrer Art und Größe, auch diesem Zweck. Mit Blick auf die einzelnen Vorschriften des DSA (156 Erwägungsgründe, 93 Artikel) gibt es somit viele, die man zu Gegenmaßnahmen einer Diskursmanipulation zählen könnte. Dazu gehören etwa Vorschriften über faire AGB (Art. 14), Begründung von Moderationsentscheidungen (Art. 17), Meldeverfahren (Art. 16), internes Beschwerdemanagement (Art. 20), Empfehlungssysteme (Art. 27, 38), diverse Transparenzpflichten (Art. 15, 24, 26, 39, 42), Selbstverpflichtungen durch Verhaltenskodizes (Art. 45) oder der Datenzugang für Forschende (Art. 40). Sie alle sind Mosaiksteine, die im Einzelnen unterschiedliche Aspekte digitaler Vermittlungsdienste regulieren, in der Gesamtschau aber den Gefahren unzulässiger Einflussnahme im Wahlkampfdiskurs entgegenwirken können. Dazu braucht es einen Kit zwischen den einzelnen Steinen, der das Systemische, die Breite einer Beeinflussung des Wahlkampfdiskurses in den Blick nimmt: Das Herzstück des DSA ist die Pflicht zur Bewertung und Minderung systemischer Risiken nach Art. 34, 35 DSA.

Im Rahmen der abgestuften Sorgfaltspflichten des DSA richten sich die Artikel an Anbietende von Online-Plattformen mit mehr als 45 Millionen monatlichen Nutzenden in der EU, sogenannte „very large online platforms“ (VLOPs), welche die meisten Sorgfaltspflichten treffen und die von der EU-Kommission beaufsichtigt werden. Sie müssen neben weiteren systemischen Risiken auch solche der „tatsächlichen oder absehbaren nachteiligen Auswirkungen auf die gesellschaftliche Debatte und auf Wahlprozesse und die öffentliche Sicherheit“ bewerten, die sich aus dem Betrieb oder der Nutzung ihrer Dienste ergeben (Art. 34 DSA). Darauf folgt gegebenenfalls die Pflicht zur Ergreifung angemessener, verhältnismäßiger und wirksamer Risikominderungsmaßnahmen (Art. 35 DSA), die vielfältig ausfallen und aus einer kombinierten Modifikation der eben genannten Mosaiksteine bestehen können.

Was auf den ersten Blick wie der erhoffte Rundumschlag gegen die skizzierten Einflussmaßnahmen wirken mag, offenbart auf den zweiten Blick jedoch Konzeptionsprobleme, die eine kurzfristige „Rettung“ des (deutschen) Wahlkampfs durch Art. 34f. DSA unwahrscheinlich erscheinen lassen. Zwar hat die EU-Kommission in Hinblick auf die EU-Parlamentswahlen 2024 Leitlinien zur Minderung systemischer Risiken von Wahlprozessen gemäß Art. 35 DSA erlassen, doch können diese Ergänzungen keine Abhilfe darstellen.

Da wären zum einen die allzu vagen und unbestimmt gehaltenen Formulierungen der Art. 34f. DSA, die nicht definieren, was unter einem „systemisches Risiko“ zu verstehen ist oder wann es vorliegt – dies haben zunächst die Unternehmen zu bewerten. Insbesondere bei gesamtgesellschaftlichen Problemen, die empirische Unsicherheiten aufweisen, wie etwa dem umstrittenen Konzept der Filterblasen, führt der DSA also zu einer Vorsorgeregulierung, die sich auf hinreichende Verdachtsmomente der Gefährdung stützt (vgl. Siegrist, 2025, S.128ff, 181ff.). Man wollte entwicklungsoffen auch für bei Verordnungserlass noch ungeahnte Risiken gewappnet sein und die Vorgaben daher flexibel halten. Fraglos ein ehrwürdiges Anliegen, das nun aber einen langwierigen Verständigungsprozess unter Einbeziehung vieler Akteure einfordert, um einen möglichst einheitlichen Einsatz von Risikominderungsmaßnahmen unter den VLOPs zu erzielen und damit Rechtssicherheit zu schaffen. Wie auch schon bei den ersten Transparenzberichten, zu denen der DSA aufforderte, zeigte sich bei den ersten Risikobewertungen durch VLOPs ein heterogenes Bild quantitativ wie auch inhaltlich erheblich voneinander abweichender Texte. Der insoweit noch zu bestreitende Weg gegenseitiger Angleichung und Standardisierung wird dadurch erschwert, dass den Unternehmen zunächst ein sehr großer Spielraum in der Risikobewertung und -minderung zugestanden wird: Die Wirksamkeit wird im Regelfall (sofern nicht anderweitig Verdacht besteht) erst anhand der zu übermittelnden Berichte (Art. 42 Abs. 4 DSA) überprüft, bevor bei unzureichenden Risikominderungsmaßnahmen Maßnahmen folgen.
Der Regulierungsansatz der Art. 34f. DSA basiert also auf dem Vertrauen in die besondere Expertise und Sachnähe, aber auch in eine gewisse Kooperationsbereitschaft der VLOPs. Die Normen wurden in einer Zeit konzipiert, als die Verantwortungsübernahme von (amerikanischen) Online-Plattformen noch zur „corporate brand“ gehörte – wovon nach dem zweiten Amtsantritt Trumps nicht mehr uneingeschränkt auszugehen ist.

Hinzu kommt der Zeitfaktor bei Art. 34f. DSA: Die Vorschriften stellen keine „schnelle Eingreiftruppe“ zur Rettung des Wahlkampfs bereit – weder hinsichtlich der Aktivierung im beschriebenen Ausarbeitungsprozess noch hinsichtlich der Konsequenzen bei einer möglichen Zuwiderhandlung. Selbst wenn sich – wie in der Wahl in Rumänien geschehen – außerhalb der von den VLOPs zu übermittelnden Risikoberichte hinreichende Indikatoren für eine unzureichende Risikobewertung und -minderung ergeben, leitet die für die Aufsicht zuständige EU-Kommission auch hier zunächst ein förmliches Verfahren zur Beweisermittlung ein – welches sich monatelang hinziehen kann. Vorschriften über die Dauer enthält der DSA nicht. Es ist nicht auszuschließen, dass sich ein Verfahren bei Einbeziehung des Europäischen Gerichtshof sogar über Jahre hinziehen könnte. Auf eine schnelle Lösung von systemischen Risiken ist der DSA nicht angelegt, vielmehr auf eine langfristige – mit einer Ausnahme.

Der Krisenreaktionsmechanismus als das eigentliche Instrument gegen systemische Risiken?

Zwölf EU-Mitgliedsstaaten, darunter auch Deutschland, forderten jüngst von der EU-Kommission „endgültige Maßnahmen“ zu ergreifen, um die Freiheit der Wahlen zu sichern. Als schnelles Hilfsmittel wäre Art. 36 DSA in Betracht gekommen: Er konstruiert einen sog. Krisenreaktionsmechanismus, der aktiviert werden kann, wenn „außergewöhnliche Umstände eintreten, die zu einer Bedrohung der öffentlichen Sicherheit oder der öffentlichen Gesundheit in der Union oder in wesentlichen Teilen der Union führen können“ (Abs. 2). Seine Anwendung erlaubt es der EU-Kommission, Anbietende sehr großer Online-Plattformen zur Ergreifung von Maßnahmen aufzufordern, darunter auch die gezielte Anwendung von Risikominderungsmaßnahmen.

Ein solcher Krisenreaktionsmechanismus könnte aktiviert werden, um schnelle Maßnahmen gegen Desinformation, Reichweitenungleichheit und Hassrede zu initiieren – der Begriff der öffentlichen Sicherheit wäre breit genug, um die Integrität der Wahl zu erfassen. Gleichzeitig ist der Mechanismus bürokratisch sehr aufwändig zu betätigen und erfordert als Initial die Empfehlung des Gremiums der europäischen DSA-Behörden. Noch gravierender schlägt aber wiederum die Rechtsunsicherheit im genauen Gehalt des Art. 36 DSA zu Buche: Aus seiner Lektüre ergibt sich nicht einmal ohne Weiteres, ob die Kommission die VLOPs verpflichten kann oder letztlich von deren Wohlwollen abhängig ist (eine Rechtspflicht ablehnend Hofmann/Raue/Marsch, 2023, Art. 36 DSA Rn. 15).

So schnell der DSA also auch in Brüssel beraten und erlassen wurde, so zäh ist der den Gerichten und der Rechtswissenschaft zugewiesene Klärungsprozess. Die Bundesnetzagentur zieht eine Aktivierung jedenfalls nicht in Erwägung. Der DSA konnte den aktuellen Wahlkampf also nicht kurzfristig vor einer Einflussnahme in den öffentlichen Diskurs mithilfe von sozialen Medien durch in- und ausländische Kräfte retten. Mithilfe der judicial und scientific community kann er aber dafür sorgen, dass diese Einflüsse bei einer in vier Jahren stattfindenden Bundestagswahl durch Art. 34f. DSA minimiert werden.

Leave a Comment

x