Copy
September 2021 | DRI Wahlkampf Monitor 2021 | Diese E-Mail im Browser ansehen

 

Research Brief: Ausgabe #3


In dieser September-Ausgabe des Research Briefs zum Online-Wahlkampf in den sozialen Medien wenden wir uns dem Schreckgespenst zu, das seit einigen Jahren durch den Wahlkampf geistert: der koordinierten Verbreitung irreführender Inhalte, auch als Desinformation oder Falschinformation bezeichnet.

Wir sehen uns einige Beispiele näher an und zeigen die schlechten, überwiegend jedoch die guten Seiten der Verbreitung dieser Inhalte im Bundeswahlkampf 2021 auf.

Das Wichtigste zu Beginn

  • Die großflächige Weiterverbreitung von YouTube-Videos auf Facebook, die wir in unserem ersten Rechercheüberblick schon erwähnt haben, sehen wir auch hier beim koordinierten Teilen von Inhalten. 
     
  • Viele der untersuchten Facebook-Gruppen haben dieselben Administratoren und auch Mitglieder, teilen jedoch identische Inhalte. Auf diese Weise können die Mitglieder dieselben Inhalte an mehreren Stellen liken und damit deren Beliebtheit und den Grad der Interaktion aufbauschen.
     
  • Die Nutzerkonten sind durchaus echt, nicht jedoch die Popularität der Inhalte.
     
  • In den sozialen Medien gab es Versuche, der Wahlmanipulation dienende Narrative zu verbreiten. Beide der von uns untersuchten Fälle schlugen fehl. Da diese Taktik jedoch wiederholt angewandt wird, müssen wir weiterhin wachsam sein.
     
  • Auch wenn uns keine manipulativen viralen Inhalte begegnet sind, lässt die Menge der problematischen Inhalte einen „Tod auf Raten“ befürchten, also Überdruss und Verwirrung angesichts der Wahlberichterstattung.

Ein Blick zurück

 

Wie die SPD aus der Versenkung auftauchte
 

Erinnert ihr euch an unseren ersten Rechercheüberblick, in dem wir ausführten, dass Olaf Scholz und die SPD nicht als bedrohlich empfunden werden, da beide kaum zum Gegenstand negativer Kampagnen werden?
 
Sieht man sich die aktuellen Umfragen an, so ist es offenbar von Vorteil, wenn man temporär von der Bildfläche verschwindet und beobachtet.
 

Aktuelle Umfragenwerte im Vergleich zu 2017

Trotz seiner nüchternen Art steigen die Beliebtheitswerte von Scholz (rot), über den seit dem TV-Triell am 29. August vermehrt in den sozialen Medien gesprochen wird.

Posts über die Kandidierenden auf Facebook vor und nach dem TV-Triell
Aus kommunikativer Sicht ist dies eine sehr interessante Entwicklung, da sich seine professionalisierte, inszenierte und daher sehr statisch wirkende Social-Media-Kampagne ohne direkte Interaktion mit der Community nicht wesentlich von der von Laschet oder Baerbock unterscheidet.  

Dennoch wurde das Augenmerk in den sozialen Medien hauptsächlich auf die Fehler und Skandale der anderen Kandidierenden gerichtet, wodurch Scholz' eigene Faux-Pas und seine recht komplexen (und daher schwer zu begreifenden) politischen Skandale, in die er involviert war, unbemerkt blieben.

Stattdessen ist das Gesicht von Scholz in der SPD-Kampagne allgegenwärtig: Scholz packt das an, so wie er es als Finanzminister in den letzten Jahren still und leise getan hat...ähnlich wie die derzeitige Kanzlerin Merkel. Das scheint die SPD-Kampagne jedenfalls zu suggerieren.

Werden die anderen Parteien darauf reagieren und bis zum 26. September schärfere Krallen ausfahren? Bisher haben wir noch keinen Anstieg an Anti-SPD- oder Anti-Scholz-Hashtags bemerkt - aber wir werden in den kommenden Wochen bis zur Wahl selbstverständlich ein Auge darauf haben.
Was wir gelernt haben

Irreführende Hinweise auf falsche Konten
 
Bei der Suche nach verdächtigen geteilten Inhalten auf Twitter war es anfänglich interessant zu beobachten, dass viele Tweets zu 100% identisch waren. Wir gingen davon aus, dass es sich um eine koordinierte Aktion handeln müsse, bei der dieselbe Meldung von vielen, möglicherweise Fake-Accounts gepostet würde.
 
Stattdessen entdeckten wir Usern, die dieselbe Meldung tagtäglich wieder posteten, und zwar über Monate hinweg. Ein Account postete eine tägliche Erinnerung, dass die Grünen unser Untergang seien, ein anderer postete jeden Tag mehrere Links über bekannte Skandale der Vergangenheit, an denen der CDU-Kandidat Armin Laschet beteiligt war. Dabei handelte es sich nicht um isolierte Fälle: Zahlreiche Accounts taten Ähnliches für viele Parteien.
 
Handelte es sich bei diesen Konten also um Bots? Einige gleichen angesichts der Retweet-Frequenz durchaus Bots, aber es gibt viele Online-Tools zur Planung und automatischen Versendung von Tweets, die auch von Influencern und ganz gewöhnlichen Usern eingesetzt werden.
 
In den sozialen Medien ist also nicht alles, wie es scheint, was wohl kaum jemanden überraschen dürfte.

Im Detail

Koordiniertes Teilen von Inhalten
 

Von Jesse Lehrke und Finn Klebe
 

Bislang ist im Bundestagswahlkampf noch keine große Lüge aufgetaucht.
Es gab jedoch eine ganze Menge potenziell manipulativer Inhalte, die aber lediglich aufgrund ihrer Anzahl bemerkenswert waren, nicht wegen ihrer Popularität oder Verbreitung. Der größte Teil dieser Inhalte baut auf leicht beobachtbaren Wahrheiten auf und spielt mit Stereotypen. Dabei werden sehr kleine Lügen und Übertreibungen so darin eingebaut, dass sie sich nur schwer entwirren lassen.
 
Aufgrund dessen sind Fake News ausgesprochen schwierig zu entdecken. Ebenso schwierig ist es, Fake User zu erkennen, nachdem durch die Pandemie die Nutzerzahlen insgesamt angestiegen sind.

Beschäftigen wir uns heute also nicht so sehr mit dem Unterschied zwischen Fake News und echten Nachrichten oder Bots im Gegensatz zu Menschen. Lasst uns stattdessen eingehender betrachten, welche Verhaltensweisen in den sozialen Medien bei der Verbreitung problematischer Inhalte auftreten.
 

Folgendes ist erwähnenswert:  

  • Das koordinierte Verbreiten politischer Inhalte kommt in vielen Kreisen vor, nicht nur bei problematischen Akteuren.
     
  • Viele AfD-Facebook-Gruppen mittlerer Größe haben dieselben Administratoren und auch Mitglieder und teilen dieselben Inhalte. Das wirft Fragen hinsichtlich der Authentizität auf, ist an sich jedoch nicht manipulativ. 
     
  • Die schiere Anzahl der Online-Gruppen, die die AfD unterstützen, verschafft Vorteile bei der Koordination. Sie erlaubt den Gruppen, einen Inhalt so zu pushen, dass dieser beliebter erscheint - oder die Interaktionsraten in AfD-nahen Gruppen in den sozialen Medien anzukurbeln.
     
  • Trotz dessen sind Versuche, kontroversere Narrative zu verbreiten, nicht über das Netzwerk der AfD-Unterstützer hinausgekommen. 

Was uns geteilte Inhalte verraten können
 

Oftmals stammen Falschinformationen aus zweifelhaften Quellen, die auf Anhieb verdächtig wirken. Eine Botschaft wirkt jedoch erst dann authentisch, wenn sie mehrfach dorthin weitergeleitet worden ist, wo sie von vielen Menschen wahrgenommen wird.
 
Sobald eine Nachricht in mehreren Gruppen geteilt worden ist, erkennt der Algorithmus dies und bewirbt den Inhalt bei anderen Gruppen und Personen, die in irgendeiner Weise mit den verbreitenden Gruppen verbunden sind, selbst wenn diese Verbindung lediglich in gemeinsamen „geliketen“ Inhalten an anderer Stelle auf Facebook besteht.
 
Auf diese Weise verbreiten sich Botschaften von ihrem Start-Cluster in ein neues Cluster. Die Personen in diesem Cluster teilen dann die Inhalte. Einige dieser Personen sind mit einem weiteren Cluster verbunden. Teilen Sie die Inhalte dort, werden sie quasi zu einem Zugang zum neuen Cluster
 
Visuell lässt sich dieses Muster der Verbreitung von Inhalten als Netzwerke vorstellen. Indem wir uns ansehen, wer einen Inhalt wann teilt, lassen sich mehrere nützliche Erkenntnisse hinsichtlich des Inhalts, der Zugehörigkeit der teilenden Personen und der Beziehung zwischen den Personen, die den Inhalt teilen, gewinnen.

Es braucht ein ganzes Dorf: Kommentieren, liken, teilen
 

Akteure verlassen sich jedoch nicht nur auf den Algorithmus, sondern versuchen auch, diesen zu manipulieren, damit er tut, was sie möchten, nämlich ihre Botschaft zu verbreiten.

Vorrangig geschieht dies durch eine koordinierte Verbreitung von Inhalten zur selben Zeit wie andere Akteure. Dieses Vorgehen zieht die Aufmerksamkeit des Algorithmus' auf sich, der dann durch weitere Verbreitung des Inhalts die Botschaft zusätzlich verstärken kann. Damit sich eine Nachricht gut verbreitet, müssen die Akteure in einem Netzwerk Verbindungen zu unterschiedlichen Personen haben, um so größere und neuartige Netzwerke erreichen zu können.

An dieser Stelle ist ein Beispiel für ein normales Verbreitungsnetzwerk eines populären Videos zu sehen, in diesem Fall ein gegen die CDU gerichtetes Video über die Klimakrise, das kürzlich vom deutschen YouTuber Rezo gepostet wurde. Rezos vielfältige Reichweite aktivierte mehrere eigene Verbreitungsnetzwerke, die dann zum Teil wieder in andere Netzwerk-Cluster hineinreichten.     
 

Das Entstehen eines viralen Videos: Shares innerhalb vier Minuten

(Eine detailliertere Darstellung ist hier zu finden)

Sehen wir uns eine Website an, die Meinungen aus dem rechten politischen Spektrum verbreitet: reitschuster.de. Hier sehen wir ebenfalls ein loses Verbreitungsnetzwerk, das mit zwei engeren Netzwerken verbunden ist.

Sieht man sich weiter an, wer etwas teilt, erkennt man, dass die gelben Cluster AfD-Gruppen sind und darin verstreut zudem ungarische Pro-Orban-Gruppen und Gruppen gegen die Coronamaßnahmen. Trotz Reitschusters Behauptung, „keine Ideologie“ zu haben, was neue Besucher der Seite in die Irre führen könnte, hat die Fanbasis eine deutliche ideologische Ausrichtung.
 
Shares von Reitschuster-Artikeln

Fehlt einem Akteur ein vielfältiges Netzwerk, dann verbleibt der Inhalt im Echoraum der Gruppe. Auf dem nächsten Bild werden beispielsweise die sieben am meisten angesehenen Videos über die AfD, manche positiv, andere negativ, auf koordinierte Weise geteilt. Die AfD-Blase ist besonders immun dagegen, dass andere Gruppen hineinkommen und Inhalte teilen. Die andere Blase scheint jedoch eine gewisse AfD-Präsenz zu haben, da zu den hier geteilten Videos auch Inhalte im Stil von Dokumentationen gehören, was für AfD-Anhänger:innen wie auch andere Personen von Interesse sein dürfte.

Blasen! 

Blasen können jedoch platzen: Durch die Follower einer Gruppe können ihre Inhalte einen höheren Verbreitungsgrad über andere Formen der Interaktion als das Teilen erreichen, z.B. durch Likes oder Kommentare.
 
Wenn ein erheblicher Anteil der Personen innerhalb einer bestimmten Gruppe von Usern mit einer Nachricht interagiert, und zwar mehr als erwartet (was bei Facebook als „Overperforming“ bezeichnet wird), glaubt der Algorithmus, dass dieser Inhalt auch bei anderen Personen Resonanz finden könnte und zeigt ihn mehr Nutzer:innen. Führt diese Nachricht in der Tat bei diesen Personen zu Resonanz, und sei es nur durch die hervorgerufene Entrüstung und daraus entstehende Reaktion, sieht sich der Algorithmus im Recht und verbreitet die Botschaft weiter, wodurch ein Schneeballeffekt ausgelöst wird.

Drei verschiedene Arten von koordiniertem Teilverhalten
 
  1. Automatisierte Bots werden dafür programmiert, dass sie Inhalte teilen, retweeten oder sogar mit diesen interagieren (z.B. liken oder kommentieren).
     
  2. Politische Organisationen und Personen stehen in Verbindung und entscheiden im Vorfeld gemeinsam, bestimmte Inhalte zu verbreiten.
     
  3. Aktive politische Organisationen und Personen, die leidenschaftlich an einem Thema interessiert sind, werden rasch auf neue Inhalte in ihrem Interessenbereich aufmerksam gemacht, was als Signal für eine Interaktion mit dem Inhalt fungiert. Diese unkoordinierte Koordination wird zuweilen als Stigmergie bezeichnet: die Koordination mehrerer Akteur:innen durch Signale in ihrer gemeinsamen Umgebung.


Von der Theorie zur Praxis: Teilen der Anti-Baerbock-Botschaft

 
In unserem letzten Rechercheüberblick ging es unter anderem um Kommentare zu YouTube-Videos, die bei Suchen nach verschiedenen Kandidierenden angezeigt wurden. Wie wir in Ausgabe #1 gesehen haben, werden YouTube-Videos häufig auf Facebook geteilt. Betrachten wir also einige dieser Verbreitungsmuster auf Facebook, insbesondere das Teilen innerhalb von Gruppen und auf Seiten auf Facebook - und ob die Bemühungen, bestimmte Inhalte zu forcieren, koordiniert ablaufen.
 
Baerbock ist das Lieblingsziel vieler User in den sozialen Medien, so dass wir uns hier auf sie konzentrieren. Wir haben 16 YouTube-Videos unter den 100 am häufigsten angesehenen YouTube-Videos identifiziert, die in unterschiedlichem Ausmaß Baerbock angreifen - sei es, dass einfach nur ihre politische Erfahrung und Karriere in Frage gestellt werden, bis hin zu mehr verschwörerischen Videos über ihr Verhalten.
 
Ein zentrales Anzeichen einer koordinierten Vorgehensweise ist das Verbreiten eines Videolinks innerhalb einer sehr kurzen Zeitspanne, üblicherweise bis höchstens vier Minuten. Wenn man zurückverfolgt, wie die Anti-Baerbock-Videos unter Facebook-Nutzer:innen in verschiedenen Clustern geteilt wurden, zeigen sich eine Reihe von Mustern. 

 

Shares von Anti-Baerbock-Videos

Jedes farbige Cluster teilt die Videos innerhalb eines kurzen Zeitfensters. Im blauen Hauptcluster, in dem am schnellsten geteilt wird, lässt sich anhand der Namen in der Gruppe erkennen, dass sie eng miteinander verbunden sind: „AfD-Stammtisch“ über „AfD-FanCLUB“ bis zu „Unterstützer der AFD Nr. X“ (gefolgt von verschiedenen Zahlen). 
 
Die Abbildung veranschaulicht auch die oben angesprochenen Zugänge zu neuen Clustern, über die violette und gelbe Punkte erreicht werden, die wiederum ihre eigenen Netzwerke bilden, wo Inhalte geteilt werden. Dehnt man die Verbreitungszeit auf 30 Minuten und dann mehrere Stunden aus, so zeigt sich, dass diese kleineren Cluster wachsen und in Verbindung mit noch weiteren Clustern treten.
 
Dass einige Namen in der Gruppe ähnlich sind und sich nur durch eine Zahl unterscheiden (z.B. „Unterstützer der AFD Nr. 3“), legt ein genaueres Hinsehen nahe. Bei der Untersuchung der Struktur der Gruppen zeigt sich, dass mehrere gemeinsame Administratoren haben, einschließlich Konten, die zwar Namen von Personen tragen, doch zum politischen Kontext gehören, und den Gruppen Personen angehören, die (wahrheitsgemäß oder nicht) als Mitarbeiter der AfD ausgewiesen sind.

Also alles andere als eine Basisinitiative.

Selbst die anderen Konten mit mehr Varianten bei den Namen, wie „AfD-Treffpunkt ❤️“, „AfD-Stammtisch“ und „AfD 51% - das ist unser Ziel !!!“, teilen diese identischen Administratoren.
 
Wir können nicht feststellen, ob diese Konten echte Personen sind, müssen es ihnen aber im Zweifelsfall zugestehen. Wenn jedoch auch die Personen nicht unecht sein mögen, könnte dies bei ihrem Verhalten zutreffen (laut Facebook selbst) und die Beliebtheit der von ihnen verbreiteten Inhalte ist es sicherlich.
 
Jede dieser Gruppen hat im Durchschnitt rund eintausend bis mehrere tausend Mitglieder. Viele davon sind allerdings Mitglied in mehreren der Gruppen. Wird derselbe Inhalt in jeder einzelnen Gruppe gepostet, was vorkommt, kann eine einzelne Person den Inhalt mehrmals liken.
 
1000 Personen in 10 Gruppen können ein geteiltes Video 10.000-mal liken.

Die Community, in der Anti-Baerbock-Videos verbreitet werden, scheint demnach von der äußeren Rechten der deutschen Politik, vor allem AfD-Anhängern, bestimmt zu sein. Diese Tatsache entspricht unseren Erkenntnissen aus unserem ersten Rechercheüberblick, die veranschaulichten, dass AfD-Unterstützer ebenfalls gegen die Grünen gerichtete Hashtags auf Twitter verbreiten.
 
Zwar erscheinen einige dieser oben aufgeführten Videos komplett verrückt und offensichtlich falsch, doch wären die Botschaften besser verschleiert und würden sie wie seriöse Nachrichten wirken (wie reitschuster.de dies versucht), könnten einzelne Falschinformationen leicht bis zu weiteren Teilen der Wählerschaft vordringen.

Am gefährlichsten ist dies bei der Interaktion mit traditionellen Medien.

Ein fehlgeschlagener Versuch

Wir haben in der Tat genau solch einen fehlgeschlagenen Versuch identifiziert, eine Meldung aus den etablierten Medien zu forcieren und zu verdrehen, um ein falsches Narrativ zu verbreiten. Im Rahmen unserer Recherche zum Teilverhalten auf YouTube untersuchten wir auch die in Facebook-Gruppen geposteten Nachrichten auf Ähnlichkeiten. Es überrascht wenig, dass Alice Weidels Kommentare am häufigsten kopiert und/oder geteilt werden. Häufiger geschieht dies nur bei Finanzbetrugsspam, der in allen öffentlichen Facebook-Gruppen herumspukt.
 
Das führte uns zu einem Post vom 9. Juli, der besonders häufig erneut gepostet wurde. Darin wurde behauptet, dass ein von Kanzlerin Angela Merkel für die Richter des Verfassungsgerichts veranstaltetes Abendessen eine Klage der AfD gegen sie wegen der angeblichen unrechtmäßigen Einmischung in die Wahlen in Thüringen 2020 beeinträchtige. Der Post verlinkt auf einen Bild-Artikel („Merkel lädt Verfassungsrichter ins Kanzleramt“).
 
Betrachten wir, was über Weidels Konten hinaus geteilt wird, sehen wir, dass der Artikel tatsächlich eine größere Verbreitung erreichte und in enger Abfolge von vielen AfD-unterstützenden und/oder mit dieser verbundenen Facebook-Gruppen und -Seiten geteilt wurde, darunter einige der genannten Konten mit gemeinsamen Administratoren.
 

Verbreitung einer Geschichte zur Wahlbeeinträchtigung nur durch die AfD innerhalb von vier Minuten

Schauen wir uns das Ganze nach einer Minute an.
Dieses Netzwerk zum Teilen von Inhalten unterscheidet sich deutlich von den meisten anderen.

Selbst wenn wir die Zeit zwischen dem jeweiligen Teilen verlängern, was auf weniger Koordination, sondern mehr gemeinsame Interessen und Netzwerkeffekte hindeutet, ändert sich die Form des Netzwerks nur wenig.

Zum engverbundenen Verbreitungszirkel der AfD kamen niemals andere Cluster hinzu.
 
Wie zuvor berichtet, schaffte es der Versuch einiger AfD-Unterstützer:innen, ein Narrativ zum Wahlbetrug bei der Wahl in Sachsen-Anhalt im Juni dieses Jahres zu verbreiten, so gut wie nie über den Zirkel der Gruppen und Personen hinaus, die bereits gewillt waren, dieses Märchen zu glauben. Die damit „nicht zusammenhängende“ Verbreitung eines ähnlichen Narrativs, wenn auch über Beeinträchtigung statt Betrug, einen Monat später, darf keinesfalls als zusammenhanglos betrachtet werden.

Beide Versuche blieben erfolglos, doch müssen wir wachsam sein, falls weitere Versuche bei der nächsten Wahl in weniger als drei Wochen stattfinden.
Wahlkampf Monitor 2021 ist ein Projekt von Democracy Reporting International in Zusammenarbeit mit Der Tagesspiegel, gefördert durch die Mercator Stiftung.
Twitter
Facebook
Website
Email
LinkedIn
YouTube
In compliance with the EU GDPR, you can find more information about our data protection policy here. Additionally, you can find all relevant information about financial matters in the imprint on our website.

Our mailing address is:

Democracy Reporting International gGmbH
Elbestr. 28/29
12045 Berlin, Germany

+49 (030) 2787730-0
+49 (030) 2787730-10
info@democracy-reporting.org

Want to change how you receive these emails?
You can update your preferences or unsubscribe from this list.