Was ist
Vergangene Woche haben die USA in drei unterschiedlichen Fällen Anklage gegen russische Bürgerïnnen erhoben. Allen gemeinsam ist: Die Beschuldigten sollen versucht haben, mit Propaganda, Bestechung und Hacking Einfluss auf westliche Demokratien zu nehmen und die öffentliche Meinung zu manipulieren. Offensichtlich weiß Russland um die Macht sozialer Medien, denn im eigenen Land werden Plattformen wie YouTube gleichzeitig immer drastischer gedrosselt (Washington Post).
Was die USA Russland vorwerfen
Die Anklageschriften und eidesstattlichen Erklärungen rekonstruieren das russische Vorgehen auf Hunderten Seiten. Diese Details blenden wir für den Moment aus. Stattdessen geben wir an dieser Stelle einen kompakten Überblick, um im Anschluss zu beleuchten, was sich daraus über Desinformation im Allgemeinen und Russlands Strategie im Besonderen lernen lässt:
- Doppelgänger (Department of Justice): Russland fälscht Webseiten seriöser Medien und verbreitet darüber Propaganda, die etwa den Angriffskrieg auf die Ukraine verharmlost und westliche Gesellschaften spalten soll. Links zu den gefälschten Seiten werden anschließend auf Plattformen geteilt, größtenteils von automatisierten Bots. Die Doppelgänger-Kampagne ist seit Frühjahr 2022 bekannt und richtete sich damals vorrangig gegen europäische Staaten, darunter auch Deutschland.
- Tenet Media (Department of Justice): Zwei Mitarbeitende des russischen Propagandakanals RT haben in Tennessee eine Firma namens Tenet Media gegründet und darüber prominente rechte US-Influencer angeworben, darunter Benny Johnson, Tim Pool und David Rubin. Sie sollten Inhalte erstellen, die sich gegen queere Personen, Geflüchtete und Migrantïnnen, vermeintliche Zensur und die Demokraten richten. Der Anklageschrift zufolge erhielten die Creator bis zu 400.000 Dollar pro Monat, insgesamt sollen rund 10 Millionen Dollar geflossen sein. Die Influencer behaupten, sie hätten nichts von den Verbindungen zu Russland gewusst.
- Einheit 29155 (Department of Justice): Hacker der Einheit 29155 des russischen Militärgeheimdienstes GRU sollen in den vergangenen Jahren Cyber-Angriffe auf die Ukraine und 26 Nato-Mitgliedsstaaten geplant und durchgeführt haben, darunter Deutschland und die USA. Die Anklageschrift zeigt, wie Russland hybride Kriegsführung funktioniert: Bevor die Panzer rollen, beginnt der Angriff im Netz. Auf die sechs Beschuldigten ist ein Kopfgeld von jeweils zehn Millionen Dollar ausgesetzt.
Wie sich Russlands Taktik verändert
Wir können die russischen Desinformationskampagnen grob in drei Epochen einteilen (wobei die letzten beiden Phasen ineinander übergehen und gleichzeitig stattfinden):
- rundum die US-Wahl 2016: Fokus auf gefälschte Konten, automatisierte Propaganda und gekaufte Reichweite; Manipulation der Algorithmen von Facebook und Twitter; Trollfabriken fluten Kommentarspalten, Bots müllen Plattformen zu; parallel Hack-and-Leak-Operationen und Expansion russischer Staatssender wie RT und Sputnik ins Ausland
- seit dem Angriff auf die Ukraine: Doppelgänger-Kampagne ergänzt vorherige Manipulationsversuche, Verbreitung von Links zu gefälschten Domains statt direkter Lügen; teils direkte Finanzierung (Bestechung?) rechter und rechtsradikaler Politiker, etwa des AfD-Europaabgeordneten Petr Bystron
- aktuell: Geldflüsse an reichweitenstarke Influencer, Aufbau rechtsradikaler Mediennetzwerke mithilfe heimischer Akteure
Russland hat seine Taktik also dem veränderten Nutzungsverhalten und den Gegenmaßnahmen der Plattformen angepasst. Nachdem Meta viel zu lange leugnete, dass russische Propaganda nennenswerte Reichweite auf Facebook und Instagram erzielen könne, nimmt man das Problem mittlerweile etwas ernster. Desinformation wird zuverlässiger erkannt und in der Reichweite gedrosselt, Fake-Accounts verschwinden schneller. Das US-Justizministerium veröffentlichte ein Dokument, das aus russischen Quellen zitiert:
The US Internet space is subject to control by various services and oversight agencies. META, a social media giant (Facebook/Instagram), actively collaborates with the National Security Agency. Twitter is the only mass platform that could currently be utilized in the US. It is also important to keep in mind that the network has its own security service that performs verification of suspicious accounts. This situation is expected to worsen as the November 2024 presidential election approaches.
Rechte Creator sind aus russischer Perspektive offenbar deutlich vielversprechender. Zum einen scheinen sie kaum Berührungsängste zu haben und sich mit Geld leicht überzeugen zu lassen. Zum anderen verfügen die Influencer über eine organisch gewachsene Reichweite und authentische Follower. In den Worten der Desinformationsforscherin Renée DiResta (Threads):
Buying authentic influencers is a far better use of funds than creating fake personas, because they bring their own trusting audiences and are actually, you know, real.
Funding front media outlets is a classic state propaganda strategy.
There've been other incidents of Russia & China paying for one-off videos from unwitting influencers here & there, and grey media outlets like what Maffick media built (also high engagement - will post in next tweet), but here they got v high profile rubes.
Das zeigt auch, wie absurd die Selbstinszenierung rechter Akteure als vermeintliche Underdogs ist, die vorgeben, als erfordere es großen Mut, sich gegen den angeblichen Mainstream zu wenden (Taylor Lorenz):
While right wing content creators position themselves as scrappy upstarts, leaning into anti-establishment and populist brand positioning, they frequently accept money from far right interest groups, extremist billionaires, and even foreign actors. (…)
Right wing creators are often propped up financially because they defend the interests of the rich and powerful. While they cosplay as bold truth tellers, these influencers can receive millions of dollars to produce content that aligns with certain political agendas.
Be smart
Drei Dinge sind uns wichtig:
Erstens: Es ist unklar, welche Wirkung Desinformation und Propaganda tatsächlich entfalten. Wir haben in den vergangenen Jahren mehrfach über das Thema geschrieben und gemahnt, Korrelation und Kausalität zu trennen:
- 07/2021: Wie Expertïnnen die Gefahr digitaler Desinformation in Deutschland einschätzen
- 09/2021: Desinformation: Was ist das, wer definiert das, ist das gefährlich?
- 01/2023: Furcht vor Desinformation: Entspannt euch (aber nicht zu sehr)
- 08/2023: Lügen, Hass und Desinformation: War da was?
Mitte August habe ich (Simon) dazu einen Essay für die SZ geschrieben, aus dem ich kurz zitiere:
Die Witze über Vance und die Lügen von Trump haben drei weitere Gemeinsamkeiten. Erstens zeigen sie, dass es keine moderne Technologie braucht, um Gerüchte zu befeuern. Seit Jahren warnen Forscherinnen und Experten vor Deepfakes und künstlicher Intelligenz, mit deren Hilfe man gefälschte Bilder, Tonaufnahmen und Videos erstellen kann. Die Sorge ist berechtigt, bislang aber überwiegend hypothetisch. Oft reicht es, reale Fotos aus dem Zusammenhang zu reißen oder einfach irgendeinen Unfug zu erzählen. Solange sich Menschen in ihrem Weltbild bestätigt fühlen, werden sie die Lüge glauben und teilen.
Zweitens verdeutlichen die Beispiele, dass hinter wirkmächtigen Falschbehauptungen nicht zwingend Akteure aus dem Ausland stecken. Staaten wie Russland, China oder Iran versuchen erwiesenermaßen und mit beträchtlichem Aufwand (Süddeutsche Zeitung), westliche Demokratien durch gezielte Kampagnen zu destabilisieren. Studien zeigen aber, dass zumindest der direkte Einfluss meist überschaubar ist. Nur, weil der russische Bot Joachim937, neun Follower, KI-generiertes Profilbild, auf Facebook einen Link zu einer gefälschten Nachrichtenseite verbreitet, heißt das noch lange nicht, dass andere Nutzerinnen und Nutzer deshalb ihre Meinung oder gar ihr Wahlverhalten ändern. Die Forschung legt nahe (Science Media Center), dass Menschen gar nicht so leicht manipulierbar sind, wie man vielleicht denkt.
Drittens sind Vance und Trump US-Politiker und damit Teil eines Informationsökosystems, das sich nur eingeschränkt mit Deutschland vergleichen lässt. Die amerikanische Gesellschaft ist stark polarisiert. In vielen Bundesstaaten gibt es kaum noch lokale und regionale Medien. Dutzende Millionen Menschen schauen den rechten Propagandakanal Fox News, der bewusst Lügen für die Einschaltquote verbreitet (Süddeutsche Zeitung), informieren sich bei noch radikaleren Alternativmedien oder beziehen ihre Nachrichten aus sozialen Medien.
Im Vergleich dazu ist das mediale und politische System in Deutschland gefestigt. Nur eine Minderheit (Science Media Center) kommt regelmäßig in Kontakt mit Desinformation. Auch am Stammtisch wurde früher viel Unsinn erzählt. Im Netz und in sozialen Medien werden die Schwurbler plötzlich sichtbar, aber nicht unbedingt mehr. Die Verbreitung von Desinformation lässt sich recht gut messen, über ihre kausale Wirkung kann man nur Vermutungen anstellen. Studien deuten aber darauf hin (Science Media Center), dass der Glaube an Verschwörungserzählungen in den vergangenen Jahren nicht zugenommen hat – übrigens auch nicht in den USA.
Bislang gibt es keine Belege, dass Wahlen in Deutschland oder der EU durch gezielte Desinformation beeinflusst wurden. Auch der russische Einfluss auf die US-Wahl 2016 ist mindestens fraglich, darauf deuten mehrere Studien hin (Nature). Doch die Manipulationsversuche könnten ihren wahren Schaden vier Jahre später angerichtet haben, wie einer der Autoren bei der Veröffentlichung im vergangenen Jahr schrieb (X / Joshua Tucker):
Indeed, debate about the 2016 US election continues to raise questions about the legitimacy of the Trump presidency & the electoral system, which in turn could turn out to be related to Americans’ willingness to accept claims of voter fraud in the 2020 election.
Such beliefs may stem from speculation that Russian interference on social media influenced the election outcome. In a word, Russia's social media campaign may have had its largest effects indirectly by convincing Americans that its campaign was successful.
Anders ausgedrückt: Dass so viele Menschen glauben, die Wahl 2020 sei manipuliert worden, könnte also auch darauf zurückzuführen sein, dass der russische Versuch aufflog, die Wahl 2016 zu manipulieren.
Zweitens: Was sollen Medien und Forscherïnnen tun? Einerseits müssen sie über Desinformationskampagnen berichten, das Versagen von Plattformen wie X oder TikTok anprangern und das Missbrauchspotenzial benennen, das von generativer KI ausgeht. Andererseits könnten ständige Warnungen den falschen Eindruck erzeugen, dass man überhaupt nichts mehr glauben kann.
Wir glauben: Das wäre fatal. Skepsis ist gut, zu viel Skepsis ist gefährlich. Es gibt Fakten, es gibt Wahrheit. Auch im Zeitalter von Algorithmen, sozialen Medien und russischen Bots.
Drittens: Wer mit einem Finger auf Russland deutet, zeigt mit vier Fingern auf sich selbst. Die wahren Superspreader von Desinformation sitzen in Deutschland, Großbritannien und den USA. AfD-Politikerïnnen und Personen wie Elon Musk, J. D. Vance oder Tommy Robinson bilden eine unheilige Allianz, die rechtsradikale Positionen und russische Propaganda bereitwillig und millionenfach verstärkt:
- Elon Musk says ‘civil war is inevitable’ as UK rocked by far-right riots. He’s part of the problem (CNN)
- Elon Musk’s misinformation machine made the horrors of Southport much worse (Prospect)
- JD Vance’s latest cat flub is bizarre misinformation about migrants eating them (The Verge)
- Rechtsextremist Tommy Robinson: Die Stimme hinter den Krawallen in England (Tagesschau)
- So tief steckt Elon Musk im aufgedeckten Putin-Netzwerk (Volksverpetzer)
Social Media & Politik
- Trump und Musk schmieden Pläne: Sollte Donald Trump erneut US-Präsident werden, könnte Elon (ich verbreite gern rechtsextreme, homo-, frauen- und transfeindliche Narrative) Musk eine entscheidende Rolle zukommen. Demnach könnte er der Kopf einer Kommission werden, die US-Bundesausgaben prüfen und Vorschläge zur Kostenreduzierung unterbreiten soll (Washington Post). Wir hoffen jetzt einfach mal für alle, gegen die Trump und Musk so gern hetzen, dass es nicht dazu kommt.
- Telegram-Gründer verspricht Verbesserungen: Nach seiner Festnahme durch französische Behörden vor knapp zwei Wochen hat sich Pavel Durov erstmals wieder öffentlich zu Wort gemeldet. Auf seinem Telegram-Kanal (Telegram / @durov) zeigte er sich ob der Anschuldigungen überrascht. Von mangelnder Kooperationsbereitschaft mit Sicherheitsbehörden könne laut Durow wirklich nicht die Rede sein. Schließlich sei seine Plattform per E-Mail jederzeit erreichbar. Und überhaupt sei Telegram extrem transparent und standhaft gegenüber autoritären Regimen. Telegram gehört zu den Guten, so die Botschaft. Trotzdem mache er es sich jetzt zur Aufgabe, mehr zu unternehmen, um kriminelle Machenschaften auf der Plattform in den Griff zu bekommen. Was genau passieren soll, bleibt noch recht vage (The Verge). Insofern ist Durovs Take aus unserer Sicht zunächst nicht viel mehr als ein Lippenbekenntnis mit dem lustigen Zusatz: Die Behörden hätten doch einfach googeln können, anstatt ihn gleich festzunehmen. Lol.
- Go deep: How Telegram Became a Playground for Criminals, Extremists and Terrorists (New York Times)
Follow the money
- 75 bis 85 Prozent Wertverlust: Investoren, die Elon Musk dabei geholfen haben, Twitter zu übernehmen, dachten wirklich, Musk würde Twitter in ein profitables Unternehmen verwandeln. Heute bereuen viele ihre Investitionen und weinen ihren verbrannten Millionen hinterher. (Techdirt)
Neue Features bei den Plattformen
- Neue Funktionen für Direktnachrichten und Chats: Was soll man als Tech-Unternehmen bloß tun, wenn die User sich dazu entscheiden, Funktionen, die als netter Zusatz gedacht waren, mehr und mehr in den Mittelpunkt der Nutzung zu stellen? Genau: Eben jene Features weiter aufbohren und mit netten Updates versehen. Genau so verhält es sich derzeit bei Instagram. Das meiste Engagement-Wachstum verzeichnet die App aktuell bei Direktnachrichten und Chats (Business Insider). Damit das so bleibt, führt Instagram stetig neue Funktionen ein — zuletzt etwa neue Edit-Optionen, Sticker und Themes. (The Verge)
- Mit WhatsApp an Signal schreiben: Interoperabilität ist solch ein schönes Wort, oder? Wir finden schon. Denn es bedeutet, dass sich die Plattformen öffnen und nicht mehr wie walled gardens (Wikipedia) agieren dürfen. So können Nutzerïnnen bald bei WhatsApp Nachrichten an andere Anbieter schicken (Meta / Newsroom). Wie bei E-Mails auch. Also oberflächlich betrachtet. Natürlich baut die von der EU geforderte Interoperabilität auf anderen Protokollen auf, aber die Idee ist die gleiche: mehr Durchlässigkeit wagen. Danke DMA!