Zum Inhalt springen
9 Min. Lesezeit

Desinformation: Was ist das, wer definiert das, ist das gefährlich?

Desinformation: Was ist das, wer definiert das, ist das gefährlich?

Was war

Unser letztes Briefing #741 beendeten wir mit einer Ankündigung:

Zum Beispiel möchten wir uns dem Thema Desinformation widmen – vor allem der Frage, was eigentlich alles dazu zählt und wer definiert, was Desinformationen sind und was nicht.

Und mit einer Aufforderung:

Wer zum Themenkomplex "Social Media / Bundestagswahl" Fragen hat, kann sie uns gern schicken. Auch freuen wir uns über Anregungen, welches Thema wir in diesem Zusammenhang einmal genauer beleuchten sollen.

Was ist

Die Ankündigung lösen wir jetzt ein. In den vergangenen Wochen haben uns immer wieder Fragen zu diesem Thema erreicht, und auf unseren Aufruf hin haben sich erneut Leserïnnen gemeldet. (Aus einer dieser E-Mails werden wir am Ende zitieren, weil darin viele Gedanken stecken, die wir uns auch machen – nur schöner formuliert.)

Einige wollten wissen, was wir eigentlich meinen, wenn wir von "Desinformation" schreiben. In dieser Ausgabe geben wir deshalb einen grundlegenden Überblick und erklären, wie wir das Thema sehen. Dafür bietet sich ein Format aus drei Fragen und Antworten an:

Was bedeutet Desinformation?

Für den Ausdruck gibt es keine offizielle Definition, teils verstehen Menschen darunter auch einfach nur: "Alles, was nicht meiner Meinung entspricht". Wir empfinden Desinformation aber (noch) nicht als politisch aufgeladenen Kampfbegriff wie "Fake News", den wir seit Jahren meiden. Wenn wir über das Thema schreiben, verwenden wir meist folgende Begriffe:

Desinformation ist also die Schnittmenge aus Fehlinformationen (falsch) und Malinformation (bösartige Absicht). Exakte Abgrenzungen sind schwierig, weil oft nicht klar ist, welche Intention die Absenderïnnen verfolgen. Als grobe Orientierung sollte diese Unterscheidung aber reichen.

Wenn du tiefer einsteigen willst, empfehlen wir diese Publikationen:

Wer entscheidet, was wahr und falsch ist?

Bei manchen Aussagen fällt die Entscheidung leicht: "Die Erde ist eine Scheibe", "Das Coronavirus ist harmlos", "Donald Trump hat die Wahl gewonnen" – Diese Sätze sind eindeutig falsch, trotzdem glaubt eine erschreckend große Minderheit daran.

Oft muss man aber ganz genau hinschauen, um falsche Informationen zu erkennen. Und selbst dann gibt es manchmal keine endgültige Antwort, weil die Grenzen zwischen Meinungsäußerungen und Irreführung fließend sind.

Auch die Wissenschaft liefert nicht immer abschließende Erkenntnisse: Lange Zeit waren Forscherïnnen sicher, dass das Coronavirus nicht aus einem Labor in China stammt. Das gilt zwar nach wie vor als äußerst unwahrscheinlich, aber nicht mehr als vollkommen ausgeschlossen. Deshalb erlaubt Facebook nun wieder Beiträge (Guardian), die die "Lab-Leak-Theorie" propagieren. Bis Ende Mai wurde diese Behauptung als gefährliche Desinformation eingestuft und gelöscht.

Plattformen wie Facebook wollen solche Fälle minimieren. Mark Zuckerberg sagt immer wieder, private Konzerne sollten nicht zum "Schiedsrichter der Wahrheit" werden. Teils dienen solche Aussagen dazu, die eigene Verantwortung herunterzuspielen oder zu rechtfertigen, dass Facebook selbst eindeutige Lügen von hochrangigen Politikerïnnen lange Zeit nicht löschte. Aber im Kern hat er recht: Es ist problematisch, wenn Facebook, Google und Twitter allein darüber entscheiden, wo sie die Grenze zwischen Fakt und Fiktion ziehen.

Deshalb publizieren alle Netzwerke Community Standards, in denen sie definieren, welche Inhalte erlaubt sind und welche nicht. Je nach Plattform können sich die Vorgaben unterscheiden. Auf Facebook gab es etwa lange Zeit Ausnahmeregelungen für Parteien und Politikerïnnen, die nachweislich falsche Informationen in die Welt setzen.

Die Community Standards verändern sich fortlaufend. Im Zuge der Corona-Pandemie haben alle Tech-Konzerne ihre Regeln mehrfach geändert, um Verschwörungserzählungen und Desinformation zu Gesundheitsthemen konsequenter zu löschen. Öffentlich ist aber immer nur eine sehr grobe Version der Regelwerke bekannt. Für Content-Moderatorïnnen, die die endgültigen Entscheidungen treffen, gibt es teils Anleitungen, die Hunderte Seiten umfassen. Manchmal veröffentlichen Medien Auszüge aus diesen Regeln, wenn sie ihnen zugespielt werden.

Fast alle großen Social-Media-Plattformen (und mit WhatsApp seit Kurzem auch ein Messenger (AFP)) arbeiten mit externen Fact-Checkern zusammen, die Beiträge oder verlinkte Artikel prüfen. Dabei handelt es sich um unabhängige Organisationen, Medien und Agenturen wie Reuters, AFP, dpa, Correctiv oder anderen Partnern des International Fact-Checking Network (Poynter). Wenn diese eine Falschbehauptung identifizieren, kennzeichnen die Plattformen den Beitrag, drosseln die Reichweite und zeigen den Faktenchecks an. Wenn es sich um Desinformation handelt, die gefährliche Konsequenzen haben könnte, wird der Inhalt komplett entfernt.

Wie gefährlich ist (digitale) Desinformation?

Es gab schon immer Menschen, die Unsinn erzählt haben. Vor Social Media gab es Stammtische, die Bullshit-Dichte im Bierzelt dürfte so manche Facebook-Gruppe harmlos erscheinen lassen. Dennoch haben globale Kommunikationsplattformen dem Problem eine neue Dimension hinzugefügt, weil Menschen Dis-, Mis- und Malinformation mit minimalem Aufwand produzieren und massenhaft verbreiten können.

Klar ist leider nur, dass (fast) gar nichts klar ist. Man kann die Verbreitung von Desinformation analysieren, aber es ist schwierig, die Auswirkungen zu erforschen. Teils lässt sich nicht zwischen Korrelation und Kausalität unterscheiden. Werden Menschen in Social Media radikalisiert? Oder machen Social Media nur sichtbar, dass es schon immer eine Menge ziemlich unangenehmer Menschen gab, die ihre Meinung bislang nicht in die Welt hinausposaunen konnten?

Am Ende steht und fällt alles mit der Frage, für wie manipulierbar wir Menschen halten. Seit dem Aufkommen des Fernsehens in den 50er-Jahren behaupten Werbetreibende, sie könnten Zuschauerïnnen beinahe nach Belieben manipulieren. Dabei stützen sie sich auf fragwürdige psychologische Studien, die teils schlecht gealtert sind.

Die großen Plattformen haben diese Manipulationserzählung aufgegriffen. Letztendlich sind Facebook und Google in erster Linie Anzeigenverkäufer, und zwar die größten und erfolgreichsten, die die Welt je gesehen hat. Ihre Milliardengewinne verdanken sie der Tatsache, dass fast alle Unternehmen ihrem Versprechen glauben: Wir können eure Anzeigen Nutzerïnnen vorsetzen, die darauf reagieren und eure Produkte kaufen.

Auch deshalb können sich Konzerne, die soziale Netzwerke betreiben und Werbeplätze verkaufen, schlecht öffentlich hinstellen und sagen, dass Desinformation komplett harmlos sei. Schließlich erzählen sie ihren Werbekunden, wie wirkmächtig deren Anzeigen seien – wenn sie gleichzeitig behaupteten, dass Inhalte keine Auswirkung auf Nutzerïnnen hätten, gefährdete das ihr eigenes Geschäftsmodell.

All diese Gedanken (und noch viel mehr) stecken in einem der klügsten Texte, die wir in den vergangenen Jahren zu diesem Thema gelesen habe. Joseph Bernstein hat in der aktuellen Ausgabe des Harper's Magazine über "Bad News" geschrieben. Pocket gibt die Lesezeit mit 23 Minuten an, aber wir versprechen, dass es sinnvoll investierte Zeit ist – und dass die Überlegungen, die Bernstein anstellt, deutlich länger als 23 Minuten nachhallen.

Only certain types of people respond to certain types of propaganda in certain situations. (…) There is nothing magically persuasive about social-media platforms; they are a new and important part of the picture, but far from the whole thing. Facebook, however much Mark Zuckerberg and Sheryl Sandberg might wish us to think so, is not the unmoved mover.
For anyone who has used Facebook recently, that should be obvious. Facebook is full of ugly memes and boring groups, ignorant arguments, sensational clickbait, products no one wants, and vestigial features no one cares about. And yet the people most alarmed about Facebook’s negative influence are those who complain the most about how bad a product Facebook is. The question is: Why do disinformation workers think they are the only ones who have noticed that Facebook stinks? Why should we suppose the rest of the world has been hypnotized by it? Why have we been so eager to accept Silicon Valley’s story about how easy we are to manipulate?

Bernstein gibt auf diese Fragen keine Antworten, aber allein die Tatsache, dass er sie aufwirft, machen seinen Text lesenswert.

Be smart

Das letzte Wort überlassen wir Julian Jaursch, der für die Stiftung Neue Verantwortung zu den Themen digitale Öffentlichkeit und Plattformregulierung forscht. Seine Paper sind mehrfach in unseren Newslettern aufgetaucht, zuletzt in Ausgabe #645. Julian hat uns eine Nachricht geschrieben, die wir hier in gekürzter Form wiedergeben, weil sie den Desinformations-Diskurs gut zusammenfasst:

Ich habe grundsätzlich den Eindruck, dass die Debatte zu Desinformation selbst etwas in Schieflage gerät. Zwischen einem Abtun als Alarmismus und einem übereifrigen Aktionismus scheint mir eine differenzierte Debatte jetzt fast schwieriger zu sein als früher, als der Begriff noch nicht so stark bekannt war. Ein Abtun/Abwarten ist aus meiner Sicht nicht tragbar, es müssen Verantwortlichkeiten geschaffen werden. Doch kann eine aufgeblasene (Medien-/Think-Tank-)Debatte zu Desinformation vielleicht Leute stärker verunsichern als die Desinformation selbst.
Manchmal fehlt mir diese Abwägung in der aktuellen Behandlung des Themas. Es ist meist entweder "Oh nein! Russland! Alle gegen Baerbock!" oder "Was wollt ihr denn? Das bisschen Desinformation!". Daraus folgt dann oft eine Phrase wie "Es ist eine gesamtgesellschaftliche Aufgabe." Klar, das stimmt, das ist ja auch schon lange SNV-Argumentationslinie, aber das muss auch aufgedröselt werden. So ziemlich jedes politische Problem ist eine gesamtgesellschaftliche Aufgabe. Wenn wir dabei stehenbleiben, bringt das die Debatte nicht voran und behindert sie vielleicht sogar.

Social Media & Politik

In other news:


Kampf gegen Desinformation


Social Media & Journalismus


Follow the money


Audio Hype


Creator Economy


Schon einmal im Briefing davon gehört


Was wir am Wochenende lesen


Neue Features bei den Plattformen

Facebook

Instagram

Twitter

LinkedIn

Telegram

Spotify