Zum Inhalt springen
8 Min. Lesezeit KI

Das erste Opfer der KI ist die Wahrheit

US-Regierung und Gewerkschaft der Polizei verbreiten KI-Fakes. Gleichzeitig werden echte Inhalte fälschlicherweise als KI-generiert diskreditiert. Willkommen im postfaktischen Zeitalter.

Was ist

Das postfaktische Zeitalter hat begonnen. Vier Ereignisse der vergangenen Wochen verdeutlichen das:

  1. Ein Video zeigt Alex Pretti, der elf Tage vor seinem Tod das Rücklicht eines ICE-Fahrzeugs beschädigt und dann von einem vermummten Mitglied der paramilitärischen Einheit überwältigt wird. Die Aufnahme ist echt. Trotzdem tun sie viele Menschen in sozialen Medien als KI-Fake ab, der den Mord an Pretti rechtfertigen solle.
  2. Auf Social Media verbreiten sich KI-generierte Bilder und manipulierte Videos, die unter anderem eine Waffe in Prettis Hand zeigen sollen. Obwohl das Material leicht als Fälschung zu erkennen und eindeutig widerlegt ist, verbreiten sich die Aufnahmen – unter tatkräftiger Mithilfe von Stephen Miller.
  3. Die US-Regierung teilt manipulierte Bilder der Schwarzen Bürgerrechtsanwältin Nekima Levy Armstrong. KI hat ihren stoischen Gesichtsausdruck zu einer grotesken Karikatur verzerrt. „Die Strafverfolgung wird fortgesetzt. Die Memes werden weitergehen“, teilt das Weiße Haus mit.
  4. In Sachsen veröffentlicht die Gewerkschaft der Polizei eine Pressemitteilung, die einen schwer verletzten Polizeibeamten zeigt. Erst nach öffentlicher Kritik ergänzt die Gewerkschaft die Mitteilung um den Hinweis, dass es sich um ein KI-generiertes Bild handle.

Wir sehen zwei Dynamiken, die einander bestärken:

  1. Mittlerweile nutzen selbst Regierungen und öffentliche Behörden schamlos generative KI, um die öffentliche Meinung zu beeinflussen oder Lügen zu verbreiten.
  2. Der allgegenwärtige KI-Slop hat Menschen derart misstrauisch gemacht, dass sie alles als KI-Fälschung abtun, das nicht in ihr Weltbild passt.
Willkommen zur freien Ausgabe

Heute erhältst du eine freie Ausgabe in voller Länge. Viel Freude beim Lesen. Falls du künftig immer alle Ausgaben in voller Länge erhalten möchtest, kannst du für zehn Euro im Monat Mitglied werden. Du befindest dich garantiert in guter Gesellschaft.

Jetzt Mitglied werden

Warum das wichtig ist

„Das erste Opfer des Krieges ist die Wahrheit“, soll der US-Senator Hiram Johnson während des Zweiten Weltkriegs gesagt haben (das Zitat wird noch weiteren Personen zugeschrieben). Kriegsparteien nutzen Desinformation, Propaganda und Lügen, um die eigene Bevölkerung zu mobilisieren und den Gegner zu diskreditieren.

Das Internet, Social Media und generative KI wirken als Brandbeschleuniger. Plattformen und Messenger haben journalistische Gatekeeper ausgehebelt. Früher hatten seriöse Medien den Anspruch, nur geprüfte Informationen zu veröffentlichen. Jetzt findet jede Lüge ein Publikum, bevor Faktenchecks die Behauptungen widerlegen können.

LLMs und Tools wie Grok, Nano Banana, Sora oder Runway haben die Erstellung von KI-Fakes massentauglich gemacht. Wenn alle Menschen kostenlos und ohne technisches Vorwissen täuschend echte Bilder und Videos erzeugen können, verändert das die öffentliche Meinungsbildung grundlegend.

Einerseits muss man aufhören, seinen Augen und Ohren zu trauen. Andererseits wäre es fatal, wenn Menschen gar nichts mehr glauben.

Im September 2024 schrieben wir über russische Desinformationskampagnen und warnten vor grundsätzlichem Misstrauen (SMWB):

Skepsis ist gut, zu viel Skepsis ist gefährlich. Es gibt Fakten, es gibt Wahrheit. Auch im Zeitalter von Algorithmen, sozialen Medien und russischen Bots.

Rund ein Jahr später, im August 2025, bestätigte sich die Befürchtung, als ein echtes Video von Will Smith als Fälschung bezeichnet wurde. Wir schrieben damals (SMWB):

Generative KI könnte dazu beitragen, dass sich die „Liar’s Dividend“-Dynamik ausweitet und sich Lügen bald auch bei Videos auszahlen . (…)
Je schwerer es wird, Fake und Realität zu unterscheiden, desto leichter wird es, Skandal, Affären oder Kriegsverbrechen als „KI-generiert“ abzutun.
Wie bei allen früheren Formen der Desinformation gilt: Wer an das Narrativ glauben will, wird daran glauben – egal, ob man gefälschte Inhalte für echt oder echte Inhalte für gefälscht hält. Fehlinformationen verfangen dann, wenn sie das eigene Weltbild bestätigen.

Genau das ist geschehen. Kurz darauf sagte Donald Trump (AP):

Falls etwas passiert, das wirklich schlimm ist, muss ich vielleicht einfach KI dafür verantwortlich machen.

Diese Strategie wendet der US-Präsident vollkommen schamlos an. Fakten und Fotos, die ihm ungelegen kommen, bezeichnet er fälschlicherweise als AI – und seine Unterstützerïnnen glauben es natürlich (The Present Age).

Dig deeper

Ursprünglich wollten wir ausführlicher auf die eingangs genannten Fälle eingehen. Allerdings könnten wir dabei nur wiederholen, was Kollegïnnen bereits geleistet haben.

Deshalb haben wir uns entschieden, dass wir es in diesem Briefing bei der knappen Zusammenfassung belassen und lieber die zugrundeliegenden Dynamiken beleuchten.

Falls du mehr zu den KI-Fakes in den USA und Sachsen lesen möchtest, empfehlen wir diese beiden Texte:

Be smart

Studien deuten darauf hin, dass rechtskonservative bis rechtsradikale Kreise anfälliger für Desinformation sind. Das scheint sowohl für die Produktion als auch für die Rezeption zu gelten:

Der Umgang mit KI fordert aber alle Menschen heraus, unabhängig von ihrer politischen Einstellung. Das zeigen die Reaktionen auf das reale Video von Alex Pretti, das von Linken und Liberalen als Fälschung abgetan wurde (Parker Molloy):

Neu ist, dass „das ist KI“ zu einer gesellschaftlich akzeptierten, sogar tugendhaft erscheinenden Art geworden ist, unangenehme Beweise abzutun. Wenn man sagt: „Ich glaube diesem Video nicht, weil es meinem Weltbild widerspricht“, wirkt man engstirnig. Wenn man hingegen sagt: „Ich glaube diesem Video nicht, weil es offensichtlich KI ist“, klingt es so, als sei man ein verantwortungsbewusster Medienkonsument.

Bis zu einem gewissen Grad ist dieses Verhalten menschlich. Der Bestätigungsfehler ist seit einem halben Jahrhundert bekannt und gut erforscht. Wir neigen dazu, Informationen so zu interpretieren, dass sie unsere Erwartungen bestätigen.

Wenn kognitive Verzerrung und generative KI aufeinandertreffen, wird es bedrohlich. Technische Lösungen, wie sie Adam Rose bei Poynter skizziert, sind nur ein Hilfsmittel. Auch die viel beschworene Medienkompetenz wird nicht reichen, um Fakes von authentischen Inhalten zu unterscheiden.

Es braucht nicht mehr Skepsis im Umgang mit digitalen Inhalten, sondern Skepsis im Umgang mit den eigenen Überzeugungen (Parker Molloy):

Wir haben Jahre damit verbracht, Menschen beizubringen, das zu hinterfragen, was sie sehen. Wir haben bei weitem nicht genug Zeit damit verbracht, sie zu lehren, zu hinterfragen, warum sie glauben, was sie glauben.

Politics & Power


Attention Economy

How Jeff Bezos Brought Down the Washington Post
The Amazon founder bought the paper to save it. Instead, with a mass layoff, he’s forced it into severe decline.
“Something I will be most proud of when I’m 90”: How Jeff Bezos used to talk about The Washington Post, and what’s changed
Jeff Bezos used to talk about The Washington Post with real curiosity, and the things he said were interesting and specific. Over time, that changed.


Neue Features bei den Plattformen

YouTube

Meta

Mistral


Noch kein Mitglied?

Wir fassen zweimal pro Woche die Nachrichten und Debatten rund um Social Media, Tech und KI zusammen. Unser Anspruch: Wenn du unser Briefing liest, erfährst du nicht nur alles, was wichtig ist – sondern verstehst es auch.

Garantiert kein Slop, jederzeit kündbar.

Jetzt Mitglied werden
Über den Autor
CTA Image

Simon Berlin befasst sich seit einem Jahrzehnt mit Künstlicher Intelligenz. Inzwischen tun das alle – aber er war dabei, bevor es cool wurde. Er schreibt für die Süddeutsche Zeitung und das Social Media Watchblog. LinkedInBlueskyWebsite

Über den Autor
CTA Image

Martin Fehrensen hat das Social Media Watchblog 2012 ins Leben gerufen und ist seit 2019 hauptberuflich Herausgeber und Autor. Zuvor arbeitete er für das ZDF und „Der Spiegel“. LinkedIn | Bluesky | Website