Was ist

Wer in der Lage ist, ein Smartphone zu bedienen, kann binnen Minuten täuschend echte Fotos und Videos generieren lassen. Das bringt zwei Gefahren mit sich:

  1. Man kann gefälschte Inhalte verbreiten und behaupten, sie seien echt.
  2. Man kann echte Inhalte mit der Behauptung diskreditieren, sie seien gefälscht.

Wir widmen uns heute dem zweiten Punkt, der in der öffentlichen Debatte oft untergeht.

Warum das wichtig ist

Anfang 2023 schrieben wir (SMWB):

Die größte Gefahr von Desinformation könnte nicht von ihrem direkten Einfluss auf die öffentliche Meinung ausgehen – sondern von den ständigen Diskussionen und Warnungen vor angeblich ach so gefährlicher Desinformation.
Dadurch verlieren Menschen das Vertrauen in Wahlergebnisse und politische Prozesse. Die Tatsache, dass so viele Trump-Anhängerïnnen dessen Lüge über die manipulierte Wahl 2020 glauben, könnte also darauf zurückzuführen sein, dass der russische Versuch aufflog, die Wahl 2016 zu manipulieren.

Vergangenes Jahr ergab die Cambridge-Studie „The Liar’s Dividend: Can Politicians Claim Misinformation to Evade Accountability?“:

Strategische und falsche Behauptungen, dass Geschichten Desinformation oder Deepfakes seien, könnten Politikern nützen, indem sie ihnen helfen, nach einem Skandal die Unterstützung aufrechtzuerhalten. (…) Diese falschen Behauptungen bringen Politikern größere Vorteile als alternative Reaktionen auf einen Skandal, wie etwa Schweigen oder eine Entschuldigung.

Die Autorïnnen schränkten damals noch ein:

Diese Strategien sind wirksam gegen textbasierte Berichte über Skandale, aber weitgehend unwirksam gegenüber Videobeweisen und reduzieren nicht das allgemeine Vertrauen in die Medien.

Unsere Befürchtung: Generative KI könnte dazu beitragen, dass sich die „Liar’s Dividend“-Dynamik ausweitet und sich Lügen bald auch bei Videos auszahlen.

Was ein vermeintlicher Will-Smith-Fake zeigt

Vor zwei Wochen teilte der Schauspieler und Rapper Will Smith einen einmütigen Clip auf YouTube Shorts. Das Video zeigt Fans, die ihm bei seiner Europa-Tournee zujubeln.

Auf Reddit und in den YouTube-Kommentaren wird ihm vorgeworfen, das Video sei eine Fälschung. Smith habe die Menschenmassen von KI generieren lassen. Tatsächlich wirken mehrere Screenshots aus dem Clip verdächtig. Man sieht Artefakte, Bildrauschen, verzerrte Gesichter und unnatürliche Gliedmaßen. Auch die Schrift auf den Plakaten ergibt teils keinen Sinn.

Etliche Medien griffen das Thema auf:

  • Will Smith Accused of Creating an AI Crowd for Tour Video (Rolling Stone)
  • Will Smith accused of creating AI fans in new tour video (NME)
  • Will Smith accused of using AI for ‘embarrassing’ tour video (Independent)

Es gibt nur ein Problem: Die Vorwürfe sind falsch. Andy Baio hat rekonstruiert, dass jede Sequenz des Shorts auf Fotos und Videos von realen Konzertbesucherïnnen beruht. Die Menschen sind nicht KI-generiert.

Trotzdem kann man Smith und sein Team nicht komplett freisprechen. Der Clip wurde wohl teils auf Grundlage von Fotos erzeugt, die mithilfe von KI in Bewegtbild verwandelt wurden. Das erklärt einen Teil der verdächtigen Artefakte.

Und als wäre das nicht schon kompliziert genug, setzt YouTube noch einen drauf.

Dieser Artikel ist nur für zahlende Mitglieder

Jetzt Mitglied werden und vollen Zugriff auf alle Artikel erhalten.

Jetzt Mitglied werden Hast du schon einen Account? Einloggen