Zum Inhalt springen
7 Min. Lesezeit KI

Social Media und synthetische Inhalte: Die große Label-Frage

Alle sind sich einig: KI-Content sollte gekennzeichnet werden. Doch das ist leichter gesagt als getan.

Social Media und synthetische Inhalte: Die große Label-Frage
Wir verzichten künftig wieder auf KI-Bilder und nutzen Unsplash+ für die Bebilderung unserer Briefings. Einige der Gründe, die uns dazu bewegt haben, findest du hier und in diesem Briefing // Credit: Getty Images

Was ist

Mal wieder einiges los bei OpenAI: Das Unternehmen arbeitet offenbar an einer Erweiterung für ChatGPT, die Google Konkurrenz machen soll (Bloomberg). Zudem entwickelt man ein Programm namens Media Manager, mit dem Urheberïnnen ihre Inhalte von der Nutzung durch Sprachmodelle ausschließen können (TechCrunch).

Beides ist spannend, wir beschäftigen uns heute aber mit einer anderen Ankündigung: OpenAI tritt der Coalition for Content Provenance and Authenticity (C2PA) bei und stellt Forschenden ein Tool zur Verfügung, das helfen soll, synthetische Inhalte zu erkennen (OpenAI). In der C2PA haben sich Unternehmen wie Google, Microsoft und Adobe zusammengeschlossen und entwickeln gemeinsame Standards, um Quelle und Bearbeitungsverfall von Multimedia-Inhalte fest in deren Metadaten zu verankern.

Das klingt eher komplex, doch die technischen Details sind gar nicht so entscheidend. Im Zentrum steht eine Frage: Wie können KI-generierte Inhalte zuverlässig erkannt und gekennzeichnet werden?

Warum das wichtig ist

In den kommenden Monaten stehen Dutzende Wahlen an, darunter in der EU, den USA und drei ostdeutschen Bundesländern. Fast alle großen Plattformen haben Zehntausende Stellen gestrichen und ihre Abteilungen für Trust and Safety drastisch verkleinert. Das allein wäre schon besorgniserregend, doch auf die verbliebenen Teams wartet eine große Herausforderung: eine nie dagewesene Flut an KI-generierten Inhalten.

Die Grenzen zwischen Synthetic Media und Social Media verschwimmen. Balenciaga-Papst (BuzzFeed News), sexualisierte Swift-Fakes (SMWB) und Shrimp Jesus (404 Media, Zeit Online) geben bereits einen Vorgeschmack.

Bislang dominieren Memes, Scam, Clickbait und frauenfeindliche Deepfakes, es ist nur eine Frage der Zeit, bis synthetische Inhalte größeren Stellenwert für politische Kommunikation und Kampagnen bekommen. In den USA machten bereits Deepfakes von Joe Biden (Bloomberg) und gefälschte Fotos von Donald Trump (NYT) die Runde. Gerade im Globalen Süden, wo Plattformen nachweislich nur einen Bruchteil der Ressourcen investieren, um Manipulationsversuche zu verhindern, drohen Wahlkämpfe, in denen man seinen Augen nicht mehr trauen darf.

Wie Plattformen reagieren

In den vergangenen Monaten haben alle relevanten Plattformen ihre Richtlinien verändert oder neue Labels eingeführt:

Our "Made with AI" labels on AI-generated video, audio and images will be based on our detection of industry-shared signals of AI images or people self-disclosing that they’re uploading AI-generated content. We already add "Imagined with AI" to photorealistic images created using our Meta AI feature.

Diese Ansätze haben viele Gemeinsamkeiten. Die Konzerne hoffen, dass Creator freiwillig offenlegen, wenn sie KI verwenden. Parallel setzen sie auf automatisierte Erkennungsmethoden, um Inhalte nachträglich zu labeln.

Die zwei Probleme sind offensichtlich:

  1. Wer bewusst täuschen will, wird KI-Content nicht von sich aus kenntlich machen.
  2. KI ist bislang erstaunlich schlecht darin, KI-Inhalte zu erkennen. Selbst OpenAI gibt in seinem Hilfebereich zu, dass Textdetektoren weitgehend nutzlos sind:
Do AI detectors work? In short, no, not in our experience.  Our research into detectors didn't show them to be reliable enough given that educators could be making judgments about students with potentially lasting consequences. While other developers have released detection tools, we cannot comment on their utility.

Warum Konzerne kooperieren müssen