Was ist
Wie würdest du reagieren, wenn wir sagen, dass dieses Briefing künftig von KI geschrieben wird?
Wir können zumindest sagen, was unser erster Gedanke wäre: Wo ist der Unsubscribe-Button?
Um keine Missverständnisse aufkommen zu lassen: Eine unserer Grundregeln im Umgang mit generativer KI lautet: Wir schreiben jedes Wort selbst. Das schulden wir den tausenden Menschen, die für unsere Newsletter zahlen.
Das schulden wir aber auch uns selbst. Denn beim Schreiben geht es nicht nur darum, Informationen zu vermitteln. Der gesamte Rechercheprozess – Lesen, Recherchieren, Reflektieren, Strukturieren, Schreiben – führt zu Verständnis und Klarheit. Das ist mühsam, und Shortcuts wirken verlockend. Leider führen sie in Sackgassen.
Warum erzählen wir dir das?
In den vergangenen Tagen haben wir zwei großartige Essays gelesen, die ein Thema behandeln, das uns seit Langem beschäftigt:
- Dan Brooks, The Atlantic: The Problem With Using AI in Your Personal Life
- Rebecca Solnit, Guardian: What technology takes from us – and how to take it back
Beide hinterfragen das Effizienzversprechen von Technologie im Allgemeinen und generativer KI im Besonderen. Natürlich können Sprachmodelle viele Aufgaben schneller und manche auch besser erledigen als Menschen – aber ist das überhaupt wünschenswert? Was geht verloren, wenn wir Denken und Schreiben, Lernen und alles, was Mühe macht, an Maschinen auslagern?
Im vergangenen Sommer schrieb Jürgen „tante“ Geuter über Sprachmodelle, die sämtliche Interaktionen reibungs- und mühelos machen – aber auch seelenlos:
Und am Ende fühlt es sich so an, als sei dies das narrative Versprechen von „KI“: Nie wieder von irgendjemandem berührt werden zu müssen. Nicht von den Menschen, die man derzeit vielleicht noch beschäftigen muss, um sein Unternehmen am Laufen zu halten. Nicht von den Nachbarn, die vielleicht Autos von der Straße entfernen wollen, während man selbst nur schnell vor dem eigenen Haus parken möchte, um flinker hineinzukommen. Nicht von der Umwelt selbst, die einem ständig die Konsequenzen des eigenen Handelns als Mitglied dieser Spezies vor Augen führt. Von gar nichts.
Die Utopie der „KI“ ist die Dystopie, niemals von irgendetwas berührt zu werden.
Oft verlinken wir nur als Quellennachweis. In diesem Fall ist das anders. Wir empfehlen dir dringend, alle drei Texte zu lesen. Gerade weil sich Sprachmodelle so schnell weiterentwickeln und die Möglichkeiten theoretisch grenzenlos sind, empfinden wir solche Überlegungen als essenziell.
Darauf aufbauend möchten wir einige Vorschläge für eine KI-Etikette machen. Wir befürchten, dass die Slop-Welle erst ihren Anfang nimmt und in den kommenden Jahren nicht nur das Netz, sondern auch berufliche und private Kommunikation fluten wird. Umso wichtiger sind einige Grundregeln.
Bitte lass die Finger von KI, wenn …
Du Freundinnen oder Bekannten schreibst
- Jahrhundertelang galt: Wer einen längeren Text schreibt, hat sich zumindest ein wenig Mühe gemacht. Es war ein Signal: Du bist mir etwas wert.
- Generative KI verändert das grundlegend. Plötzlich lassen sich in Sekunden seitenlange Nachrichten erzeugen.
- Zum ersten Mal in der Geschichte der Menschheit kann ein Text der Empfängerin mehr Aufwand abverlangen als dem Absender.
- Mit dieser Macht sollte man vorsichtig umgehen. Menschen, die einem wichtig sind, haben keinen KI-Slop verdient (Kollegïnnen auch nicht, dazu gleich mehr).
- Schreiben kostet Zeit. Freundschaften zu pflegen, kostet auch Zeit. In zwischenmenschlichen Beziehungen hat Effizienz keinen Platz.
Du mit Kollegïnnen kommunizierst
- Im vergangenen September prägten Forschende aus Stanford und den BetterUp Labs den Begriff „Workslop“ (Harvard Business Review).
- Er entsteht, weil KI universell verfügbar ist. Angestellte schicken Kolleginnen KI-generierte Berichte und Präsentationen.
- Auf den ersten Blick wirken die Ergebnisse strukturiert und eloquent, bei genauerem Hinsehen entpuppen sie sich als unbrauchbar.
- Die Empfängerïnnen müssen den KI-Müll mühsam interpretieren und korrigieren, die Produktivität des gesamten Unternehmens leidet.
Menschen nicht eingewilligt haben, KI-Inhalte zu empfangen
- „Ich habe mal ChatGPT gefragt, und das ist die …“
- STOP!
- Wir wissen, wie man Chatbots bedient, und sind selbst in der Lage, ein Sprachmodell zu fragen.
- Würde jemand ernsthaft sagen oder in einem Forum schreiben: „Ich habe mal Google gefragt, und das ist das erste Suchergebnis, das ich nicht überprüft, aber trotzdem kopiert habe“?
- Die eigenen Überlegungen von KI prüfen lassen? Gern. ChatGPT-Copypasta? Verschon uns bitte.
Der Prozess Teil des Ergebnis ist
- Die ersten drei Szenarien betreffen in erster Linie die Menschen, die ungefragt KI-Inhalte vorgesetzt bekommen.
- Wer Prozesse mithilfe generativer KI „optimiert“, schadet aber womöglich nicht nur anderen, sondern sich selbst.
- Mittlerweile ist die Forschungslage eindeutig: Wenn man Denken an LLMs auslagert, werden andere und weniger Areale im Hirn aktiv (SMWB)
- Paper zusammenfassen, Gedanken strukturieren, Gesprächsnotizen entwirren, Recherchedossiers erstellen: Klar, dafür nutzen wir auch manchmal KI.
- Wir merken aber: Auch wenn das Ergebnis gut sein mag, bleibt bei uns oft weniger hängen.
- Nach Möglichkeit verzichten wir deshalb auf den Einsatz von Sprachmodellen, wenn wir genügend Zeit haben und uns das Thema am Herzen liegt.
Die Antwort richtig sein muss
- Moderne LLMs konfabulieren seltener. Sie bleiben aber probabilistische Systeme, die Antworten geben, die wahrscheinlich richtig sind.
- Für viele Einsatzzwecke ist das in Ordnung. Für manche ist es katastrophal.
- Gestern berichtete Reuters etwa über eine zunehmende Zahl von Operationen, die schiefgehen, weil KI Fehler macht.
- Generell scheinen Sprachmodelle hilfreich bei der Diagnose von Krankheiten zu sein – versagen aber vollkommen, wenn sie Ärztïnnen ersetzen sollen (404 Media).
- Was in der Medizin gilt, betrifft in abgeschwächter Form auch den Journalismus. Eine Antwort, die zu 98 Prozent richtig ist, reicht nicht. Wir benötigen Antworten, die garantiert richtig sind.
- Dafür sind Sprachmodelle ungeeignet, solange man sie nicht durch RAG-Systeme einhegt und mit menschlicher Expertise ergänzt.

Politics & Power
Manchmal verdichten sich Ereignisse so, dass man das Gefühl hat: Jetzt kippt etwas. Diese Woche könnte so eine sein. Drei Prozesse gleichzeitig, entsiegelte interne Dokumente, eine geleakte E-Mail von Mark Zuckerberg und überall dieselbe Erkenntnis: Die Plattformen haben nicht versagt. Sie haben funktioniert. Nur eben nicht primär im Sinne der Nutzerïnnen.
- EU nimmt TikToks Design ins Visier: Die EU-Kommission hat in einem vorläufigen Untersuchungsergebnis festgestellt, dass TikTok mit seinem App-Design gegen den Digital Services Act (DSA) verstößt. Im Fokus: Endlos-Scrollen, Autoplay und ein hochpersonalisierter Empfehlungsalgorithmus, die das Gehirn in einen „Autopilot-Modus" versetzen sollen. TikToks eigene Schutzmaßnahmen wie Bildschirmzeitlimits und Co. werden als weitgehend wirkungslos eingestuft. TikTok weist erwartungsgemäß die Vorwürfe als „kategorisch falsch" zurück. Sollten sich die Befunde jedoch bestätigen, droht TikTok nicht nur eine Strafe von bis zu sechs Prozent des weltweiten Jahresumsatzes. Es hätte vermutlich auch Konsequenzen für alle anderen Social-Media-Angebote, über die wir seit mehr als 13 Jahren berichten. (Tagesschau)
- Historischer Prozess gegen Instagram und Youtube: In Los Angeles hat diese Woche ein Verfahren begonnen, das ebenfalls als Präzedenzfall für Tausende ähnlicher Klagen gegen Social-Media-Angebote gelten könnte. Meta (Instagram) und Google (YouTube) sind angeklagt, ihre Plattformen bewusst so gestaltet zu haben, dass sie Kinder und Jugendliche süchtig machen – auf Kosten ihrer psychischen Gesundheit. Im Mittelpunkt steht der Fall eines heute 19-jährigen Mädchens, dessen Social-Media-Nutzung laut Klage zu Depressionen und Suizidgedanken geführt habe. Der Prozess wird sechs bis acht Wochen dauern, Mark Zuckerberg soll persönlich aussagen. TikTok und Snap haben sich bereits außergerichtlich geeinigt. (New York Times)
- Warum Section 230 nicht zieht: Wie eingangs beschrieben fühlen sich die Klagen diesmal anders an. Jahrelang war die sogenannte Section 230 des US-amerikanischen Communications Decency Act (Wikipedia) das Schild, hinter dem sich Social-Media-Plattformen bequem verstecken konnten: Das Gesetz schützt Tech-Unternehmen vor Haftung für Inhalte, die Userïnnen auf ihren Plattformen posten. Section 230 macht es überhaupt möglich, dass Leute in den sozialen Medien Inhalte und Kommentare posten können. Doch genau das ist dieses Mal in beiden Verfahren nicht der Kern des Vorwurfs. Weder die EU-Kommission noch die Kläger in Los Angeles greifen an, was auf TikTok, Instagram oder YouTube zu sehen ist (was dann eher eine Frage von Moderation wäre). Ihnen geht es darum, wie die Apps gebaut sind, wie sie designt sind. Endlos-Scrollen, Autoplay, Benachrichtigungen mitten in der Nacht sind Designentscheidungen der Unternehmen, hier geht es nicht um Inhalte. Das ist der juristische Kniff, der diese Verfahren von allen anderen unterscheidet, und es ist auch der Grund, warum die Konzerne deutlich nervöser sein dürften als in der Vergangenheit.
- New Mexico klagt gegen Meta wegen Kinderschutz: Ebenfalls seit dieser Woche läuft in Santa Fe, New Mexico, ein zweiter Prozess gegen Meta. Wichtig: Hier geht es nicht um das vermeintlich suchterzeugende Design der Plattform, sondern um sexuelle Ausbeutung von Kindern. Der Generalstaatsanwalt Raúl Torrez wirft Meta vor, seine Plattformen wissentlich zu einem Tummelplatz für Missbrauch und Sexhandel mit Minderjährigen gemacht zu haben. (WIRED)
- Geleakte Mail von Zuckerberg: Im Rahmen der Klage des US-Bundesstaats New Mexico gegen Meta ist eine vertrauliche E-Mail von Mark Zuckerberg aus dem Jahr 2021 ans Licht gekommen. Zuckerberg schrieb die Mail einen Tag, nachdem das Wall Street Journal enthüllt hatte, was Metas eigene Forscher herausgefunden hatten: Die Plattform sorgt bei einem Drittel aller Teenager-Mädchen für eine Verschlechterung des Körperbilds (SMWB). In der Mail fragte der Meta-Chef intern nach, ob das Unternehmen seine Forschung zu den gesellschaftlichen Auswirkungen der eigenen Plattformen nicht einmal grundlegend überdenken solle, weil sie mehr juristische Probleme schaffe, als dass sie nützlich sei. Apple studiere das laut Zuckerberg alles gar nicht und habe daher auch keine Probleme. Ähnlich verhalte es sich bei YouTube, die (im übertragenen Sinne) bewusst ihren Kopf in den Sand steckten. (The Verge)
- Dass die Plattformen also nicht nur gewusst haben, was ihre Produkte mit Jugendlichen machen, sondern all die fraglichen Methoden auch weiter gezielt eingesetzt haben, legen zudem diese Dokumente nahe: The Tech Oversight Project.
In other news
- EU: WhatsApp soll KI-Konkurrenz zulassen: Die EU-Kommission hat Meta in einem formellen Beschwerdeschreiben aufgefordert, konkurrierende KI-Chatbots wieder auf WhatsApp zuzulassen. Im Oktober 2025 hatte Meta seine Geschäftsbedingungen für die WhatsApp-Business-API dahingehend geändert, dass seit Januar 2026 nur noch Metas eigener Assistent in die App integriert ist. Dienste wie ChatGPT und Perplexity, die über WhatsApp Milliarden von Nutzerïnnen erreichen konnten, wurden damit faktisch ausgesperrt. Die Kommission wertet das als Missbrauch einer marktbeherrschenden Stellung. Meta hält dagegen, WhatsApp sei kein essenzieller Vertriebskanal für KI-Chatbots, schließlich könnten Userïnnen über andere Apps und Websites auf sie zugreifen. (Tagesschau)
- Rechtes Gegenprogramm zur Halftime-Show: Während Bad Bunny in der Halbzeit des Super Bowl auftrat, sendete die rechtskonservative Organisation Turning Point USA ein Gegenprogramm auf YouTube. Jack Posobiec, einer der bekanntesten Verbreiter von Verschwörungstheorien in den USA, und Kid Rock bescherten der Organisation des kürzlich verstorbenen, rechten Aktivisten Charlie Kirk rund sechs Millionen gleichzeitige Live-Zuschauer sowie fast 25 Millionen Gesamtaufrufe. Das ist natürlich nur ein Bruchteil dessen, was die Halftime-Show an Views einheimste. Aber es verdeutlicht, wie weit das rechte Medien-Ökosystem in den USA inzwischen reicht. (New York Times)
Attention Economy
- OpenAI testet jetzt Anzeigen bei ChatGPT: Wir sind sehr gespannt, wie sich das entwickelt 👀 (OpenAI)
- Lieber menschliche als KI-Inhalte kennzeichnen? Wenn die Bemühungen zur Kennzeichnung KI-generierter Inhalte schon jetzt an ihre Grenzen stoßen, wäre es dann nicht viel sinnvoller, menschliche Inhalte mit einer Art Bio-Label zu kennzeichnen? (The Verge)
- Joanna Stern verlässt das Wall Street Journal und gründet ein eigenes Medien-Startup: Was man leicht als Randnotiz abtun könnte, scheint uns eher als Beleg für einen grundsätzlichen Trend in der Attention Economy: Selbst die größten Medienhäuser schaffen es nicht, etablierte Journalistïnnen zu halten. Die Chancen, die der wandelnde Medienmarkt bringt, erscheinen attraktiver als eine Zukunft bei Traditionshäusern. (nerds.xyz)
- Ein Blick hinter die Kulissen von Marques Brownlee: Der YouTuber Marques Brownlee gehört zu den bekanntesten Gesichtern dieser neuen Medienwelt. Mit seinen Tech-Reviews erreicht er regelmäßig ein Millionenpublikum. Wie sich Brownlees Arbeit über die Jahre gewandelt und wie er es geschafft hat, von einem Vlogger zu einer Instanz im Tech-Journalismus zu werden, zeigt dieser Blick hinter die Kulissen: YouTube / The Studio.
- 12 Überlebensstrategien für Medienhäuser im KI-Zeitalter: Unser alter Weggefährte Konrad Weber hat einen lesenswerten Artikel dazu geschrieben, warum Medienhäuser ihre Geschäftsmodelle grundlegend überdenken müssen. Konrad plädiert dafür, dass Verlage vom traditionellen Reichweitenmodell zu einer „Trust Economy“ wechseln, die auf Vertrauen und direkten Kundenbeziehungen basiert. Diese Transformation betrifft nicht nur technische Aspekte, sondern erfordert laut Konrad eine fundamentale Neudefinition der redaktionellen Arbeit im digitalen Zeitalter. (Konrad Weber)
- Wie sich der BR auf eine KI-vermittelte Zukunft vorbereitet, kann man hier erfahren: Newsroom Robots.
Trends & Beobachtungen
- Anthropics Philosophin in Residence: Es gibt Jobs, die so spannend klingen, dass man am liebsten sofort ein Praktikum machen würde. Amanda Askells Arbeit gehört definitiv dazu. Sie „unterrichtet“ Anthropics Chatbot Claude in Moral und Persönlichkeit, analysiert sein Denken, gestaltet seine Antworten mit bis zu 100-seitigen Prompts und vergleicht ihre Rolle mit der Erziehung eines Kindes. Das Ziel: ein hilfsbereites, ethisches „digitales Selbst“. (Wall Street Journal)
- KI entlastet Arbeit nicht, sie sorgt dafür, dass man mehr leisten will. So lautet eines der Ergebnisse einer achtmonatigen Feldforschung bei einem Tech-Unternehmen aus dem Valley. Klingt vertraut, oder? (Havard Business Review)
Neue Features bei den Plattformen
ByteDance
- Neue Video-KI: ByteDance sorgt mit seinem neuen Video-Modell Seedance 2.0 für Aufsehen. (Seedance 2.0)
Spotify
- Spotify führt ein neues Feature ein, das Nutzerïnnen weiterführende Informationen zu Songs an die Hand gibt: “About the Song” erinnert stark an Roon – eine App, die bei Hifi-Enthusiasten hoch im Kurs steht, im Massenmarkt aber keine große Rolle spielt. (Spotify / For the record)
Snapchat
- Nachdem das Feature “Home Safe” gut angekommen ist (no pun intended), wird die Funktion nun um andere Orte erweitert. Gut! (Snapchat / Newsroom)
Bluesky
- Bluesky kann jetzt Drafts. (Bluesky / @bsky.app)
Wir fassen zweimal pro Woche die Nachrichten und Debatten rund um Social Media, Tech und KI zusammen. Unser Anspruch: Wenn du unser Briefing liest, erfährst du nicht nur alles, was wichtig ist – sondern verstehst es auch.
Garantiert kein Slop, jederzeit kündbar.