Zum Inhalt springen
10 Min. Lesezeit Substack

Substack vs. Nazis: Die Gretchenfrage des Internets

Die Newsletter-Plattform hat sich in eine existenzielle Krise manövriert. Tatsächlich geht es aber um mehr als nur um Substack: Der Konflikt um Content-Moderation berührt eine der zentralen Fragen des Internets.

Substack vs. Nazis: Die Gretchenfrage des Internets

Was ist

Seit Wochen tobt ein heftiger Streit auf und um Substack. Auf den ersten Blick handelt es sich um die X-te (Pun intended) Debatte über den angemessenen Umgang mit Rechtsradikalen und die Verantwortung von Plattformen. Laaangweilig!

Doch wir glauben, dass du auch dann weiterlesen solltest, wenn dich Substack nicht die Bohne interessierst und du die Schnauze voll hast vom leidigen Kulturkampf in den USA. Denn an dem Fall zeigt sich eine Problematik, die das gesamte Netz tangiert.

Die Gretchenfrage, auf die wir mit unserer Überschrift anspielen, lautet frei nach Faust nicht etwa: Nun sag, wie hast du’s mit den Nazis? Entscheidend ist, wo die Grenze zwischen Plattform und digitaler Infrastruktur verläuft. Wir fassen zunächst zusammen, warum bei Substack die Hütte brennt. Dann erklären wir, warum die Kontroverse weitreichendere Bedeutung hat.

Was bei Substack los ist

We’re asking a very simple question that has somehow been made complicated: Why are you platforming and monetizing Nazis?

I just want to make it clear that we don’t like Nazis either—we wish no-one held those views. But some people do hold those and other extreme views. Given that, we don't think that censorship (including through demonetizing publications) makes the problem go away—in fact, it makes it worse.

I, and the writers who have signed this post, are among those who hope Substack will not change its stance on freedom of expression, even against pressure to do so.

It is our hope that Substack will reverse course and remove all pro-Nazi material under its existing anti-hate policies. If it chooses not to, we will plan to leave the platform.

In coming days, explicitly Nazi publications on Substack are slated to disappear. But the greater divide within its user base over content moderation will remain. The next time the company has a content moderation controversy — and it will — expect these tensions to surface again.

Warum die Debatte so ermüdend ist

You can create a site and say you’ll host whatever kinds of content you want. You can create a site and say that you won’t do any moderation at all. Those are valid decisions to make. But they’re not decisions that are in support of “free speech.” Because a site that caters to Nazis is not a site that caters to free speech. Because (as we’ve seen time and time again), such sites drive away people who don’t like being on a site associated with Nazis. And, so you’re left in a situation where you’re really just supporting Nazis and not much else.

Substack ist ein Saftladen und hat bislang noch nicht mal wirklich funktionierende Flagging-Instrumente entwickelt (das soll sich jetzt ändern). Aber man ist auch einer politischen Dynamik ausgesetzt, die da heißt: Entweder du bist eine Heimat für das Lager A [links + linksprogressiv + Mittelinks] oder eines für das Lager B [Mitterechts – libertär – konservativ – reaktionär – rechtsextrem]. Bislang konnte Substack diesem Schema entgehen, das wird sich nun ändern, befürchte ich.

Warum der Konflikt größer ist als Substack

Kein Mensch, keine Plattform hat ein gesetzlich garantiertes Recht, von einem Cloudflare online gehalten zu werden. Das Unternehmen muss Trollen kein Mikrofon unter die Nase halten. Sie können ihren Hass an Hunderten anderen Orten ins Netz kippen. Ihre Meinungsfreiheit wird nicht beschnitten, mit Zensur hat das nichts zu tun.

Es geht um die Frage, wie die Macht im Netz verteilt ist. Ich habe kein gutes Gefühl, wenn ein einzelner CEO mit einem Fingerschnippen ein großes Forum offline nehmen kann. Im Fall von 8chan ist das Ergebnis begrüßenswert, aber der Weg dahin macht mir Bauchschmerzen. Wenige Unternehmen – Registrare, DNS-Provider und Server-Betreiber – kontrollieren fast die gesamte Infrastruktur des Internets. Mir wäre es lieber, wenn Prince solche Entscheidungen nicht selbst träfe, sondern Gerichte darüber urteilten.

Be smart

You can't have it both ways. Man kann eine technische Dienstleistung anbieten und halbwegs glaubwürdig argumentieren, nicht für Inhalte verantwortlich zu sein. Doch viele Start-ups werden irgendwann von Infrastruktur-Anbietern zu Plattformen. Die Geschichte zeigt, dass sie gut daran täten, sich frühzeitig Gedanken um Content-Moderation zu machen. Leider beherzigen das nur wenige.

Niemand hat den schmerzhaften Erkenntnisprozess treffender beschrieben als Mike Masnick, der die 20-stufige "Content Moderation Learning Curve" am Beispiel von Elon Musk und Twitter durch deklinierte (Techdirt):

Level One: “We’re the free speech platform! Anything goes!”

(…)

Level Ten: “We’re the trustworthy free speech platform, doing our best to stop CSAM, hate speech, infringement, and spam, and we follow laws of democratic countries.”

(…)

Level Twenty: “Look, we’re just a freaking website. Can’t you people behave?”


Social Media & Politik


Follow the money


Next (AR, VR, KI, Metaverse)


Studien


Schon einmal im Briefing davon gehört


Tipps fürs Wochenende


Neue Features bei den Plattformen

YouTube

Instagram

TikTok