Zum Inhalt springen
4 Min. Lesezeit

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen
Illustration: Julia Tripke / Social Media Watchblog

Von Telegram bis 4chan: Wo sich Rechtsextreme vernetzen

Was ist: Jakob Guhl, Julia Ebner und Jan Rau haben für das Londoner Institute for Strategic Dialogue (ISD) analysiert, wie rechtsextreme Online-Subkulturen auf alternativen Plattformen gedeihen. Die Studie trägt den Titel "Das Online-Ökosystem Rechtsextremer Akteure". Das 76-seitige PDF liegt bislang nur auf Englisch vor. Bei der Bosch-Stiftung, die das Projekt gefördert hat, gibt es eine deutsche Zusammenfassung (PDF, zwölf Seiten).

Warum das wichtig ist: Allein im vergangenen Jahr gab es vier rechtsextrem motivierte Terroranschläge (Christchurch, El Paso, Poway, Halle). Die Täter waren junge, weiße Männer, die sich mit Gleichgesinnten auf Imageboards wie 8chan ausgetauscht und in ihrem Hass auf Frauen, Ausländer und Jüdïnnen bestätigt hatten. Sie übertrugen ihre Morde live ins Netz (der Täter von Poway versuchte es vergeblich) und veröffentlichten krude Pamphlete, die Bezug auf rassistische Memes und Verschwörungstheorien wie den "großen Austausch" nehmen.

Diese Subkultur ist also mehr als eine Parallelwelt voller extremistischer Spinner, die im Netz zur Gewalt aufrufen. Einige von ihnen machen ihre Drohungen war. Sie bauen Waffen und ermorden Menschen. In den vergangenen fünf Jahren haben rechtsextrem motivierte Terroranschläge stark zugenommen (die Studie spricht von 320 Prozent, gibt aber keine Quelle an). Das alternative Online-Ökosystem hat definitiv dazu beigetragen.

Was die Forscherïnnen untersucht haben: Die Digital Analysis Unit des ISD hat sich vor allem mit deutschsprachigen und auf Deutschland fokussierten Communities beschäftigt. Mit qualitativen und quantitativen Methoden wie Befragungen und automatisierten Textanalysen beleuchten die Wissenschaftlerïnnen insgesamt zehn alternative Plattformen und deren Nutzerïnnen.

Dazu zählen sechs ultralibertäre Plattformen, die nahezu bedingungslose Redefreiheit versprechen und damit Rechtsextreme anziehen: 8chan, Telegram, Minds, Voat, Gab und BitChute. Hinzu kommen vier "gekaperte" Plattformen, die nicht nur, aber auch von Extremistïnnen genutzt werden: 4chan, Reddit, VK und Discord.

Was die Forscherïnnen herausgefunden haben: Die komplette Studie wiederzugeben, sprengt dieses Briefing. Deshalb picken wir einige Erkenntnisse heraus, die wir für besonders wichtig und/oder überraschend halten:

Was die Forscherïnnen empfehlen: Im Gegensatz zu den recht konkreten Ergebnissen bleiben die Handlungsempfehlungen eher allgemein und abstrakt. Das spricht aber nicht gegen die Wissenschaftlerïnnen, sondern zeigt nur, dass es für ein komplexes Problem keine einfachen Lösungen gibt.

Guhl, Ebner und Rau sehen alle gesellschaftlichen Akteure gefordert: Politik, Tech-Unternehmen, Zivilgesellschaft und Forschung müssten gemeinsam tätig werden, um Radikalisierung zu verhindern. Dazu zählen sie unter anderem diese Maßnahmen:

Be smart: Im vergangenen Jahr haben wir uns mehrfach mit der Rolle beschäftigt, die Netz, Medien und Online-Subkulturen für Terroranschläge spielen. Die Analyse aus Briefing #586, die wir nach dem Massenmord von Halle geschrieben haben, ist nach wie vor aktuell.

Einen Aspekt betonen wir erneut, da er in der Studie nur sehr am Rande auftaucht: Auch klassische Medien haben eine Verantwortung. Es gibt den Werther-Effekt nicht nur für Selbstmorde, sondern auch für Terrorismus. Die Art und Weise, wie Journalistïnnen über Attentäter berichten, ist entscheidend, ob sie ihr Ziel erreichen.

Diese Terroristen inszenieren ihre Morde nicht für die anderen Anons auf ihren Imageboard, sondern für eine massenmediale Öffentlichkeit. Sie wollen Schrecken verbreiten und streben maximale Aufmerksamkeit an. Es liegt auch an Zeitungen, Fernsehsendern und Online-Medien, das zu verhindern.

Know more:


Grafik: Julia Tripke