The Facebook Files
Was ist
Dem Wall Street Journal (WSJ) wurden zahlreiche Dokumente zugespielt, die belegen, dass Facebook oft bis ins kleinste Detail um die Fehler der Plattformen weiß. Auch wissen sie um die Schäden, die von den Plattformen mit verursacht werden. Das Journal schreibt:
Time and again, the documents show, Facebook’s researchers have identified the platform’s ill effects. Time and again, despite congressional hearings, its own pledges and numerous media exposés, the company didn’t fix them. The documents offer perhaps the clearest picture thus far of how broadly Facebook’s problems are known inside the company, up to the chief executive himself.
Bislang wurden folgende Artikel in der Serie veröffentlicht:
- Facebook Says Its Rules Apply to All. Company Documents Reveal a Secret Elite That’s Exempt
- Facebook Knows Instagram Is Toxic for Many Teen Girls, Company Documents Show
- Facebook Tried to Make Its Platform a Healthier Place. It Got Angrier Instead.
- Facebook Employees Flag Drug Cartels and Human Traffickers. The Company’s Response Is Weak, Documents Show.
1) Nicht alle Nutzerïnnen sind gleich
- Der erste Artikel der Serie beschäftigt sich mit einem Facebook-internen Programm namens „XCheck“. Das Programm war ursprünglich mal als Qualitätskontrolle für hochrangige Accounts gedacht. 2018 veröffentlichte Facebook einen Blogpost, in dem das Programm vorgestellt wurde.
- Sinn und Zweck des Programms war es, Posts von besonders prominenten Accounts (etwa Medienunternehmen, Politiker oder Musiker) einem zweiten Check zu unterziehen, bevor Posts gelöscht werden.
- Heute schirmt das Programm – so der Vorwurf des Wall Street Journal – über fünf Millionen VIP-Accounts von der normalen Durchsetzung der Community Standards ab.
- Einige Accounts werden laut WSJ sogar auf einer Art Whitelist geführt, bei denen die Postings gar keinem Check mehr unterzogen werden. Die Inhaber können somit posten, was sie wollen.
- Genau dies würden zahlreiche Accounts missbrauchen und Material posten, etwa Belästigungen oder Aufforderungen zur Gewalt, die bei allen anderen Nutzerïnnen zu Sanktionen führen. (Solche Sanktionen reichen vom Löschen des Posts bis zum Verlust des Accounts.)
- Mark Zuckerberg betont öffentlich immer wieder, dass bei Facebook Milliarden Nutzerïnnen auf Augenhöhe mit den Eliten aus Politik, Kultur und Journalismus sprechen können. Genau das ist mit Blick auf das „XCheck“-Programm aber nichts als Augenwischerei.
- Neben diesen Doppelstandards, die ein Beleg dafür sind, dass Social-Media-Plattformen eben doch gar nicht jegliche Kommunikation „demokratisieren“, sind einige weitere Dinge problematisch, wie Casey Newton festhält (Platformer):
- Die Öffentlichkeit weiß nicht, wer unter das XCheck-Programm fällt und wer nicht.
- Es gibt keine öffentlichen Standards dafür, wer für das Programm in Frage kommt.
- Die Standards werden ungleichmäßig angewandt: So sind z.B. einige Kandidaten für politische Ämter erfasst, andere nicht.
- Es gibt keine öffentlichen Angaben darüber, wie oft „XCheck“ angewendet wird oder wie es sich auf die Inhalte der Plattform auswirkt.
2) Facebook weiß um den negativen Einfluss von Instagram
- Der zweite Artikel der Serie beschäftigt sich mit internen Studien, in denen darauf hingewiesen wird, welche negativen Auswirkungen die Nutzung von Instagram haben kann – insbesondere für Mädchen im Teenageralter.
- Das Wall Street Journal konnte einige Präsentationen von 2019 einsehen, in denen die Studienergebnisse (hochrangigen Mitarbeiterïnnen) vorgestellt wurden. Dort heißt es unter anderem:
We make body image issues worse for one in three teen girls.
Teens blame Instagram for increases in the rate of anxiety and depression.
Social comparison is worse on Instagram.
- Von den Jugendlichen, die in Gesprächen mit Facebook-Wissenschaftlerïnnen über Selbstmordgedanken berichteten, führten 13 % der britischen und 6 % der amerikanischen Nutzerïnnen den Wunsch, sich umzubringen, auf Instagram zurück.
- Trotz dieser fürchterlichen Studienergebnisse spielen Zuckerberg und Co die negativen Auswirkungen der Plattform öffentlich gern herunter. Im März sagte Mark Zuckerberg bei einer Anhörung im Kongress:
The research that we’ve seen is that using social apps to connect with other people can have positive mental-health benefits.
- Die Gründe für Facebooks Argumentation liegen auf der Hand:
- Nicht alle Teenager sind betroffen. Für die meisten Teenager sind die Auswirkungen "negativer sozialer Vergleiche" überschaubar und können „durch den Nutzen der App als unterhaltsame Möglichkeit, sich auszudrücken und mit Freunden in Kontakt zu treten, aufgewogen werden“, zitiert das Wall Street Journal aus einer der Untersuchungen.
- Instagram ist Facebooks Zukunft: Mehr als 40 % der Instagram-Nutzerïnnen sind 22 Jahre und jünger. Etwa 22 Millionen Teenager loggen sich in den USA laut WSJ täglich bei Instagram ein. Das sind im Vergleich zu Facebook mehr als viermal so viele. Zudem nimmt die Zahl der jungen Facebook-Nutzerïnnen seit Jahren ab. Das Journal schreibt: „Im Durchschnitt verbringen Teenager in den USA 50 Prozent mehr Zeit auf Instagram als auf Facebook.“
- Dass Facebook daher alles daran setzt, nichts auf Instagram kommen zu lassen, ist aus wirtschaftlicher Sicht verständlich. Aber eben auch nur aus dieser Perspektive.
- Zu Facebooks Ehrenrettung muss man sagen, dass sie mit Blick auf die Studienergebnisse nicht gänzlich untätig geblieben sind. Es gibt Anti-Belästigungs-Tools, Well-Being-Guides und Hinweise bei problematischen Inhalten.
- Auch hat Facebook damit experimentiert, die Anzahl der Likes zu verstecken, um so den Druck zu minimieren, auf der Plattform reüssieren zu müssen. Der Test mit dem Projekt-Namen Daisy hat allerdings wenig gebracht, wie in einer internen Präsentation deutlich wird, aus der das WSJ zitiert:
We didn’t observe movements in overall well-being measures.
- Instagram wird – den wenigen Anstrengungen zum Trotz – weiterhin vor allem als Plattform wahrgenommen, auf der es darum geht, wie man aussieht, was man hat, wo man ist. Dass Facebook Instagram nun zu einer Art Shopping-Mall umbaut, trägt dazu selbstverständlich bei.
- Wie es weitergeht: Während Instagram stolz auf die Untersuchungen ist (Instagram Newsroom), zeigt sich der US-Kongress alarmiert und plant eine Untersuchung zum Thema (The Verge).
- Dass Instagram for Kids (BuzzFeed) eine gute Idee ist, erscheint in diesem Licht zudem übringens nun noch einmal sehr viel fragwürdiger (Techcrunch, NPR) als es eh schon der Fall war.
3) Der Fokus auf „Meaningful Interactions“ war ein Fehler
- 2018 sollte ein großer Umbau des Algorithmus dafür sorgen, dass Facebook wieder ein besserer Ort wird. Vorangegangen war eine intensive Debatte darüber, welchen Anteil Facebook am Wahlsieg Trumps und an der Spaltung der (US-) Gesellschaft hat. Der Fokus auf sogenannte „Meaningful Interactions“ sollte für Facebook eine Art Befreiungsschlag sein und Menschen dazu verleiten, Facebook wieder mehr zu nutzen. Laut den Recherchen des Wall Street Journal hat der Umbau Facebook allerdings zu keinem besseren Ort werden lassen, sondern das Gegenteil bewirkt. Davon handelt der dritte Artikel der Serie.
- Der Fokus auf sogenannte „Meaningful Interactions“ sollte die Beziehungen zwischen den Nutzerïnnen stärken und ihr Wohlbefinden verbessern. Endlich wieder mehr Interaktion mit Freunden, Bekannten und Verwandten, weniger passiver Konsum von professionell produzierten Inhalten, was laut diversen Untersuchungen sowieso schädlich für die psychische Gesundheit der Nutzerïnnen wäre. Soweit Zuckerbergs Plan damals.
- Umgesetzt wurde der Plan mithilfe eines (geheimen) Bewertungsverfahrens, das jeden Post darauf analysierte, wie bedeutungsvoll er ist. Die folgende Grafik verdeutlicht die Bestrebungen:
- Diese Neu-Gewichtung der Posts hatte allerdings zur Folge, dass sich vor allem jene Posts auf der Plattform verbreiten konnten, die für Aufregung sorgten. Das WSJ zitiert Facebook-Mitarbeiterïnnen, die auf diesen unerwünschten Effekt aufmerksam wurden: „Misinformation, toxicity, and violent content are inordinately prevalent among reshares.“
- Auch BuzzFeed-Chef Jonah Peretti erkannte frühzeitig, welche negativen Konsequenzen der Umbau von Facebooks News Feed hatte. Das Journal schreibt:
“MSI ranking isn’t actually rewarding content that drives meaningful social interactions,” Mr. Peretti wrote in his email to the Facebook official, adding that his staff felt “pressure to make bad content or underperform.” (…) It wasn’t just material that exploited racial divisions, he wrote, but also “fad/junky science,” “extremely disturbing news” and gross images.
- Das Thema ist gerade auch aus der Perspektive „Social Media und Journalismus“ sehr spannend. Wir werden daher in einem der kommenden Briefings auf diesen Teil der WSJ-Recherche noch einmal genauer eingehen.
4) Facebook unternimmt nur dort Anstrengungen, wo öffentlicher Ärger droht
- Der vierte Teil der Serie beschäftigt sich damit, dass Facebook zwar mit wenigen Ausnahmen weltweit genutzt werden kann, das Unternehmen aber nur dort Ressourcen investiert, wo Ärger durch Medien, Aktivistïnnen und Politik droht.
- Das Wall Street Journal berichtet, dass im Jahr 2020 „Facebook-Mitarbeiterïnnen und externe Auftragnehmer (etwa Content-Moderatoren) mehr als 3,2 Millionen Stunden damit verbrachten, Informationen, die das Unternehmen als falsch oder irreführend einstufte, ausfindig zu machen, zu kennzeichnen oder in einigen Fällen zu entfernen“. Lediglich 13 % dieser Zeit wurde für die Bearbeitung von Inhalten außerhalb der USA aufgewendet. 13 Prozent! Und das liegt nicht nur am Volumen.
- Samidh Chakrabarti, früher verantwortlich für das Civic Engagement Team bei Facebook, erklärt in einem Twitter-Thread sehr deutlich, welche Probleme sich aus diesem Vorgehen von Facebook ergeben. Er schreibt:
When a social network operates in any market, it needs to ensure it can adhere to some minimal set of trust & safety standards. It needs to be capable of processing user reports and automatically monitoring for the worst content in all the supported dialects. Seems like table stakes (and it is), but not operationally trivial. You must find ppl who know the dialect & context, train them on platform rule nuances, ensure they have a safe workplace, and hire enough to staff 24/7 and mitigate single points of bias. Takes time, not just $.
Social Media & Politik
Bundestagswahl
- Mozilla-Studie zu TikTok: Laut einer Mozilla-Studie schafft es TikTok vor der Bundestagswahl nicht, Falschinformationen adäquat einzudämmen. Zudem decken die Forscherïnnen in der Studie gefälschte Konten, fehlerhafte Wahlkennzeichnung und verspätete Faktenchecks auf. Disclaimer: Wir haben die Studie noch nicht in aller Ausführlichkeit studieren können, kennen aber einige der Autorïnnen persönlich und machen daher an dieser Stelle „blind“ auf die Studie aufmerksam.
In other news
- Facebook entfernt Querdenker-Gruppen und -Seiten: Facebook hat ein Netzwerk entfernt, das mit der Querdenken-Bewegung in Verbindung steht und wiederholt gegen die Gemeinschaftsstandards verstossen hat (Facebook Newsroom). Insgesamt handelt es sich um 150 Kanäle und Gruppen (T-Online).
- Apple vs Epic: Den ganzen Mai über lieferten sich Apple und Epic Games eine heftige Auseinandersetzung vor Gericht (siehe Briefing #722). Im Kern geht es um die Frage, wer die Regeln im App Store schreiben darf. Nun hat das Gericht entschieden, dass Apple tatsächlich seine Regeln ändern muss. Apple muss Entwicklerïnnen künftig gestatten, iOS-Nutzerïnnen Alternativen zu Apples Bezahlmechanismus zu bieten. Als Sieger geht Epic damit aber noch lange nicht vom Platz.
- Für einen generellen Überblick zum Thema empfehlen wir den Text von Max Muth: Angriff noch mal abgewehrt (SZ).
- Wer tiefer einsteigen möchte, sollte die Texte von Marco Arment (The Future of the App Store) und Ben Thompson (The Apple v. Epic Decision) lesen.
- Für alle Jura-Nerds hier die Entscheidung als PDF
- Social Media und Polarisierung: Eine Meta-Studie zeigt, dass Social Media sehr wohl dazu beiträgt, Gesellschaften auseinzudividieren. Die sozialen Medien dafür allein verantwortlich zu machen, wäre aber zu kurz gesprungen: Fueling the Fire: How Social Media Intensifies U.S. Political Polarization — And What Can Be Done About It (NYU | STERN)
- Miese Daten: Wir beschweren uns ja hier im Briefing oft, dass Facebook zu sehr „Blackbox“ ist und in aller Regel viel zu wenig Daten herausgibt, um wirklich zu verstehen, was auf der Plattform passiert. Gespannt blickten wir daher auf die Kooperation von Facebook mit einigen namhaften Universitäten, um zu erforschen, welche Bedeutung die Plattform für die US-Wahl 2020 hatte. Jetzt berichtet die New York Times, dass der Datensatz, den Facebook bereitgestellt hatte, fehlerhaft ist. Die Untersuchungen der Wissenschaftlerïnnen sind somit für die Tonne. Grrrr.
- Taliban und Social Media: Wie sollen die Social-Media-Plattformen eigentlich mit den Taliban umgehen, wo sie doch jetzt Afghanistan übernommen haben? Während Facebook und YouTube weiterhin sehr strikte Auslegungen haben, was die Möglichkeiten der Taliban angeht, die Plattformen zu nutzen, ist Twitter etwas weniger streng. Slate hat den Überblick: Should Facebook Let the Taliban Post?
- Irische Datenschutzbehörde ermittelt gegen TikTok: Die für TikTok zuständige Datenschutzbehörde in der Europäischen Union hat zwei Untersuchungen gegen TikTok eingeleitet (Reuters). Zum einen geht es um die Verarbeitung personenbezogener Daten von Kindern. Zum anderen um die Übermittlung personenbezogener Daten nach China.
Kampf gegen Desinformation
- Faktenchecks haben positive Effekte: Eine Studie (GWU) zweier Forscher der George Washington University zeigt, dass Faktenchecks den Glauben an Fehlinformationen deutlich verringern. Die Autorïnnen kommen zu dem Schluss, dass die Überprüfung von Fakten ein wirksames Instrument zur Bekämpfung von Fehlinformationen in verschiedenen Ländern, Kulturen und politischen Umfeldern ist.
Creator Economy
- D’Amelios geht es nicht gut: In der letzten Ausgabe hatten wir darüber berichtet, dass die D’Amelios nun ihre eigene Reality-TV-Show erhalten. Während wir annahmen, dass die Show locker flockig vom unglaublichen Leben der beiden TikTok-Superstars Charli und Dixie berichtet, geht es eher um die Schattenseiten des Ruhms. In den ersten Folgen sagt Charli – 17 Jahre, 124 Millionen Followern – wirklich bemerkenswerte Dinge:
“I feel like I’ve had a constant anxiety attack for the past four years."
"I am physically and mentally exhausted"
"I don’t know how long anyone expects me to keep going as if nothing is wrong."
"My job is never over."
"Dance used to be the most fun thing in my life and now I don’t like it. Social media has robbed me of that."
- Welten verschmelzen: Die Met Gala ist dem Spiegel zufolge “die wichtigste Modeparty des Jahres“. Dieses Jahren waren zum ersten Mal zahlreiche Influencerïnnen, YouTuber und Creator eingeladen. Ja, Instagram hat sogar einen eigenen Meme-Reporter (NBCNews) geschickt. Ein weiteres Zeichen dafür, dass Online-Stars immer mehr zu Stars in real life werden. (Insta-Boss Mosseri war übrigens auch da, sogar als Co-Chair der Veranstaltung. Also nur wegen all der Anstrengungen, die Instagram unternimmt, um etwas von dem Druck der jungen Menschen zu nehmen…)
- Trending VMAs: TikTok arbeitet weiter fleißig daran, in der Musik-Branche als bedeutender Multiplikator wahrgenommen zu werden. Gemeinsam mit MTV hat das Unternehmen daher nun die ersten Awards (MTV) verliehen, bei denen es um alle möglichen Songs und Tanz-Choreos ging, die auf TikTok viral gegangen sind.
- LinkedIn Creator Program: Satte 25 Millionen Dollar nimmt LinkedIn in die Hand, um Creator auf die Plattform zu locken. Hier der Blogpost zum Start: LinkedIn’s Latest Investment in Creators.
- YouTube startet Podcast zur Creator Economy: Wie kann aus einem ambitionierten Hobby-Projekt ein Geschäftsmodell werden? Während wir diese Frage im Bereich Newsletter ganz anständig beantworten können, haben wir keine so ganz hundertprozentige Idee, wie das bei YouTube funktioniert. Und weil das ganz vielen so geht, startet YouTube nun einen Podcast zu diesem Thema: „The Upload: The Rise of the Creator Economy“.
Neue Features bei den Plattformen
- Voice to Text: WhatsApp entwickelt derzeit eine Funktion, die Transkriptionen von empfangenen Sprachnachrichten (Wabetainfo) ermöglichen würde. So kann dieser eine Kumpel (!) endlich seine epischen Nachrichten weiter „aufs Band quatschen“, anhören muss man sie sich dann aber nicht mehr. Top!
- Business Directory: WhatsApp testet in Brasilien ein Verzeichnis von Geschäften (Reuters), über das Shops und Services direkt in der App gefunden werden können.
- Favorites: Instagram arbeitet an einer Funktion, mit der bestimmte Accounts als Favoriten markiert werden können (The Verge), um keine Posts mehr zu verpassen. Facebook 2.0.
- Verifikation wieder möglich: Nach einer erneuten Pause können Nutzerïnnen sich nun wieder um die Verifikation (Techcrunch) ihrer Profile bemühen.
One more thing
Mehr Erfolg auf LinkedIn: Wenn dir der Stoff ausgeht für deine "Thought Leadership"-Postings auf LinkedIn: das Satire-Social-Network ShlinkedIn hat einen Content-Generator und kann garantiert helfen.
Header-Foto von Simon Maage