Wie gefährlich sind soziale Medien?
Bildrechte: dpa-Bildfunk/Christoph Dernbach
Bildbeitrag

Soziale Medien polarisieren und können uns aufwiegeln. Auch gegeneinander.

Bildbeitrag
> Netzwelt >

Wie uns soziale Medien gegeneinander aufwiegeln

Wie uns soziale Medien gegeneinander aufwiegeln

New York Times-Journalist Max Fisher hat für sein Buch "The Chaos Maschine" überall auf der Welt recherchiert - vom Völkermord in Myanmar bis zu Corona-Falschinfos in den USA. Sein Fazit: Nur eine Maßnahme hilft, um die Netzwerke zu bremsen.

Über dieses Thema berichtet: BR24 im Radio am .

Max Fisher macht zu Beginn seines Buches eine einfache Rechnung auf: Jedes Jahr verdopple sich für die Nutzerinnen und Nutzer von Netzwerken wie Facebook, Instagram oder TikTok die Zahl der Social Media Beiträge. Was sich aber nur marginal ändere, sei die Zeit, die uns zum Lesen zur Verfügung stehe.

Moralische Empörung wirkt

In den Feeds unserer Netzwerke würden uns deshalb häufig nur noch die radikalsten Beiträge angezeigt, Themen, die am meisten polarisieren und uns aufwiegelten, so Fisher. "Wir haben das Gefühl, das unsere Identität bedroht ist, die Zugehörigkeit zu einer Gruppe. Moralische Empörung ist eine mächtige Ausdrucksform", erklärt der Autor. Der Mensch habe in Millionen von Jahren nur überleben können, weil er Schutz und Anerkennung innerhalb einer Gruppe gefunden und diese Gruppe auch nach außen verteidigt habe.

Die Tech-Unternehmen im Silicon Valley hätten zunächst unbeabsichtigt diese Eigenschaft erkannt und mit ihren Netzwerken Angebote entwickelt, die uns in ihren Bann ziehen.

Wie YouTube sein Publikum fesselt

Als Beispiel führt Fisher YouTube an. 2016 habe sich das Unternehmen zum Ziel gesetzt, eine Milliarde Sehstunden pro Tag zu erreichen. Geschafft habe die Videoplattform das durch einen Trick: "Wenn man zum Beispiel nach Gesundheitstipps oder Informationen über Impfungen sucht, zeigt einem YouTube nicht einfach nur Gesundheitsinformationen an. Vielmehr wird einem das Gefühl gegeben, man sei Teil einer bedrohten Gemeinschaft. Es werden einem Videos von Müttern angezeigt, die sich Sorgen um ihre Kinder machen. Als Nutzer ist man beunruhigt und schaut sich immer mehr dieser Inhalte an".

YouTube habe diese Funktionsweise 2016 sogar öffentlich thematisiert, erzählt Fisher. Erklärtes Ziel sei es im US-Wahljahr 2016 gewesen, nicht nur reine Information anzubieten, sondern vor allem emotionale Inhalte.

Beispiel Sri Lanka

Fisher hat sich auch mit den gewaltsamen Unruhen gegen Muslime 2018 in Sri Lanka beschäftigt. Erfolgslos hatten die dortigen Behörden Facebook gebeten, Hassbotschaften gegen Muslime zu löschen. Als dann ein Mob auf die Straße ging und Häuser und Geschäfte zerstörte, sperrte die Regierung den Zugang zu Facebook.

Zwei Dinge seien damals fast sofort passiert. "Die Gewalt hörte auf. Der Mob ging einfach nach Hause, und Facebook-Vertreter riefen nach monatelangem Ignorieren der Behörden in Sri Lanka endlich zurück, aber nicht, um nach Ausschreitungen zu fragen. Sie wollten wissen, warum der Daten-Verkehr aus dem Land auf null zurückgegangen war."

Lässt sich die "Chaos Maschine" wieder unter Kontrolle bringen?

Fisher sagt, er haben bei den Recherchen zu seinem Buch vielen Experten diese Frage gestellt. Und alle hätten ähnlich geantwortet. Es gehe nicht um das Abschalten einer Plattform, es gehe um den Algorithmus. Um die Likes, die man Ende eines Beitrags stünden und die einem anzeigen, wie viele Menschen dieses Thema geliked oder weiterverteilt hätten. Entscheidend seien all jene Funktionen, die das Engagement maximierten. Fisher: "Schaltet man sie ab, könnte einiger Schaden abgemildert werden".

"Hier ist Bayern": Der BR24 Newsletter informiert Sie immer montags bis freitags zum Feierabend über das Wichtigste vom Tag auf einen Blick – kompakt und direkt in Ihrem privaten Postfach. Hier geht’s zur Anmeldung!