- Fake News, Hass-Rede, Manipulation: Die Vorwürfe, die den Social-Media-Plattformen des Meta-Konzerns gemacht werden, wiegen schwer.
- Wie kommt es überhaupt dazu? Und gibt es eine Lösung?
- Wir haben mit mehreren Experten gesprochen.
Knapp drei Milliarden Menschen schauen mehr oder weniger regelmäßig auf Facebook vorbei. Zählt man die eine Milliarde Nutzer von Instagram dazu, dann lässt sich (auch bei Doppelnutzung) sagen, dass fast die Hälfte der Weltbevölkerung in irgendeiner Form mit den Angeboten des neu firmierten Meta-Konzerns verbunden ist.
Das sind zunächst einmal sehr große Zahlen, die den Erfolg des Imperiums von
Die andere Seite ist aber, dass Facebook und Instagram für viele gesellschaftliche Probleme verantwortlich gemacht werden. Das sagen nicht nur außenstehende Kritiker, sondern auch Mitarbeiter, die für den Meta-Konzern gearbeitet haben.
Zuletzt sorgte die ehemalige Managerin Frances Haugen für Schlagzeilen. Sie warf dem sozialen Netzwerk vor, es nehme Schäden nicht ernst, die es anrichten könne. Obwohl es Berichte gebe, dass Instagram bei Mädchen die Unzufriedenheit mit dem eigenen Körper stärkt und für Essstörungen und Depressionen sorgt, werde zu wenig dagegen unternommen.
Haugen selbst war zwei Jahre bei Facebook. Zu ihren Aufgaben zählte der Kampf gegen Manipulationsversuche bei Wahlen. Sie habe jedoch schnell das Gefühl gehabt, ihr Team habe zu wenig Ressourcen, um etwas zu bewirken, erzählte die Managerin. Heute arbeitet sie nicht mehr für den Meta-Konzern.
Die Theorie: Der Weg in unseren Kopf
Facebook ist eine Informationsquelle für so viele Menschen wie wohl kein anderes Medium auf der Welt. Die Plattform beeinflusst, wie ihre Nutzer die Welt wahrnehmen, was sie denken und am Ende auch, wie sie handeln.
Aber wo ist das Problem? Dazu ein Vergleich mit Zeitungen oder Nachrichtensendungen im Fernsehen: Facebook ist nämlich kein Medium, bei dem professionelle Journalistinnen und Journalisten entscheiden, welche Nachrichten gerade relevant sind, ob die Informationen überhaupt stimmen und gesetzlichen Vorgaben entsprechen. Stattdessen entscheidet Facebook selbst. Dabei ist häufig vom sogenannten Facebook-Algorithmus die Rede - einer Software oder künstlichen Intelligenz, die festlegt, wer was und wann zu sehen bekommt.
Bei dieser Entscheidung spielt nicht das Wohl des Nutzers eine Rolle, sondern auch - oder noch viel mehr - die Bedürfnisse der anderen Kunden von Facebook, nämlich der Werbetreibenden. "Der Nutzen für Facebook und seine Kunden ist, dass wir möglichst lange auf den Seiten bleiben und möglichst viel Werbung zu sehen bekommen und damit interagieren", erklärt Thorsten Strufe, Professor für Datenschutz und Datensicherheit am Karlsruher Institut für Technologie, im Gespräch mit unserer Redaktion.
Facebook will also unsere Aufmerksamkeit möglichst lange binden und verkauft sie an werbetreibende Unternehmen. Und dass Facebook unsere Aufmerksamkeit auf sich ziehen kann, dabei helfen wir selbst mit, indem wir fleißig unsere Interessen eingeben und nach Belieben Posts anklicken. "Die Sessions von Nutzern werden beobachtet und daraufhin analysiert, wie man die Leute länger auf der Webseite halten und die Interaktion verlängern kann", sagt Strufe.
Wir verraten also bewusst und unbewusst, wie man uns am besten ködert - und das nicht nur auf Facebook selbst. Die Plattform sammelt auch über Webtracker auf anderen Webseiten umfangreiches Wissen über Nutzer.
Bei einer Facebook-Session werden wir aber nicht einfach mit aufwühlenden Nachrichten torpediert. Da hätten wir schnell genug und würden die Seite verlassen. Um unsere Aufmerksamkeit möglichst lange zu halten, geht der Algorithmus raffinierter vor: "Psychologisch betrachtet funktioniert das am besten, wenn man Leuten mit hoher Frequenz eher langweilige Posts zeigt und irgendwann etwas, was sie interessiert", erklärt Strufe. Die Leute quälen sich über die langweiligen Phasen hinweg, weil sie erwarten, dass sie bald ein Zuckerl bekommen.
Es gibt noch einen weiteren Trick des Algorithmus: "Die zweite Strategie ist, dass die regelmäßig erscheinenden interessanten Postings mich zunehmend interessieren und aufregen müssen. Sonst wird mir langweilig und ich gehe weg", erklärt der Informatiker.
Die Folgen: Wie gefährlich ist Facebook?
"Facebook ist wie 30 Millionen 'Bild'-Zeitungen. Jeder Nutzer bekommt seine eigene Ausgabe nach seinen Interessen", sagt Jürgen Pfeffer, Professor für Computational Social Science an der Hochschule für Politik der TU München.
Durch das Teilen von Nachrichten durch Freunde würden die eigenen Vorstellungen bestätigt. "Mit hoher Wahrscheinlichkeit sehe ich eher Posts von Leuten mit gleicher Meinung. Es entsteht dann schnell der Eindruck, dass die ganze Welt meiner Meinung zu sein scheint", sagt er.
Facebook führe zu einer thematischen Verengung der Nutzer. "Wenn ich mich für Corona-Demos interessiere, wird mir Facebook ähnliche Themen vorschlagen und ich werde immer mehr auf Gleichgesinnte treffen", sagt Pfeffer. Das sei früher bei Diskussionen am Stammtisch anders gewesen, weil es dort auch Gegenrede gab. "Facebook stärkt die Polarisierung in der Gesellschaft. In so einem Umfeld haben es Fake News und Hassrede auch leichter."
Es gibt Länder wie Myanmar, für dessen Einwohner Facebook und das Internet ein und dasselbe und die Polarisierung viel fortgeschrittener ist. Der sozialen Plattform wird dort vorgeworfen, für gewalttätige Übergriffe auf die Minderheit der Rohingya verantwortlich zu sein. Rassistische Beleidigungen, Desinformation oder Aufrufe zur Gewalt hätten sich auf Facebook immer weiter verbreitet. Vertreter der Volksgruppe haben deshalb Klage über 150 Milliarden Dollar gegen Facebook eingereicht, wie die "Süddeutsche Zeitung" berichtete.
Lesen Sie auch: Fake News: So erkennen Sie seriöse Quellen im Internet
Studie: Fake News werden stärker verbreitet als wahre Nachrichten
Facebook sei zwar nicht selbst verantwortlich für die Entstehung von Fake News, aber für deren Verbreitung. "Reißerische Informationen verbreiten sich eben besser", sagt Politologe Pfeffer und verweist auf Studien zum US-Wahlkampf zwischen Hillary Clinton und Donald Trump aus dem Jahr 2016. Damals habe sich gezeigt, dass sich die Top 10 der damals vorherrschenden Fake News auf Facebook besser verbreitet haben als die Top-10-Nachrichten der größten US-amerikanischen Zeitungen.
Einige Fortschritte habe Facebook in den vergangenen Jahren gemacht, sagt Thorsten Strufe, allerdings nur in dessen Hauptmärkten. "In englischsprachigen Ländern läuft die automatische Fehlersuche besser, die sozialen Medien finden dort mittlerweile schneller Falschnachrichten", sagt der Informatiker und nennt die Löschung von Fake News über Impfstoffe als Beispiel. Das sei in kleineren asiatischen oder afrikanischen Ländern nicht der Fall, weil sich Facebook dort kaum um diese Probleme kümmere.
Aus Sicht von Jürgen Pfeffer unternimmt Facebook generell zu wenig gegen Fake News und Hetze. Die News-Bereiche von Facebook seien in der Vergangenheit von Redaktionsteams betreut worden, heute funktioniere alles nur noch automatisch. "Facebook versteckt sich hinter technischen Problemen. Das Unternehmen bietet einen Service für 50 Prozent der Menschheit und übernimmt keinerlei Verantwortung", sagt er. Dabei gebe es einfache Möglichkeiten: Wenn irgendwas viral geht und ein Post von Tausenden Leuten gesehen wird, dann müsse das kontrolliert und gegebenenfalls gelöscht werden.
Ein Beispiel, bei dem Facebook mittlerweile reagiert hat, ist die Auskunft über die Auftraggeber von politischen Anzeigen. Die Reaktion geht zurück auf die Midterm-Elections 2018, als viel negative politische Werbung von außerhalb der USA geschaltet wurde. Facebook stockte damals das Personal zur Kontrolle auf und verbesserte die Möglichkeiten zur Werbekontrolle. "Es ist zwar nicht einfach, aber theoretisch können Nutzer einsehen, wer die Auftraggeber bestimmter Werbeanzeigen sind", sagt Pfeffer.
Auch die Zugriffsrechte auf Nutzer-Daten sind seit dem Cambridge-Analytica-Skandal eingeschränkt. Damals war es externen Anbietern von Apps - im konkreten Fall von Persönlichkeitstests - möglich, nicht nur die persönlichen Daten eines Nutzers abzurufen, sondern die Daten seiner Freunde gleich mit. Die Firma Cambridge Analytica sammelte dadurch Unmengen an Informationen über Personen für sogenanntes Micro-Targeting - also die gezielte Ansprache von Nutzern mit Wahlwerbung. Heutzutage können die App-Anbieter keine Daten von ganzen Freundeskreisen auslesen, die Daten der einzelnen Nutzer dagegen schon.
Die Lösung: Was können Einzelne tun?
Fake News, Hassrede, Datenmissbrauch: Wäre die Welt ohne soziale Medien eine bessere? "Auf keinen Fall", sagt Claudia Paganini von der Hochschule für Philosophie aus München. "Die Probleme, wie wir sie heute in den sozialen Medien sehen, sind nicht neu, sie sind nur sichtbarer."
Phänomene wie Fake News, die Menschen zu ihrem eigenen Vorteil in die Welt setzen, habe es schon in der Antike gegeben. Auch Verleumdungen und das Schüren von Hass seien quer durch die Kulturgeschichte belegt. "Es sind Probleme, die wir in der Gesellschaft nicht lösen konnten, und die jetzt in den sozialen Medien auftauchen."
Das Problem sei, dass soziale Medien solche Dinge stärker verbreiten können und dass es schwer ist jemanden zu finden, bei dem man sich beschweren kann, sagt die Philosophin. Die Plattformen müssten mehr eingreifen und moderieren.
Auf der anderen Seite sei es für jeden möglich, sich Falschnachrichten oder Hassrede in den sozialen Medien entgegenzustellen - und das werde auch getan, sagt Claudia Paganini. Gerade während der Corona-Pandemie sehe man das bei Falschnachrichten über die Impfung. Da gebe es oft Widerspruch unter solchen Posts. Auch während der Flüchtlingskrise, als Fotos von verwüsteten Orten Flüchtlingen zugeschoben werden sollten, hätten Facebook-Nutzer die wahre Herkunft der Bilder recherchiert: Aufnahmen von Straßen nach Fußball-Spielen und Open-Air-Konzerten.
Um junge Menschen auf das Social-Media-Zeitalter vorzubereiten, ruft Paganini zu einer stärkeren Vermittlung von Medienkompetenz an Schulen auf. "Neue Medien brauchen neue Kompetenzen. Die Schüler müssen lernen, dass die sozialen Medien ein Lebensraum sind, den sie selbst mitgestalten. Sie müssen wie im richtigen Leben lernen, wenn jemand beschimpft wird, dass man einschreiten muss und Falschinformationen etwas entgegenstellen kann", sagt sie.
In den sozialen Medien sieht Paganini auch ein Problem der starken Ausprägung von sogenannten Master-Narrativen, also festgesetzten Deutungsmustern der Wirklichkeit. Die Wissenschaftlerin hat für sich eine Möglichkeit gefunden, dieser Echokammer zu entgehen. "Ich versuche immer wieder bewusst Seiten anzuschauen, die nicht meine Meinung widerspiegeln."
Oder doch höhere Strafen?
Für Thorsten Strufe reicht die Selbstinitiative nicht aus. Um den Meta-Konzern mit seinen Plattformen von seinem Verhalten abzubringen, müsse es hohe Strafen geben. "Es darf sich für Plattformen nicht mehr lohnen, Fake News zu verstärken."
Auch Jürgen Pfeffer ist der Meinung, dass die bisherigen Strafen dem Meta-Konzern nicht wirklich schaden. "50 Millionen Euro, da wird man in der Chefetage im Zweifelsfall mit der Schulter zucken. Allein für zuständige Mitarbeiter zur Lösung der Probleme müsste man mehr Geld ausgeben", sagt er. "Erst wenn Mark Zuckerberg wieder vor dem Senat sitzt, reagiert der Konzern, weil er schlechte Presse fürchtet."
Das Problem werde die Gesellschaft aber noch lange beschäftigen, sagt Pfeffer und kommt wieder auf das Grundproblem zurück: "Die sozialen Medien sind wirtschaftliche Akteure, die einfach nicht das Ziel haben, die Gesellschaft voranzubringen und das Leben fortschrittlicher zu machen."
Verwendete Quellen:
- Statista: Aktuelle Nutzerzahlen von Facebook und Instagram
- Thorsten Strufe, Professor für Datenschutz und Datensicherheit am Karlsruher Institut für Technologie und an der TU Dresden
- Jürgen Pfeffer, Professor für Computational Social Science an der Hochschule für Politik der TU München
- Claudia Paganini, Professorin für Medienethik an der Hochschule für Philosophie München
- Wall Street Journal: The Facebook Whistleblower, Frances Haugen, Says She Wants to Fix the Company, Not Harm It; 3.10.21
- Süddeutsche Zeitung: Warum die Rohingya Facebook verklagen; 7.12.21
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.