Tech

Facebook-Nutzer sollen abstimmen, welche Medien vertrauenswürdig sind – warum das eine schlechte Idee ist

Facebooks neue Initiative in Sachen Vertrauenswürdigkeit könnte ganz schön in die Hose gehen: Die Abstimmung ist nicht transparent und könnte manipuliert werden.
29.1.18
Foto: Shutterstock

Facebook-Nutzer sollen künftig beabstimmen, welche Medien vertrauenswürdig sind. Das kündigten Facebook-Gründer Mark Zuckerberg und Newsfeed-Chef Adam Mosseri an. Als nicht vertrauenswürdig bewertete Medien sollen dann weniger oft im Newsfeed angezeigt werden.

Das will Facebook mit der Änderung erreichen

"Es gibt heute zuviel Sensationalismus, Misinformation und Polarisierung in der Welt", schreibt Zuckerberg im Statement auf seiner Facebook-Seite und reagiert damit zumindest indirekt auf die anhaltende Kritik an Facebook, die Plattform trage zur Verbreitung von Fake News bei.

Folgt Motherboard auf Facebook, Instagram, Snapchat und Twitter

Anzeige

Man wolle die Entscheidung über vertrauenswürdige Inhalte aber weder firmenintern treffen, noch externen Experten überlassen, so Zuckerberg – sondern den Usern. Dieses Vorhaben sorgt vor allem für eins: eine Menge offener Fragen.

Facebook kündigt die Abstimmung groß an, verrät aber nicht, wie sie genau laufen soll

In den USA ist die Abstimmung offenbar bereits gestartet. Im Rahmen von Qualitätsumfragen sollen Nutzer auf Facebook angeben, ob sie mit einem Medium vertraut sind. Bejahen sie das, werden sie anschließend aufgefordert, die Vertrauenswürdigkeit des genannten Mediums einzuschätzen. Dabei stehen fünf mögliche Antworten von "vollkommen" bis "überhaupt nicht" zur Verfügung, wie Buzzfeed herausgefunden hat.

Die Auswahl der Nutzer sei zufällig, repräsentativ und divers gewesen, heißt es in Mosseris Blogpost. Wie sie erfolgt, gibt das Unternehmen allerdings nicht bekannt. Auch die Anzahl der befragten Nutzer und die Anzahl und Auswahl der Medien, die zur Bewertung standen, sind nicht transparent. Es ist offenbar auch nicht geplant, diese Daten zu veröffentlichen.

Dass die Abstimmung den Nutzern überlassen wird, wirkt auf den ersten Blick demokratisch und vertrauenserweckend. Doch blickt man auf die Medienforschung und die Erfahrungen mit dem Mobilisierungspotential, zeigt sich: Diese Idee könnte ganz schön in die Hose gehen.

Problem 1: Neben den Marktführern verfügen vor allem Boulevardmedien und Alternativmedien über erhebliches Mobilisierungspotential

Ein Vergleich zeigt, dass deutsche Boulevard- und Alternativmedien eine Menge Einfluss haben. Die Rechnung ist einfach: Wer viele Menschen erreicht, kann theoretisch eine Abstimmung, wie die von Facebook, zu seinen eigenen Gunsten beeinflussen.

Wir haben im Analyse-Tool Crowdtangle verglichen, welche deutschen Medien- und Alternativmedien-Seiten im Dezember besonders erfolgreich waren. Die Auswahl der Seiten erfolgte auf Grundlage des Likemedien-Rankings des Analysedienstes 10000 Flies.

Anzeige

Unter den erfolgreichsten Medien in Sachen Interaktionen – also der Zahl der Likes, Shares und Kommentare – sind vor allem die großen Marktführer, Boulevard-Medien und eine Reihe von Alternativmedien, die in der Vergangenheit unter anderem durch irreführende Posts auf Facebook aufgefallen sind.

Screenshot: Crowdtangle

Problem Nr. 2: Die Forschung zeigt, dass ideologische Gräben dazu führen, dass sich Nutzer nicht auf die gleichen Medien einigen können

Das Abstimmungsmodell fußt auf der Annahme, dass es Medien gibt, die von einer breiten Nutzerschaft als vertrauenswürdig eingestuft werden – selbst wenn sie selbst diese Medien nicht unbedingt nutzen. Fraglich ist allerdings, ob so eine Art Konsens überhaupt realistisch ist.

Denn laut einer Studie des amerikanischen Pew Research Institute gibt es kaum Überschneidung zwischen Nachrichtenmedien, die überzeugte konservative und liberale US-Bürger als vertrauenswürdig einstufen. Zu diesen beiden Gruppen zählen zwar nur etwa 20 Prozent der Bevölkerung und nicht die große Mehrheit, die sich politisch eher in der Mitte verortet – allerdings gehen die "Überzeugten" überdurchschnittlich häufig wählen, spenden für politische Zwecke oder sind selbst politisch aktiv. Fast die Hälfte der überzeugten Konservativen vertraut demnach Fox News, unter den überzeugten Liberalen gelten vor allem CNN, NPR und die New York Times als vertrauenswürdig. Es ist davon auszugehen, dass jede der beiden Gruppen die beliebtesten Medien des politischen Gegners meidet wie der Teufel das Weihwasser – und deswegen in Umfragen vermutlich auch kein großes Vertrauen in diese Medien setzt. Das Experiment "Blue Feed, Red Feed" des Wall Street Journal hat gezeigt, dass demokratischen und konservativen Facebook-Nutzern in den USA Nachrichten zu den gleichen Themen in sehr unterschiedlicher ideologischer Färbung angezeigt werden.

Anzeige

Die häufig zitierte Studie "Red Media, Blue Media" bestätigt die immer stärkere Polarisierung in den US-Medien auch abseits von Facebook: Demnach informierten sich Konservative und Republikaner vor allem über Fox News, würden aber NPR und CNN als Nachrichtenquelle vermeiden. Bei den Demokraten und Liberalen verkehrte sich das Ergebnis ins Gegenteil: Sie nutzten sowohl NPR als auch CNN, vermieden aber Fox News. Diese Auswahl bezieht sich nicht nur auf die Berichterstattung zu politischen Themen, sondern auch auf Berichte über Tourismus oder Kriminalität. Die Forscher schlussfolgern, dass Menschen sich vor allem über die Medien informierten, von denen sie sich am wenigsten Widerspruch zu ihren eigenen Ansichten erwarten.

In Deutschland ist bei TV-Nachrichtenmedien keine derart deutlich ideologisch gefärbte Linie erkennbar, auch wenn es durchaus Zeitungen gibt, die eine eher konservative oder linke Blattlinie vertreten. Hierzulande genießt die Tagesschau in der Bevölkerung noch vergleichsweise hohes Ansehen: Laut dem "Reuters Digital News Report" von 2017 bescheinigen 44 Prozent der Befragten der Nachrichtensendung akkurate Berichterstattung. Im Hinblick auf die BILD-Zeitung stimmten nur 17 Prozent dieser Aussage zu.

Problem Nr. 3: Facebook-User können schon heute Fakt und Fiktion nicht gut unterschieden

Ein weiteres Problem sehen Experten in der Trennung von Fakt und Fiktion: "So hat zum Beispiel erst diese Woche eine Umfrage von Edelman ergeben, dass 63 Prozent aller Befragten guten Journalismus nicht von Gerüchten oder Falschmeldungen unterscheiden können", schreibt die Internet-Forscherin Lisa-Maria Neudert vom Oxford Internet Institute auf Anfrage von Motherboard. “Genau diese verunsicherten User will Facebook nun als Wahrheits-Barometer einsetzen."

Generell begrüßt Neudert allerdings die Initiative: "Ich finde es einen sehr guten und richtigen Schritt, dass Facebook verstärkt versucht, die Qualität von Informationen im Newsfeed zu verbessern, ob durch ein Newsfeed Update, durch Aufklärungskampagnen oder Qualitätsumfragen." Es dürfe aber nicht bei diesem Schritt bleiben.

Problem Nr. 4: Die Abstimmung kann schlimmstenfalls manipuliert werden

Viele Experten äußerten sich bislang skeptisch zu Facebooks Ankündigung, darunter auch Fact-Checking-Experte Alexios Mantzarlis von Poynter. Sie befürchten unter anderem, dass diese Abstimmungen manipulierbar sind.

Schlimmstenfalls ist es einfach, das Bewertungssystem zu manipulieren, indem reichweitenstarke Nutzer oder Seiten dazu aufrufen, bestimmte Medien als vertrauenswürdig oder -unwürdig zu bewerten. Viele rechtspopulistische Akteure und Parteien verfügen über hohe Reichweiten und könnten zur massenhaften negativen oder positiven Bewertung von Facebook-Seiten aufzurufen.

Das betraf in der Vergangenheit unter anderem die Amadeu-Antonio-Stiftung. Aber auch die AfD wurde in Sachsen zuletzt mit einem solchen Aufruf konfrontiert. So rief die Facebook-Seite Hooligans Gegen Satzbau im Januar dazu auf, negative Bewertungen auf der Seite des sächsischen Landesverbandes abzugeben.

Screenshot: Facebook | Hooligans Gegen Satzbau

Gegebenenfalls könnten außerdem Unternehmen, die finanziell gut ausgestattet sind, per Werbeanzeige Aufrufe starten und so Einfluss auf die Ergebnisse nehmen. Dann würden vor allem die bekanntesten und reichsten Medien bevorzugt. Kleinere oder neue Medien hätten es ungleich schwerer.

Fotos und Videos, die von Privatpersonen geteilt werden, werden nicht in die Änderungen einbezogen. Auch Gruppen sind ausgenommen. Diese dürften in rechtspopulistischen Kreisen nicht unbedeutend sein. Die vielen mitgliederstarken AfD-nahen Facebook-Gruppen, die Die Partei vor den vergangenen Bundestagswahlen übernahm, legt nahe, dass politische Mobilisierung auch in großen geschlossenen Gruppen stattfindet.

Fazit: Ein weiterer Versuch Facebooks, das Fake-News-Problem in den Griff zu bekommen – aber einer, bei dem die Probleme vorprogrammiert sind

Facebook hat in der Vergangenheit mehrere Versuche unternommen, irreführende oder falsche Inhalte in ihrer Verbreitung einzudämmen: Fact-Checking-Partner in mehreren Ländern kooperieren mit Facebook, um Falschmeldungen zu markieren. Auch Seiten, die mit Clickbaiting arbeiten, werden weniger prominent im Newsfeed angezeigt. Um den Erfolg dieser Maßnahmen zu bewerten, fehlt es an Transparenz. Das bemängeln beispielsweise die kooperierenden Faktenchecker.

Künftig sollen Facebook-Nutzer außerdem vermehrt lokale und als informativ bewertete Inhalte im Newsfeed sehen. Die Umstellung auf ein Bewertungssystem von Medien ist ein weiterer Versuch, die Qualität von Inhalten, die Nutzern auf der Plattform angezeigt werden, zu verbessern. "Wir haben im letzten Jahr hart daran gearbeitet, Fake News und Clickbait zu reduzieren", schreibt Newsfeed-Chef Mosseri. "Aber wir können noch mehr tun."

Mosseri schreibt auf Twitter, es gäbe immer Menschen, die Manipulationsversuche unternehmen würden. Konkrete Schritte zur Minimierung des Risikos benennt er allerdings nicht.

Im Zusammenhang mit Falschmeldungen spielten viele Probleme eine Rolle, so Lisa-Maria Neudert. Dazu gehören gesellschaftliche Polarisierung, fehlende Digitalkompetenz und technische Filterblasen. Um diese in den Griff zu bekommen, müssten Industrie, Regulation und Zivilgesellschaft zusammenarbeiten – eine intransparente Abstimmung dürfte dafür wohl kaum hilfreich sein.