1. Leben
  2. Internet

Facebook manipuliert Nachrichtenstrom

Facebook manipuliert Nachrichtenstrom

Facebook hat für eine Studie eine Woche lang die Emotionen von hunderttausenden Nutzern über die angezeigten Nachrichten manipuliert. Nach einem Aufschrei der Empörung erklärt das Online-Netzwerk, solche Experimente seien wichtig, um die Mitglieder zu verstehen.

Das soziale Netzwerk Facebook hat vor eineinhalb Jahren für eine Studie die Auswahl der Einträge im Nachrichtenstrom von 690 000 Nutzern manipuliert. Bei dem Experiment sollte erforscht werden, wie sich positive und negative Emotionen in Netzwerken ausbreiten. Die Studie war bereits Anfang Juni veröffentlicht worden, kam aber erst jetzt durch Kritik im Internet in die Diskussion.

Insgesamt wurde im Januar 2013 eine Woche lang der Nachrichtenstrom von Nutzern der englischsprachigen Facebook-Version manipuliert. Dafür wurden für Nutzer die Einträge ihrer Facebook-Freunde vorgefiltert. Den einen zeigte das Netzwerk mehr positive Nachrichten an, den anderen mehr negative. Die Studie ergab, dass Menschen, die mehr positive Nachrichten sahen, etwas eher dazu neigten, auch selbst Einträge mit positivem Inhalt zu veröffentlichen - und umgekehrt. Es wurden laut der Untersuchung mehr als drei Millionen Einträge von einer Software ausgewertet, die per Wortanalyse die Emotion zuordnete.

Im Internet regen sich Viele über die heimliche Manipulation auf. Neben der Kritik an der ethischen Seite des Experiments gibt es Vorwürfe über die Sammelei von Nutzerdaten sowie Zweifel an der Aussagekraft. So weist der Psychologie-Blog "Psych Central" darauf hin, dass die verwendete Software die Stimmung eines Eintrags nur anhand einzelner Wörter bestimme. Da nur Bruchteile und nicht der gesamte Eintrag untersucht wurden, sei fraglich, ob die Ergebnisse der Studie überhaupt Bestand haben.

Facebook verteidigt sein Experiment. Für das Online-Netzwerk sei es wichtig, zu verstehen, wie Mitglieder auf verschiedene Inhalte reagierten, erklärte Facebook in der Nacht zu Montag. "Wir überlegen vorsichtig, welche Forschung wir betreiben und haben ein striktes internes Aufsichtsverfahren", hieß es. Auch einer der Autoren der Studie, Adam Kramer, meldete sich per Facebook-Eintrag zu Wort. Mit der Untersuchung wollten sie die Annahme überprüfen, ob sich Menschen ausgeschlossen fühlen, wenn sie positive Nachrichten ihrer Freunde sehen. Zudem habe es zuvor Bedenken gegeben, dass viele negative Einträge von anderen Mitgliedern Nutzer dazu veranlassen könnten, Facebook zu meiden. Er könne aber verstehen, dass die Studie bei einigen Menschen Sorgen ausgelöst habe, schrieb Kramer. Er und seine Mitautoren bedauerten dies. "Wir haben unsere Motive in dem Papier nicht klargemacht", räumte er in seinem Beitrag ein.

In der Studie weist das Netzwerk darüber hinaus darauf hin, dass die Regeln von Facebook , denen die Nutzer zustimmen, ein solches manipulatives Vorgehen zulassen. Der Nachrichtenstrom der Mitglieder werden von Facebook ohnehin gefiltert, um sie nicht mit Informationen zu überfluten. Ziel sei, den Nutzern vor allem für sie relevante Einträge anzuzeigen, erläutert Facebook . Bei der Auswahl wird unter anderem berücksichtigt, wie oft jemand mit den Facebook-Freunden interagiere und wie populär die einzelnen Einträge seien.

pnas.org/content/111/

24/8788.full