Facebook-Videos für Extremisten Facebooks Kampf gegen Extremismus

Washington · Das Unternehmen versucht, der Verbreitung von Hass und Gewalt über sein Netzwerk entgegenzutreten. Doch automatisierte Funktionen erstellen Videos und Anlaufseiten für Terror-Sympathisanten.

 Facebook leistet immer wieder unbeabsichtigt terroristischen Inhalten auf seiner Plattform Vorschub.

Facebook leistet immer wieder unbeabsichtigt terroristischen Inhalten auf seiner Plattform Vorschub.

Foto: Ashraf Amra/APA Images via ZUMA/Ashraf Amra

Das Video beginnt mit einem Foto einer schwarzen Dschihad-Flagge. Es folgen Einblendungen mit antisemitischen Sprüchen, Hassreden und zwei Männer, die eine US-Fahne verbrennen. Am Ende des Videos wird ein Schriftzug eingeblendet. „Danke von Facebook, dass Du hier bist“, ist zu lesen. Dazu wird das Markenzeichen der Firma angezeigt, der Daumen nach oben. Produziert wurde der Film nicht von Extremisten, sondern von Facebook selbst.

Wie kann so etwas passieren? Mit einer automatisierten Funktion erstellt das Online-Netzwerk für jeden seiner Nutzer ein Video mit den Beiträgen, die dieser Nutzer im vergangenen Jahr auf der Plattform veröffentlicht hat. Das Video soll dem Nutzer einen Rückblick auf das vergangene Jahr bieten. Dieser Film wird jedoch nicht von Hand, sondern von einem Rhythmus ganz automatisch erstellt. Das kann zu kuriosen Ergebnissen führen.

Facebook bemüht sich schon lange, extremistischen Inhalten auf seiner Plattform Einhalt zu gebieten. Das Netzwerk selbst behauptet, dabei weitgehend erfolgreich zu sein. In einer Beschwerde bei der US-Börsenaufsichtsbehörde SEC wird dem Unternehmen jedoch vorgeworfen, seine Erfolge zu beschönigen. Laut dem Papier verbreitet der Konzern mit seinen automatisch generierten Videos außerdem unbeabsichtigt Propaganda für extremistische Gruppen.

Der Beschwerde zufolge untersuchten Wissenschaftler im vergangenen Jahr über fünf Monate hinweg Seiten von Nutzern, die sich selbst in Verbindung mit Gruppen gebracht hatten, welche das US-Außenministerium als Terrororganisationen einstuft. In dieser Zeit seien 38 Prozent der Veröffentlichungen mit bekannten Symbolen der Gruppen gelöscht worden.

Eine Erhebung der Nachrichtenagentur AP in diesem Monat zeigte, dass ein großer Teil der in der Studie genannten Inhalte auch weiterhin durch die Algorithmen rutscht. Videos von Hinrichtungen, abgeschlagenen Köpfen oder mit der Verherrlichung getöteter Extremisten sind weiter leicht auf Facebook zu finden.

Firmenchef Mark Zuckerberg gibt sich betont optimistisch, der Verbreitung von Gewalt verherrlichenden Veröffentlichungen beikommen zu können. Bei Themen, die mit Terrororganisationen wie Al-Kaida oder dem Islamischen Staat zusammenhingen, würden 99 Prozent der Inhalte gestoppt, bevor sie öffentlich würden, so Zuckerberg. Die Untersuchung, auf der die Beschwerde bei der US-Börsenaufsicht beruht, legt jedoch nahe, dass der Kampf des Unternehmens gegen extremistische Inhalte nicht so erfolgreich verläuft, wie es der Konzern andeutet.

Wie einfach es ist, Facebooks Kontrollmechanismen zu umgehen, zeigt eine Seite, auf der mit weißen Buchstaben auf schwarzem Grund „Der islamische Staat“ steht. Dahinter ist ein Rauchpilz zu sehen, der über einer Stadt aufsteigt. Zuletzt war die Seite noch online, offenbar weil das Textsuch-System von Facebook keine Buchstaben erkennt, wenn sie Teil einer Grafik sind.

Facebook räumt ein, dass sein System nicht perfekt sei, dass man aber Fortschritte mache. „Nach den großen Investitionen erkennen und löschen wir terroristischen Inhalt mit einer deutlich höheren Erfolgsquote als noch vor zwei Jahren“, heißt es in einer Erklärung des Unternehmens. „Wir behaupten nicht, dass wir alles finden. Wir bleiben wachsam bei unseren Bemühungen gegen Terrorgruppen in aller Welt.“

Nach eigener Aussage beschäftigt Facebook mittlerweile 30 000 Menschen für Sicherheitsaufgaben, die potenziell schädliches Material sichten. Zudem baut das Unternehmen dabei stark auf den Einsatz Künstlicher Intelligenz (KI). Die aktuelle Forschung sieht das jedoch skeptisch.

Hany Farid, Experte für digitale Forensik an der Berkeley-Universität in Kalifornien, sagt, Facebooks KI-Systeme würden versagen. Das Unternehmen sei nicht motiviert, das System ernsthaft zu verbessern, weil das zu teuer sei. „Die gesamte Infrastruktur ist fundamental fehlerhaft“, sagt Farid.

Und es gibt noch eine weitere automatisierte Funktion, die Facebook Ärger macht. Damit werden die Informationen von Beschäftigten über deren Arbeit gesammelt. So soll Geschäftskunden geholfen werden, Seiten zu entwickeln und sich zu vernetzen. Doch in zahlreichen Fällen führt das auch dazu, dass auf diese Weise eine Anlaufstelle für extremistische Sympathisanten entsteht. Die Funktion erlaubt es Nutzern, Seiten mit „Gefällt mir“ zu markieren, die für die Terrorgruppe Al-Kaida, die IS-Miliz oder andere Organisationen geschaffen wurden, und bietet so auch Anwerbern eine Liste mit Sympathisanten.

Ganz oben auf der automatisch erstellten Seite für Al-Kaida auf der Arabischen Halbinsel war zuletzt ein Foto des im Jahr 2000 von Terroristen schwer beschädigten US-Zerstörers Cole zu sehen. Bis vergangene Woche wurde das Foto 277 Mal mit „Gefällt mir“ markiert.

 Im Oktober 2000 beschädigten Extremisten den US-Zerstörer Cole bei einem Anschlag schwer.

Im Oktober 2000 beschädigten Extremisten den US-Zerstörer Cole bei einem Anschlag schwer.

Foto: dpa/Foto: US Navy dpa

Aber Facebook hat in den USA auch Probleme mit extremistischen Organisationen aus dem Inland. In der SEC-Beschwerde wurden mehr als 30 automatisch generierte Seiten von rechtsradikalen und rassistischen Gruppen gelistet, deren Inhalte Facebook verbietet, darunter die Seite der „Aryan Brotherhood Headquarters“ („Hauptquartier der arischen Bruderschaft“). Auf deren Seite ist das Büro der Bruderschaft auf einer Karte markiert, mit der Aufforderung, die Seite weiterzuempfehlen.

(dpa)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort