| 00:00 Uhr

Was darf rein bei Facebook und was nicht?

Menlo Park. Nach Kritik, dass die Regeln für unerwünschte Inhalte zu undurchsichtig seien, gibt Facebook nun mehr Einblick in seine Vorschriften. Die Umsetzung stellt das soziale Netzwerk vor eine große Herausforderung. dpa-MitarbeiterAndrej Sokolow

Facebook informiert seine Nutzer künftig ausführlicher darüber, welche Inhalte im weltgrößten Online-Netzwerk verboten sind und entfernt werden. Dafür wurde auch in der deutschen Version eine neue Fassung der "Gemeinschaftsstandards" veröffentlicht. "Wir ändern unsere Regeln nicht, sondern wollen den Nutzern nur mehr Klarheit darüber verschaffen, wo und warum wir Grenzen einziehen", sagte Facebook-Managerin Monika Bickert.

Statt eines Textes mit elf Kapiteln gibt es nun eine Webseite mit Links zu verschiedenen Themen und mehr Beispielen als bisher. Neu sind Abschnitte über sexuelle Ausbeutung und Inhalte terroristischer Organisationen. Ausführlicher wird auch der Umgang mit Nacktheit erklärt: "Wir entfernen Fotos von Personen, auf denen Genitalien oder vollständig entblößte Pobacken zu sehen sind. Außerdem beschränken wir Bilder mit weiblichen Brüsten, wenn darauf Brustwarzen zu sehen sind." Fotos von Frauen beim Stillen oder Vernarbungen nach Brustamputationen seien aber erlaubt.

Facebook hat fast 1,4 Milliarden Nutzer. Die Regeln umzusetzen, sei nicht nur wegen der Dimension eine große Herausforderung, sagte Bickert. So müssten ihre Mitarbeiter auf Anhieb erkennen, ob ein Facebook-Eintrag zum Beispiel Mobbing oder Gewaltverherrlichung darstelle. "Selbst ein Foto aus der Schule, unter dem einfach nur "Nettes Kleid" steht, kann unter Umständen als Mobbing gemeint sein", gab sie zu bedenken.

Prüfung durch Mitarbeiter



"Ähnlich kann ein Bild, auf dem Gewalt zu sehen ist, geteilt werden, um sie zu verurteilen oder um sie zu zelebrieren", sagte Bickert. Im ersten Fall würde Facebook das Foto zulassen, aber unter Umständen als nur für Erwachsene empfohlen markieren. Bei terroristischen Vereinigungen gebe es keinen Spielraum: "Auch wenn sie scheinbar harmlose Infos wie ihre Lieblingsrestaurants teilen wollen, wir tolerieren keine Terror-Gruppen bei Facebook ."

Facebook verlasse sich weitgehend darauf, dass die Nutzer selbst problematische Inhalte melden, betonte Bickert. "Nur in einigen Bereichen, vor allem, wenn es um die Sicherheit von Kindern geht, haben wir eine Software im Einsatz, die aktiv nach Inhalten sucht." Inhalte, die Nutzer bei Facebook melden, würden von Menschen geprüft, sagte Bickert. Die Entscheidungen erforderten eine menschliche Abwägung. Die Prüfer seien weltweit verteilt, es gebe Spezialisten für verschiedene Sprachen. Zugleich gebe es Grenzen dafür, was ihre Mitarbeiter sehen könnten. "Sie sollen genug Infos haben, damit sie eine bewusste Entscheidung über Inhalte treffen können." Die Prüfer erhielten aber keinen ausufernden Zugang: "Wenn ein Foto als Mobbing gemeldet wird, bekommen sie nur das Foto plus etwas Kontext dazu zu sehen."

Facebook war in der Vergangenheit wegen Entscheidungen zu einzelnen Inhalten kritisiert worden, etwa wenn Bilder von Protesten oder Fotos von Kunstwerken mit Nacktheit entfernt wurden. Die Veröffentlichung der ausführlicheren Regeln solle das Verfahren dahinter verständlicher machen, sagte Bickert. "Es ist eine große Herausforderung, einheitliche Regeln für die ganze Welt aufzustellen."

facebook.com/communitystandards