1. Zum Inhalt springen
  2. Zur Hauptnavigation springen
  3. Zu weiteren Angeboten der DW springen

Facebook: problematische Gemeinschaftsstandards

Helena Kaschel1. September 2015

In Deutschland fordern Politik und Öffentlichkeit von Facebook ein entschiedeneres Vorgehen gegen fremdenfeindliche Hetze. Eigentlich will der US-Konzern es allen recht machen - aber genau das ist das Problem.

https://p.dw.com/p/1GOk8
Symbolbild Facebook Klarnamenpflicht Pseudonyme Anonymität, Bildrechte: picturealliance
Bild: picture-alliance/dpa/F. Gabbert

Die Diskussion um die Politik von Facebook bei Löschanfragen reißt in Deutschland nicht ab. Zuletzt wandte sich sogar Bundesjustizminister Heiko Maas (SPD) an den US-Konzern: Das Internet sei "kein rechtsfreier Raum, in dem rassistische Hetze und strafbare Äußerungen unkontrolliert verbreitet werden können". Gemeint sind fremdenfeindliche, gewaltverherrlichende Nutzer-Beiträge, die - oft im Zusammenhang mit der Flüchtlingskrise - täglich in dem sozialen Netzwerk auftauchen.

Immer lauter werden die Stimmen, die über das scheinbar unmotivierte Vorgehen Facebooks gegen Hass-Kommentare klagen. Medien schreiben von einer Doppelmoral des Unternehmens, das sexuelle Inhalte viel konsequenter lösche als rassistische.

Umstrittene "Gemeinschaftsstandards"

Gemeldete Hass-Beiträge würden häufig nach einer Prüfung durch Facebook nicht gelöscht, lautet die Kritik. Kürzlich wurde der Screenshot eines diffamierenden Beitrags vielfach auf Facebook geteilt. Darauf ist zu sehen, wie ein Nutzer die in Österreich in einem LKW gefundenen erstickten Flüchtlinge als ''syrisches Gammelfleisch'' bezeichnet.

Ein anderer Nutzers belegt, dass dieser Beitrag zwar gemeldet, aber von Facebook nicht entfernt wurde. Als Grund gab Facebook an: Er verstoße nicht gegen die ''Gemeinschaftsstandards''. Um diese Reaktion zu verstehen, muss man wissen, wie Facebook bei Löschanfragen vorgeht.

Wie Facebook Löschanfragen bearbeitet

Facebook - Screenshot rassistische Kommentare, Bildrechte: DW
Screenshot eines fremdenfeindlichen Kommentars über Flüchtlinge, den Facebook nicht entfernen wollte.Bild: facebook

Wenn es um die Sperrung beleidigender Inhalte geht, setzt Facebook auf seine Nutzer. Diese können Beiträge, die ihrer Ansicht nach über die freie Meinungsäußerung hinausgehen, melden und dafür verschiedene Gründe angeben. Die Löschanfrage landet dann bei einem der vier 24-sprachigen ''User Operations Teams" in den USA, Indien und Irland. Dort wird sie innerhalb von 72 Stunden von einem der mehreren hundert Mitarbeiter bearbeitet. Ob der Beitrag entfernt wird, entscheiden die Gemeinschaftsstandards.

Genau hier liegt das Problem. Jede Entscheidung ist eine Gratwanderung zwischen dem Schutz der Meinungsfreiheit und dem Schutz vor Missbrauch. So schreibt Facebook vor, dass ''Hate speech'' sofort gelöscht wird – was aber Hate speech genau ist, muss das Unternehmen immer wieder aufs Neue definieren. Aktuell entfernt es nach eigenen Angaben Inhalte, die Nutzer ''aufgrund von Rasse, Ethnie, Nationalität, religiöser Zugehörigkeit, sexueller Orientierung, Geschlecht oder Geschlechteridentität, Behinderungen oder Krankheiten attackieren''.

Flüchtlinge werden nach dieser Definition nicht explizit als schützenswerte Minderheit erfasst. So kommt es, dass ein diffamierender Kommentar laut den Gemeinschaftsstandards formal noch als freie Meinungsäußerung gilt. Dass gelegentlich auch Fehler gemacht würden, sei bedauerlich, sagte ein Facebook-Sprecher der DW.

Utopie einer globalen Netiquette

Man kann sagen, dass es sich Facebook zu leicht macht – oder zu schwer. Um alle Nutzer weltweit zufrieden zu stellen, verfolgt der Konzern das Ziel einer weltweit einheitlichen Richtlinie. Auf der einen Seite sollen die Verhaltensregeln möglichst konkret sein, auf der anderen Seite will man es allen Märkten recht machen. Das ist schwierig, denn in jedem Land und Kulturkreis gibt es unterschiedliche Sensibilitäten, Wertvorstellungen und gesellschaftspolitische Debatten. Was für die einen noch Meinungsäußerung ist, ist für die anderen schon Hetze.

Die Problematik ist dem Unternehmen bewusst, wie Facebook in einer Stellungnahme mitteilte: ''Inhaltliche Richtlinien aufzustellen, die es mehr als einer Milliarde Menschen erlauben, sich Ausdruck zu verschaffen und gleichzeitig die Rechte und Gefühle anderer Menschen zu respektieren, ist eine permanente Herausforderung. Manchmal stoßen wir dabei auf neuartige Inhalte oder Grenzfälle, die unsere Richtlinien auf die Probe stellen“.

''Take it or leave it"-Mentalität'

Hendrik Unger Geschäftsführer und Social Media Experte Kreativagentur, Bildrechte: Kreativagentur 36grad
Social-Media-Experte Hendrik Unger glaubt nicht an eine schnelle Reaktion seitens Facebook.Bild: 36grad.de

Dass Facebook die aktuelle Aufregung in Deutschland ernst nimmt, um einen Imageschaden abzuwenden, ist wahrscheinlich. Der Kölner Social-Media-Experte Hendrik Unger warnt aber vor zu großen Hoffnungen: "Natürlich spielt der politische und öffentliche Druck eine Rolle, aber die Mühlen malen dort sehr langsam, weil der Konzern einfach so riesig ist. Bis da eine Entscheidung getroffen wird, wie man reagiert, dauert das schon mal eine Woche.“

Am Ende hätten Facebook-Nutzer ohnehin nur zwei Möglichkeiten: Die Gemeinschaftsstandards zu akzeptieren oder Facebook zu verlassen. ''Ob das nun so eine schwierige Debatte ist wie jetzt oder 'nur' eine Änderung der AGBs, die datenschutzrechtlich bedenklich ist: Facebook hat eine Take it or leave it-Mentalität'', so Unger. Nutzer, die Hass-Kommentare auf Facebook nicht hinnehmen wollen, haben jedoch noch eine dritte Option: Strafrechtlich relevante Äußerungen kann man mit einem Screenshot bei der Polizei melden. Liegt eine Anzeige vor, muss Facebook reagieren.