Von Guy Rosen

Wir werden oft gefragt, wie wir entscheiden, was auf Facebook zulässig ist – und wie viel „Mist“ wir eigentlich finden. Schon seit Jahren haben wir Gemeinschaftsstandards, die erläutern, was bleiben darf und was entfernt wird. Vor drei Wochen haben wir nun zum ersten Mal die internen Richtlinien für die Durchsetzung dieser Standards veröffentlicht. Und heute legen wir einen Bericht über die Durchsetzung der Gemeinschaftsstandards mit den entsprechenden Zahlen vor, so dass ihr selbst unsere Performance beurteilen könnt.

Alex Schultz, unser Vice President für Data Analytics, erläutert sowohl in diesem Hard Questions-Post als auch in unserem Leitfaden zum Aufschluss über den Bericht über die Durchsetzung der Gemeinschaftsstandards detailliert, wie genau wir messen, was auf Facebook geschieht. Unsere Methodologie, was wir wie messen, ist noch in der Entwicklung. Je besser wir verstehen, was wichtig ist und was funktioniert, desto feiner können wir sie einstellen.

Dieser Bericht deckt unsere Durchsetzungsmaßnahmen im Zeitraum von Oktober 2017 bis März 2018 in sechs Bereichen ab: Drastische Gewaltdarstellung, Nacktheit und sexuelle Handlungen von Erwachsenen, terroristische Propaganda, Hassrede, Spam und gefälschte Konten. Die Zahlen zeigen euch Folgendes:

  • Wie viele gegen unsere Standards verstoßende Inhalte wurden auf Facebook gepostet
  • Wie viele Inhalte haben wir entfernt
  • Wie viele Inhalte haben wir mithilfe unserer Technologie frühzeitig erkannt – noch bevor Facebook-Nutzer sie gemeldet haben.

fake_accounts3
Die meisten negativen bzw. schädlichen Inhalte, die wir entfernen, stehen im Zusammenhang mit gefälschten Konten und der riesigen Menge an durch sie generierten Spam. Beispiel:

  • Im 1. Quartal 2018 haben wir 837 Mio. Mal Spam entfernt – fast 100 % der Fälle konnten wir ermitteln und markieren, bevor sie jemand gemeldet hat.
  • Außerdem ist es bei der Bekämpfung von Spam wichtig, die gefälschten Konten zu entfernen, die Spam verbreiten. Wir haben im 1. Quartal etwa 583 Millionen gefälschte Konten deaktiviert – die meisten davon sogar innerhalb von Minuten nach ihrer Registrierung. Dabei sind nicht einmal die Millionen von gefälschten Konten berücksichtigt, bei denen wir täglich verhindern, dass sie überhaupt auf Facebook registriert werden. Insgesamt schätzen wir, dass während dieses Zeitraums etwa drei bis vier Prozent der auf der Webseite aktiven Facebook-Konten gefälscht waren.

Andere Inhalte, die gegen unsere Gemeinschaftsstandards verstoßen:

  • Wir haben 21 Mio. Fälle von sexuellen Handlungen oder Pornografie im 1. Quartal 2018 entfernt – wovon 96 % von unserer Technologie entdeckt und markiert wurden, bevor wir eine diesbezügliche Meldung erhielten. Insgesamt schätzen wir, dass von jeweils 10.000 der auf Facebook aufgerufenen Inhalte noch sieben bis neun gegen unsere Standards hinsichtlich sexueller Handlungen und Pornografie verstießen.
  • Bei schwerwiegenden Problemen wie drastischer Gewaltdarstellung und Hassrede funktioniert unsere Technologie leider noch nicht so gut. Derartige Inhalte müssen deshalb von unseren Überprüfungsteams geprüft werden. Wir haben im 1. Quartal 2018 etwa 3,5 Mio. Fälle von Gewalt darstellenden Inhalten entfernt bzw. mit Warnhinweisen versehen – 86 % davon wurden mithilfe unserer Technologie identifiziert, bevor sie Facebook gemeldet wurden. Im Vergleich: Wir haben 2,5 Mio. Vorkommen von Hassrede im 1. Quartal 2018 entfernt – wovon 38 % mithilfe unserer Technologie ermittelt und markiert wurden.

Wie Mark auf der F8-Konferenz sagte: Wir haben noch eine Menge Arbeit vor uns, um Missbrauch zu verhindern. Das liegt zum Teil daran, dass Technologien wie künstliche Intelligenz zwar sehr vielversprechend sind, es aber noch Jahre dauern wird, bis sie die meisten unerwünschten Inhalte effektiv erkennen, da der Kontext von enormer Wichtigkeit ist. Beispielsweise ist künstliche Intelligenz noch nicht gut genug, um festzustellen, ob jemand Hass schürt oder etwas beschreibt, das ihm passiert ist, und somit zur Sensibilisierung für das Thema beiträgt. Und wie ich bereits letzte Woche erläutert habe, benötigt Technologie riesige Mengen an Trainingsdaten, um aussagekräftige Verhaltensmuster zu erkennen. Und solche Daten stehen uns oft für weniger verbreitete Sprachen oder für weniger häufig gemeldete Fälle nicht zur Verfügung. Außerdem haben wir es in vielen Bereichen – gleichgültig ob es um Spam, Pornografie oder gefälschte Konten geht – mit sehr raffinierten Widersachern zu tun, die ständig ihre Taktiken ändern, um unsere Kontrollen zu umgehen. Demzufolge müssen wir unsere Maßnahmen kontinuierlich weiterentwickeln und anpassen. Aus diesem Grund investieren wir massiv in die Einstellung von mehr Mitarbeitern und Mitarbeiterinnen und in bessere Technologien, um Facebook für alle noch sicherer zu machen.

Außerdem veröffentlichen wir deshalb diese Informationen. Wir sind der festen Überzeugung, dass stärkere Transparenz im Laufe der Zeit zu erhöhter Rechenschaft und mehr Verantwortung führen kann. Die Veröffentlichung dieser Informationen trägt auch dazu bei, dass wir dies schneller erreichen. Der Bericht enthält dieselben Daten, mit denen wir intern unsere Effektivität messen – und jetzt könnt ihr sie sehen und selbst unseren Fortschritt beurteilen. Wir freuen uns auf euer Feedback.