Von Guy Rosen, VP Product Management

Menschen teilen nur dann mit gutem Gefühl Inhalte auf Facebook, wenn sie sich dabei sicher fühlen. Daher haben wir in den letzten zwei Jahren stark in Technologien und Personal investiert, um Inhalte, die gegen unsere Richtlinien verstoßen, effektiver von unserer Plattform zu entfernen. Im Mai 2018 haben wir zum ersten Mal die internen Richtlinien veröffentlicht, die unser Überprüfungsteam anwendet, um unsere Gemeinschaftsstandards durchzusetzen. So möchten wir unseren Nutzern transparenter zeigen, was auf Facebook zulässig ist und warum. Im Mai haben wir Zahlen darüber veröffentlicht, wie viele Inhalte wir auf unserer Plattform gefunden haben, die gegen diese Gemeinschaftsstandards verstoßen. Damit möchten wir der Öffentlichkeit die Möglichkeit geben, sich selbst ein Urteil darüber zu bilden, wie gut wir unsere Standards durchsetzen.

Heute veröffentlichen wir unseren zweiten Bericht zur Durchsetzung unserer Gemeinschaftsstandards. Dieser Bericht zeigt, welche Maßnahmen wir für die Durchsetzung unserer Richtlinien gegen drastische Gewaltdarstellungen, Nacktheit und sexuelle Handlungen von Erwachsenen, terroristische Propaganda, Hassrede, Spam und gefälschte Konten getroffen haben. Er enthält Daten für die sechs Monate von April 2018 bis September 2018. Der Bericht enthält außerdem zwei neue Datenkategorien: Mobbing und Belästigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung.

Aufspüren von Inhalten, die gegen unsere Standards verstoßen

Wir werden immer besser darin Verstöße proaktiv zu finden, noch bevor sie gemeldet werden – insbesondere bei Hassrede und drastischen Gewaltdarstellungen. Es gibt jedoch immer noch Bereiche, an denen wir arbeiten müssen.

  • Seit unserem letzten Bericht hat sich der Anteil der Hassrede, die wir proaktiv erkennen, mehr als verdoppelt: von 24 % auf 52 %. Die meisten Beiträge, die wir auf Grund von Hassrede entfernen, haben wir gefunden, bevor sie uns gemeldet wurden. Diese Arbeit ist von enormer Wichtigkeit. Wir investieren auch weiter stark in Bereiche, in denen sich unsere Bemühungen noch im Anfangsstadium befinden, sowie in eine verbesserte Durchsetzung unserer Standards in weniger häufig verwendeten Sprachen.
  • Unsere proaktive Erkennung drastischer Gewaltdarstellungen ist um 25 Prozentpunkte gestiegen: von 72 % auf 97 %.

Entfernung von Inhalten und Konten, die gegen die Richtlinien verstoßen

Wir werden nicht nur besser darin, Inhalte zu finden, die gegen unsere Richtlinien verstoßen, sondern entfernen diese auch erfolgreicher. Im 3. Quartal 2018 sind wir gegen 15,4 Millionen Inhalte mit drastischen Gewaltdarstellungen vorgegangen – über 10-mal soviel wie im 4. Quartal 2017. Diesen Anstieg erzielten wir durch ständige Verbesserungen unserer Technologie. Diese ermöglicht uns jetzt, ein Vorgehen automatisch auf eine Vielzahl sehr ähnlicher oder identischer Inhalte anzuwenden. Außerdem ist die Menge an terroristischen Inhalten, die wir im 2. Quartal 2018 entfernt haben, stark gestiegen, wie wir letzte Woche bekannt gegeben haben. Wir haben die Verwendung unseres Bilderabgleichsystems ausgeweitet: Mit dieser Technologie können wir proaktiv Fotos erkennen, die anderen, zuvor wegen Verstoßes gegen unsere Richtlinien aufgefallenen Inhalten, stark ähneln. So können wir alte Darstellungen terroristischer Propaganda löschen. Ein Teil dieses Anstiegs liegt daran, dass wir einen Fehler behoben haben, der uns zuvor daran gehindert hatte, gewisse Inhalte zu entfernen.

Im 2. und 3. Quartal haben wir darüber hinaus mehr Fake Accounts gelöscht als in vorherigen Quartalen: 800 Mio. Konten im 2. und 754 Mio. im 3. Quartal. Die meisten dieser gefälschten Konten waren das Ergebnis finanziell motivierter Spam-Attacken, bei denen versucht wurde, massenhaft gefälschte Konten zu erstellen. Da wir die meisten dieser Konten innerhalb weniger Minuten nach der Registrierung löschen konnten, liegt der Anteil der Fake Accounts auf Facebook weiterhin bei 3 bis 4 % der monatlich aktiven Nutzer. (Details dazu in unserem Einnahmenbericht für das 3. Quartal.)

Neue Berichtskategorien

Die beiden neuen Berichtskategorien – Bullying und Belästigung sowie Nacktdarstellung von Kindern und deren sexuelle Ausbeutung – enthalten erste Datensätze, an denen wir unser Vorgehen gegen diese Verstöße im Laufe der Zeit messen werden.

Bullying und Belästigung sind oft persönlich und unterscheiden sich je nach Kontext. In vielen Fällen muss uns dieses Verhalten also gemeldet werden, bevor wir es erkennen und entfernen können. Das führt zu einer geringeren proaktiven Erkennungsrate als bei anderen Verstößen. Im letzten Quartal sind wir gegen 2,1 Millionen Inhalte vorgegangen, die unsere Richtlinien zu Bullying und Belästigung verletzten. 15 % davon haben wir entfernt, bevor sie gemeldet wurden. Wir haben diese Inhalte proaktiv bei der Suche nach anderen Verstößen entdeckt. Die Tatsache, dass die Opfer diese Inhalte meist melden müssen, bevor wir handeln können, kann verstörend für die Opfer sein. Wir arbeiten daher intensiv daran, diese Arten von Missbrauch besser zu verstehen, damit wir sie in Zukunft proaktiver erkennen können.

Unsere Gemeinschaftsstandards untersagen jegliche Ausbeutung von Kindern. Um potenzielle Ausbeutung zu vermeiden, entfernen wir auch nicht-sexuelle Inhalte. Dazu gehören beispielsweise eigentlich harmlose Fotos badender Kinder, die in einem anderen Kontext leicht missbraucht werden könnten. Allein im letzten Quartal haben wir 8,7 Millionen Inhalte entfernt, die gegen unsere Richtlinien rund um Nacktdarstellungen von Kindern und deren sexuelle Ausbeutung verstießen. 99 % der Inhalte konnten entfernt werden, bevor sie gemeldet wurden. Außerdem haben wir kürzlich eine neue Technologie angekündigt, die uns im Kampf gegen die Ausbeutung von Kindern auf Facebook helfen wird. Ich bin zuversichtlich, dass wir dadurch noch mehr illegale Inhalte noch schneller erkennen werden.

Insgesamt liegt bei der Verhinderung von Missbrauch auf Facebook noch viel Arbeit vor uns. Maschinelles Lernen und künstliche Intelligenz werden uns weiterhin dabei helfen, Richtlinienverstöße auf Facebook zu erkennen und zu entfernen. Zudem messen wir unsere Fortschritte, damit wir die aktuellen Herausforderungen nicht aus den Augen verlieren und wir uns der Verantwortung unserer Arbeit bewusst sein können. Auch das Messen unseres Fortschritts ist sehr wichtig, da es unseren Teams die aktuellen Herausforderungen verdeutlicht und sie sich so für ihre Arbeit verantwortlich fühlen. Um unseren Fortschritt und unsere Datenmethodik zu überprüfen, arbeiten wir mit der Data Transparency Advisory Group (DTAG) zusammen – einer Gruppe von Experten im Bereich Messung und Unternehmensführung. Wir werden unsere Daten in diesem Bereich in Zukunft noch genauer und aussagekräftiger machen.

Der aktuelle Facebook-Bericht zur Durchsetzung der Gemeinschaftsstandards sowie Informationen zu Regierungsanfragen und Anfragen zur Entfernung von Verletzungen geistiger Eigentumsrechte sind hier verfügbar.

Hier ist zudem Mark Zuckerbergs Beitrag zu diesem Thema: