Von Alex Schultz, VP, Data Analytics

„Nur was man misst, das kann man auch verbessern“ – an diesem Grundsatz des bekannten Unternehmensberaters Peter Drucker orientiert sich jedes seriöse Unternehmen, denn fundierte Entscheidungen beruhen auf Messungen, nicht auf Hörensagen und Intuition. Das gilt auch bei Facebook, und insbesondere, wenn es um die Sicherheit auf unserer Plattform geht.

Wir haben Facebook als Ort aufgebaut, an dem die Menschen frei und offen über die unterschiedlichsten Ideen diskutieren können, sogar über solche Ideen, die manchem kontrovers oder anstößig erscheinen. Zudem möchten wir aber dafür sorgen, dass unser Dienst für alle Menschen sicher ist. Das kann eine schwierige Gratwanderung sein.

Im vergangenen Monat haben wir erstmalig die Richtlinien veröffentlicht, die unserem Überprüfungsteam bei der Entscheidung helfen, was auf Facebook bleibt und was entfernt wird. Und heute veröffentlichen wir – wiederum zum ersten Mal – die Daten, auf deren Basis wir intern unsere Effektivität bei der Durchsetzung dieser Standards messen. Die Methodologie ist noch nicht in Stein gemeißelt, das heißt, je mehr wir lernen, was wichtig ist und was funktioniert, desto besser werden wir in der Lage sein, unsere Vorgehensweise anzupassen.

Der heutige Bericht liefert eine detaillierte Beschreibung unserer internen Prozesse sowie unserer Vorgehensweise in Bezug auf Daten. Es ist auch der Versuch, offener zu werden, so dass du selbst beurteilen kannst: Wie gut gelingt es uns eigentlich, unerwünschte Inhalte aus unseren Diensten zu entfernen? Darüber hinaus soll er es Wissenschaftlern, politischen Entscheidungsträgern und Gruppen leichter machen, uns Feedback zu geben, damit wir besser werden können.

Es wird immer Menschen geben, die versuchen, verletzende oder unerwünschte Dinge auf Facebook zu posten – ganz gleich ob es sich um Hassrede, terroristische Propaganda oder Bilder mit Ausbeutung von Kindern handelt. Diese Tatsache können wir nicht ändern. Was wir aber tun können, ist zu messen und damit letztendlich zu kontrollieren, wie häufig Inhalte, die gegen unsere Gemeinschaftsstandards verstoßen, angesehen werden. Als Leiter von Data Analytics habe ich das Team geleitet, das unsere Arbeit auf diesem Gebiet misst, damit wir als Unternehmen besser verstehen, wie effektiv wir unsere Richtlinien durchsetzen.

Gesamtauswirkungen

Unsere wichtigste Messgröße sind die Auswirkungen, d. h. der Schaden, den jeder einzelne unerwünschte Inhalt anrichtet, wenn er auf Facebook gepostet wird. Dabei gehen wir ziemlich einfach vor: Wir messen sowohl wie oft der Inhalt angesehen wird („Aufrufe“), als auch wie schwerwiegend die Auswirkungen jedes Aufrufs auf die Personen, die ihn sehen, sowie auf die größere Community sind:

Gesamtauswirkungen = Aufrufe von verstoßendem Inhalt x Auswirkungen des verstoßenden Inhalts je Aufruf

Aufrufe lassen sich leicht zählen.  Auswirkungen dagegen sind viel schwieriger zu messen. Beispiel: Wie stark wird jemand negativ beeinflusst, der Hassrede sieht, im Vergleich zu jemandem, der drastische Gewaltdarstellung sieht? Und was ist der prozentuale Unterschied? Wie vergleicht man die Schwere der Auswirkungen von terroristischer Propaganda mit der von Bildern, die Kindesmissbrauch zeigen?

Die Antwort lautet: Wir können Auswirkungen nicht in Zahlen ausgedrückt vergleichen. Aber wir können diese unterschiedlichen Schadensarten kategorisieren und priorisieren. Natürlich ist dieses Vorgehen in gewissem Maße subjektiv. Aber durch Priorisierung können wir schnellstmöglich Ressourcen für die Inhalte bereitstellen, die nach unserer Ansicht am unmittelbarsten gefährlich sind.

Hier ist ein Beispiel: Angenommen, jemand postet ein Bild einer nackten Person auf Facebook. Das verstößt gegen unsere Richtlinien und wir bemühen uns, es zu entfernen. Unsere Nacktheit-Filter sind inzwischen tatsächlich äußerst effektiv. Aber angenommen, das Bild wurde von einem Mann gepostet, der sich an einer Frau rächen möchte, die ihn verlassen hat. In unserem Denkmodell hat dies größere negative Auswirkungen und folglich wird dieser Fall in unserer Entfernungsliste nach oben rutschen. Er hat höhere Priorität. Das ist ein wenig wie bei der Klassifizierung in einer Notaufnahme. Jeder Patient zählt. Aber die kritischsten Fälle werden zuerst behandelt.

Wie oft wird unerwünschter Inhalt auf Facebook angesehen?

Innerhalb jeder Missbrauchskategorie – gleichgültig ob gefälschte Konten, Hassrede oder Nacktheit – ist entscheidend, wie oft ein Inhalt, der gegen unsere Standards verstößt, tatsächlich angesehen wird, bezogen auf die Gesamtzahl der Male, die jeder Inhalt auf Facebook angesehen wird. Wir nennen das Prävalenz. Diese Messgröße erfasst, wie oft etwas angesehen wird, nicht, wie lange etwas auf Facebook verbleibt. Wenn ein Inhalt mit Hassrede eine Millionen Mal in 10 Minuten angesehen wird, ist das weitaus schlimmer, als wenn ein Inhalt 10 Mal in 30 Minuten angesehen wird.

Wir berechnen diese Kennzahl, indem wir eine Stichprobe von Facebook-Inhalten auswählen und dann ermitteln, wie viel dieser Stichprobe nicht vorhanden sein sollte. Nähere Einzelheiten hierzu findet ihr in unserem Leitfaden zu diesen Daten. Da es hier um Prävalenz geht, konzentrieren wir uns darauf, wie viele Inhalte angesehen werden und nicht, wie viele Inhalte gegen unsere Regeln und Richtlinien verstoßen. Mit anderen Worten: Wir behandeln nicht alle Inhalte gleich. Bei einem Post, der eine Million Mal angesehen wird, ist die Wahrscheinlichkeit, dass er Teil der Stichprobe wird, eine Million Mal höher, als bei einem Post, der nur einmal angesehen wird. Und das ist auch gut so.

Wir werden immer wieder aufgefordert, Kennzahlen darüber zu veröffentlichen, wie lange es dauert, bis Facebook gegen unsere Standards verstoßende Inhalte, seien es Texte oder Bilder, entfernt. Aber wir sind der Ansicht, dass „Zeit“ nicht die aussagekräftigste Kennzahl für die effektive Kontrolle unseres Dienstes ist. Dabei darf man ebenfalls nicht außer Acht lassen, dass auch wir Fehler machen. Manchmal entfernen wir Inhalte, die eigentlich nicht gegen unsere Gemeinschaftsstandards verstoßen (wir nennen das Falsch-Positive). In anderen Fällen haben wir Inhalte nicht entfernt, obwohl wir es hätten tun sollen. Jeder Fehler kann Menschen verletzen – und genau das ist unsere Motivation, kontinuierlich besser zu werden.

Facebook investiert viel Geld in die Einstellung von mehr Mitarbeitern und Mitarbeiterinnen, die markierte Inhalte überprüfen. Aber wie Guy Rosen vor zwei Wochen bereits erläutert hat, unterstützen uns neue Technologien wie maschinelles Lernen, Computer Vision und künstliche Intelligenz dabei, mehr unerwünschte und schädliche Inhalte schneller – sehr viel schneller – und in sehr viel größerem Umfang aufzuspüren, als Menschen es jemals könnten. In der Tat ist es so, dass wir mithilfe künstlicher Intelligenz unerwünschte und schädliche Inhalte sogar bereits von Facebook entfernen können, bevor sie überhaupt gemeldet werden. Aus diesem Grund messen wir jetzt, wie oft Facebook Inhalte selbst aufdeckt, bevor sie gemeldet werden. Die kontinuierliche Verbesserung dieser Quote ist von entscheidender Bedeutung, da es unser Ziel ist, die negativen Auswirkungen, die unerwünschte und schädliche Inhalte auf Nutzerinnen und Nutzer von Facebook haben, direkt zu reduzieren.

Das Gute finden

Als Homosexueller habe ich sowohl das Beste als auch das Schlimmste erlebt, das unser Dienst und seine Nutzerinnen und Nutzer zu bieten haben. Facebook hat mir geholfen, eine Community zu finden, als ich mich einsam und isoliert gefühlt habe. Dank unserer Privatsphäre-Einstellungen konnte ich Dinge mit Freunden und Freundinnen teilen und behielt dennoch die Kontrolle darüber, wie weit ich mein Outing bekanntgemacht habe. Je mehr ich, auch aufgrund meiner Position bei Facebook, in der Öffentlichkeit stand, desto mehr wurde ich angegriffen, diffamiert und beleidigt. Diese Erfahrung hat mich häufig deprimiert und mir auch Angst gemacht.

Gerade solche persönlichen Erlebnisse sind uns Ansporn sicherzustellen, dass Facebook eine durchweg positive Erfahrung ist – für alle Nutzerinnen und Nutzer. Ich hoffe, dass dieser Bericht, Blog und Leitfaden einen Eindruck vermitteln, wie wir das erreichen möchten. Ich würde mich freuen, wenn sich daraus eine Diskussion ergäbe, wie wir das noch besser machen können. Denn was man misst, kann man auch verbessern.