Heute veröffentlichen wir unseren dritten NetzDG-Transparenzbericht, wie vom Netzwerkdurchsetzungsgesetz (NetzDG) vorgesehen.

Der NetzDG-Meldeweg ist ein gesonderter Meldeweg, der unabhängig von unserem üblichen Meldeprozess nach Gemeinschaftsstandards ist. Wenn Personen Inhalte melden wollen, von denen sie glauben, dass sie gegen die im NetzDG genannten Straftatbestände verstoßen, können sie das NetzDG-Meldeformular nutzen.

Der Transparenzbericht beinhaltet unter anderem die Gesamtzahl der über das Meldeformular übermittelten Beschwerden (“NetzDG-Beschwerden”), die Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben, sowie Informationen darüber, wie viele Personen NetzDG-Beschwerden bearbeiten.

  • Gesamtzahl der Beschwerden: Im Zeitraum zwischen 1. Januar 2019 und 30. Juni 2019 wurden uns insgesamt 1050 Inhalte in 674 NetzDG-Beschwerden gemeldet (Nutzer können mehrere Inhalte in einer einzigen NetzDG-Beschwerde anführen).
  • Anzahl der Beschwerden, die zu gelöschten oder gesperrten Inhalten geführt haben: Von diesen wurden 349 Inhalte infolge einer NetzDG-Beschwerde gelöscht oder gesperrt (ca. 33%). Insgesamt haben 239 NetzDG-Beschwerden dazu geführt, dass Inhalte gelöscht oder gesperrt wurden.
  • Anzahl der Personen, die NetzDG-Beschwerden prüfen: NetzDG-Beschwerden werden durch Teams aus geschulten Fachkräften und Juristen geprüft. Zu diesen Teams zählen derzeit insgesamt 80 Personen. Diese Personen sind auch in anderen Bereichen als der Bearbeitung von NetzDG-Beschwerden tätig, je nach Beschwerdeaufkommen.
Unser Vorgehen gegen Hassrede

Hassrede ist auf Facebook nicht erlaubt. Facebook entfernt Hassbotschaften, das heißt Inhalte, in denen Personen aufgrund sogenannter “geschützter Eigenschaften” direkt angegriffen werden. Dazu zählen Ethnizität, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht bzw. geschlechtliche Identität sowie schwere Behinderungen oder Krankheiten. Dies spiegelt sich in unseren Gemeinschaftsstandards wider und wir entfernen entsprechende Inhalte, wenn wir auf sie aufmerksam werden. Unser Ansatz entwickelt sich kontinuierlich weiter, auch dank des Feedbacks von Experten und Facebook-Nutzern.

Unabhängig vom NetzDG arbeiten wir hart daran, Hassrede zu entfernen, sobald wir darauf aufmerksam werden. So haben wir in den letzten Jahren erhebliche Fortschritte gemacht, indem wir unsere Gemeinschaftsstandards und deren Durchsetzung verbessert haben. Außerdem haben wir das Team, das sich bei Facebook mit Sicherheitsfragen beschäftigt, deutlich vergrößert: Das Team hat mittlerweile mehr als 30.000 Mitarbeiter, von denen etwa die Hälfte Inhalte überprüft.

Zudem helfen uns neue Technologien wie Maschinelles Lernen, Computer Vision und Künstliche Intelligenz, unangemessene Inhalte noch schneller und in einem weitaus größeren Umfang zu finden als es Menschen je könnten.

Wir veröffentlichen regelmäßig Berichte, die darlegen, wie viele Inhalte wir aufgrund von Verstößen gegen unsere Gemeinschaftsstandards beispielsweise im Bereich Hassrede entfernen. Außerdem zeigen die Berichte, wie viele dieser Inhalte mithilfe unserer Technologien entdeckt wurden, bevor sie jemand melden konnte. Weltweit haben wir im Zeitraum von September bis Dezember 2018 rund 3,3 Millionen Inhalte entfernt, weil sie gegen unsere Richtlinien für Hassrede verstoßen haben. Im ersten Quartal 2019 stieg diese Zahl auf rund 4 Millionen Inhalte. Die Anzahl der Inhalte, die wir selbst entdeckt haben, noch bevor sie uns gemeldet werden konnten, stieg von 51,5 Prozent im dritten Quartal 2018 auf 65,4 Prozent im ersten Quartal 2019. Im letzten Quartal 2017 lag diese Zahl noch bei 24 Prozent. Weitere Informationen zu unseren aktuellen Durchsetzungszahlen finden Sie hier. Wir machen hierbei kontinuierlich Fortschritte. Die Überprüfung durch Menschen bleibt jedoch insbesondere beim Thema Hassrede aufgrund der Komplexität und Feinheiten in der Sprache unerlässlich.

https://fbnewsroomus.files.wordpress.com/2019/05/fb_cser-hate-speech-051519-final-1650-wide-1.png

In Deutschland haben wir im ersten Quartal 2019 mehr als 160.000 Inhalte entfernt, weil sie gegen unsere Richtlinien für Hassrede verstoßen haben. Rund 70 Prozent dieser Inhalte wurden proaktiv entdeckt, noch bevor sie uns von Nutzern gemeldet werden konnten.

Wir wissen, dass uns bei der Anwendung unserer Gemeinschaftsstandards Fehler unterlaufen können. Aus diesem Grund haben wir im letzten Jahr die Möglichkeit geschaffen, bei einzelnen Beiträgen gegen unsere Entscheidungen Einspruch zu erheben. Dadurch können Menschen eine Entscheidung erneut überprüfen lassen, wenn sie der Meinung sind, dass wir einen Fehler gemacht haben. Außerdem arbeiten wir an einer neuen Möglichkeit, mit der Menschen bei einem unabhängigen Gremium Beschwerde gegen Entscheidungen einlegen können. Anfang dieses Jahres haben wir den Entwurf einer Charta veröffentlicht, der mehr Details über die mögliche Zusammensetzung eines solchen Gremiums (dem sogenannten Oversight Board) enthält. Im Juni haben wir zudem einen Bericht über den Konsultationsprozess veröffentlicht, den wir über die vergangenen Monate zum Oversight Board geführt haben. Dieser Bericht enthält Feedback und Empfehlungen aus aller Welt, die Facebook durch Workshops, Diskussionsrunden, eine Online-Umfrage, persönliche Gespräche und Medienberichte erhalten hat. Einer dieser Workshops fand Ende Juni in Berlin statt.

Wir arbeiten hart daran, unangemessene Inhalte von unserer Plattform zu entfernen und Informationen darüber bereitzustellen, wie wir dabei vorgehen. Unsere Teams arbeiten daran, für zukünftige Berichte zur Durchsetzung unserer Gemeinschaftsstandards noch mehr Informationen aufzubereiten.

Unsere Arbeit am NetzDG-Transparenzbericht findet parallel zu den zuvor beschriebenen globalen Datenanalysen statt. Wir halten uns dabei an die spezifischen Vorgaben des NetzDG.