von Monika Bickert, Head of Global Policy Management bei Facebook

Vergangenen Monat haben Menschen mehrere schreckliche Videos von syrischen Kindern in der Folge eines chemischen Waffenangriffs auf Facebook geteilt. Auf den Videos, die auch anderswo im Netz auftauchten, war zu sehen, wie die Kinder zittern, um Atem ringen und schließlich sterben.

Die Bilder waren zutiefst erschütternd, und zwar so sehr, dass wir eine Warnung vorschalteten. Diese Bilder verursachten aber auch internationale Empörung und lenkten erneut die Aufmerksamkeit auf das Schicksal der Menschen in Syrien. Die Prüfung von Online-Material auf globaler Ebene ist komplex und anspruchsvoll, aber auch sehr wichtig! Als die Person, die diese Arbeit für Facebook tut, möchte ich erklären, wo wir die Grenzen ziehen.

An einem durchschnittlichen Tag wird Facebook von über einer Milliarde Menschen genutzt. Sie teilen Beiträge in Dutzenden von Sprachen – und zwar alles Mögliche von Fotos bis hin zu Live-Videos. Nur ein sehr kleiner Prozentsatz davon wird uns gemeldet und anschließend von uns geprüft. Das Spektrum der Anlässe ist breit – von Mobbing und Hassrede bis hin zu Terrorismus – und komplex. Richtlinien zu entwerfen, die Menschen schützen und es ihnen gleichzeitig ermöglichen, sich frei auszudrücken, bedeutet, dass man stets die neuesten gesellschaftlichen Fragen versteht und wie sie sich online manifestieren. Überdies müssen wir in der Lage sein, schnell auf Millionen von Meldungen pro Woche von Menschen auf der ganzen Welt zu reagieren.

Und es gibt für die Mitarbeiter unseres Community Operations Team noch eine weitere Schwierigkeit: den Kontext zu verstehen. Es ist eine Herausforderung, die Absicht hinter einem Post zu beurteilen oder das Risiko, das in einem anderen enthalten ist. Jemand teilt beispielsweise ein drastisches Video von einem Terroranschlag. Wird es nun die Menschen dazu inspirieren, diese Gewalt nachzuahmen oder dagegen zu protestieren? Oder jemand postet einen Witz über Selbstmord. Macht dieser Mensch nur Spaß, oder ist es ein Schrei nach Hilfe?

Im Vereinigten Königreich ist es beispielsweise akzeptabel, sich kritisch über die Monarchie zu äußern. Aber in anderen Teilen der Welt landen sie dafür im Gefängnis. Gesetze können zwar Orientierung bieten, aber oftmals geht es hier um Normen und Erwartungen, was jetzt noch akzeptabel und womit schon eine Linie überschritten ist. Die neuen Möglichkeiten, solche Nachrichten und Bilder zu teilen, können diese Spannungen schneller an die Oberfläche bringen als früher.

Unser Ziel ist es, unsere Plattform sicher zu gestalten. Manche Details unserer Richtlinien teilen wir nicht immer öffentlich, denn wir wollen Menschen nicht dazu ermutigen, Umgehungslösungen zu finden – aber wir veröffentlichen unsere Gemeinschaftsstandards, die erläutern, was auf Facebook erlaubt ist und was nicht und warum.

Unsere Standards können sich im Laufe der Zeit ändern. Wir stehen im ständigen Dialog mit Fachleuten und lokalen Organisationen, und zwar in Bezug auf Themen wie Sicherheit für Kinder bis hin zu Terrorismus und Menschenrechten. Manchmal bedeutet dies, dass unser Ansatz nicht direkt logisch wirkt. So berichtete der Guardian, dass uns Experten aus dem Bereich Selbstverletzung geraten haben, Live-Videos von Selbstverletzung laufen zu lassen, damit möglicherweise Hilfe herbeigerufen werden kann, aber sie danach zu löschen, um eine Nachahmung zu verhindern. Als vor zwei Wochen in Georgia, USA, ein Mädchen versuchte, auf Facebook live Selbstmord zu begehen, waren ihre Freunde in der Lage, die Polizei zu benachrichtigen, die es schließlich schaffte, rechtzeitig einzugreifen.

Wir bemühen uns sehr, objektiv zu bleiben. Die Fälle, die wir prüfen, sind keine einfachen Fälle: Oftmals befinden sie sich in einem Graubereich, worüber die Menschen unterschiedlicher Meinung sind. Kunst und Pornografie sind nicht immer leicht zu unterscheiden, aber wir haben festgestellt, dass digital erzeugte Bilder von Nacktheit eher auf Pornografie hinweisen als handgefertigte Bilder – daher hat sich dies in unseren Richtlinien niedergeschlagen. Es gibt auch einen großen Unterschied zwischen allgemein ausgedrückter Wut und spezifischen Aufrufen, eine benannte Person zu schädigen – daher erlauben wir das erste, verbieten aber das zweite.

Dieses Spannungsfeld zwischen dem Anprangern von Gewalt und ihrer Förderung, zwischen der Freiheit zur Meinungsäußerung und dem Schutz vor Angst, zwischen der Berichterstattung und dem „Gaffen“, wirft komplizierte Fragen auf, denn es gibt selten universelle gesetzliche Normen, die Klarheit schaffen würden. Unsere einzige Möglichkeit ist es, so objektiv wie möglich zu sein, und zwar auf globaler Ebene und quer durch diverse Kontexte. Aber dennoch passiert es manchmal, dass wir eine Fehlentscheidung treffen.

Die hypothetischen Situationen, die wir verwenden, um unsere Mitarbeiter zu schulen, sind absichtlich extrem. Sie sind so entworfen, um den Leuten, die diese Arbeit tun, zu helfen, mit den schwierigsten Fällen umzugehen. Als wir vor rund 10 Jahren unsere Gemeinschaftsstandards ins Leben riefen, wurde noch Vieles dem persönlichen Ermessen der Mitarbeiter überlassen. Aber da keine zwei Leute genau die gleichen Ansichten teilen, wie Hassrede oder Mobbing definiert ist – wobei es auch noch viele andere Probleme gibt – haben wir unsere Standards weiterentwickelt und klare Definitionen entwickelt.

Wir stehen in der Kritik von Menschen, die mehr Zensur wollen und von Menschen, die weniger davon wollen. Das sehen wir als ein Signal, dass wir uns nicht zu weit in eine dieser beiden Richtungen neigen.

Ich hoffe, dass die Leser verstehen, dass wir unsere Rolle extrem ernst nehmen. Für viele von uns im Facebook Safety Team ist Sicherheit eine Leidenschaft, die uns schon vor unserer Arbeit bei Facebook begleitet hat: Ich selbst zum Beispiel war mehr als ein Jahrzehnt als Staatsanwältin tätig, wo sich meine Ermittlungen um alles Mögliche von sexueller Ausbeutung von Kindern bis hin zu Terrorismus drehten. In unserem Team arbeiten beispielsweise auch ein Experte für Extremismus aus dem Vereinigten Königreich, der ehemalige Forschungsleiter von West Points Zentrum zur Bekämpfung von Terrorismus, ein Mitarbeiter aus einem Krisenzentrum für Vergewaltigungen sowie ein Lehrer.

Wir alle wissen, dass wir mehr tun können. Im vergangenen Monat haben wir angekündigt, dass wir weltweit weitere 3.000 Mitarbeiter für unser Community Operations Team einstellen werden. Es ist eine anspruchsvolle Arbeit, und wir werden noch mehr tun, um sicherzustellen, dass wir ihnen die richtige Unterstützung geben; einerseits damit, dass es einfacher wird, schwierige Entscheidungen schneller an eine höhere Instanz zu eskalieren, und andererseits damit, dass sie auch die notwendige psychologische Unterstützung bekommen.

Technologie hat mehr Menschen als je zuvor die Möglichkeit gegeben, mehr und in nie dagewesenen Maßstäben zu kommunizieren. Wir sind der Ansicht, dass die Vorteile des Teilens die Risiken überwiegen. Aber wir erkennen auch, dass die Gesellschaft immer noch dabei ist herauszufinden, was akzeptabel und was schädlich ist und dass wir bei Facebook eine wichtige Rolle in diesem Dialog spielen.