Mit “The Cleaners” schufen die Regisseure Moritz Riesewieck und Hans Block eine bemerkenswerte Doku, die die Mechanismen hinter der Content-Politik von Social-Media-Riesen wie facebook auf beeindruckende Weise beleuchtet. Wir baten die beiden zum ausführlichen Interview über ihren Film und die Arbeit daran.
Fragen von Christian Klosz / Film plus Kritik
Vielen Dank für eure Zeit. Meine erste Frage: Wann habt ihr mit der Arbeit an “The Cleaners” begonnen, und wie lange haben die Dreharbeiten gedauert?
Riesewieck: Vor mehr als 5 Jahren sind wir auf das Thema der „Content Moderation“ aufmerksam geworden. Von da an hat uns das Thema nicht mehr losgelassen. Vor drei Jahren haben wir dann sehr intensiv angefangen, zu dem Thema zu recherchieren. Uns hat die Frage, wer dafür verantwortlich ist, was auf unseren News-Feeds sichtbar ist, nicht mehr losgelassen. Wir wollten wissen, was hinter den verschlossenen Türen der Social-Media-Unternehmen passiert. Das war der Anfang einer langen, intensiven Reise, mit vielen unerwarteten Wendungen. Neben einigen kleineren Drehphasen ab Sommer 2016 haben die Hauptdrehphasen im Januar 2017 begonnen. Wir haben dann gedreht, uns anschließend in den Schnittraum zurückgezogen und wieder gedreht. Das Ganze zog sich dann bis Dezember 2017. Schließlich mussten wir den Film dann irgendwie fertig kriegen, weil wir eine Einladung zum Sundance Film Festival im Januar 2018 bekommen hatten.
Was war Grund, warum ihr euch für das Thema interessiert habt?
Block: Ausgangspunkt unserer Recherche war ein grausamer Post auf Facebook: Am 23. März 2013 entdeckten Tausende von NutzerInnen weltweit auf ihrem Facebook-Newsfeed ein Video eines kleinen Mädchens, das von einem älteren Mann vergewaltigt wurde. Bevor das Video von Facebook gelöscht wurde, wurde es 16.000 Mal geteilt und 4.000 Mal geliked. Dieser Fall hat weltweit Bestürzung ausgelöst. Auch wir haben davon mitbekommen und uns gefragt, wie mit solchen Inhalten normalerweise umgegangen wird. Wie oder wer filtert Inhalte auf den sozialen Plattformen? Gibt es eine Art Bilderkennungssoftware? Ein Algorithmus? Künstliche Intelligenz?
Die Medienwissenschaftlerin Sarah T. Roberts, Expertin für Content Moderation, sagte uns, dass Menschen hinter diesen Entscheidungen stehen. Und dass es einige Annahmen gebe, dass der größte Teil dieser Arbeit in „Entwicklungsländer“ ausgelagert wird. Wir wollten unbedingt mit diesen ArbeiterInnen in Kontakt treten. Auf der einen Seite haben wir uns diesen Job als äußerst belastend vorgestellt. Acht Stunden vor dem Bildschirm zu sitzen und all die Grausamkeiten zu sichten, die der Mensch im Stande ist zu produzieren, kann nicht unbeschadet an den ArbeiterInnen vorbeigehen. Auf der anderen Seite bestimmen diese jungen Leute, was in unserer digitalen Welt vorkommen darf und was nicht. Grund genug, um Licht in die dunkle Seite der sozialen Medien zu bringen.
Wie habt ihr den Kontakt zu den “Cleaners” hergestellt?
Block: Die Kontaktaufnahme mit den ArbeiterInnen in Manila war die größte Herausforderung. Es ist eine sehr geheime und verschlossene Industrie. Sowohl die Auftraggeber, also Facebook, Google, Twitter, als auch die Outsourcing-Unternehmen tun alles, um die Arbeit geheim zu halten. Die Unternehmen verwenden Codewörter, um geheim zu halten, für welche Unternehmen sie arbeiten. Facebook heißt zum Beispiel das “Honeybadger Project”. ArbeiterInnen dürfen niemals sagen, dass sie für Facebook arbeiten. Wann immer sie gefragt werden, müssen sie sagen, dass sie für das “Honeybadger Project” arbeiten. Da war es natürlich nicht leicht, mit ihnen in Kontakt zu kommen. Die ArbeiterInnen unterschreiben NDA’s (non-disclosure agreements), also Verschwiegenheitsvereinbarungen. Wenn sie doch reden, wird ihnen mit Geldstrafen und anderen Repressalien gedroht. Es gibt sogar private Sicherheitsfirmen, die die MitarbeiterInnen bewachen und sie zwingen, nicht mit Fremden zu reden. Sie kontrollieren ihre Social-Media-Konten, sie beobachten, mit wem sie bei der Raucherpause vor dem Gebäude reden.
Riesewieck: Auch wir haben erlebt, dass während der Recherche in Manila Fotos von unserem Team gemacht wurden, die dann anschließend durch das Unternehmen gejagt wurden, mit der Warnung: Wer mit diesen Typen spricht, verliert auf der Stelle seinen Job. Das war zwischenzeitlich wirklich bedrohlich. Wir haben wie Detektive alle möglichen Informationen gesammelt, um Zugänge zu bekommen. Stück für Stück wussten wir dann, welche Unternehmen den Service für die großen sozialen Plattformen anbieten. Und uns war klar, dass wir die MitarbeiterInnen nur zum Sprechen bewegen, wenn wir überhaupt keinen Druck ausüben. Dafür braucht man Zeit, die wir uns genommen haben. Mehr als 6 Monate haben wir insgesamt in Manila verbracht und haben dadurch Stück für Stück Vertrauen aufbauen können. Nachdem das Vertrauen gewonnen war, waren wir überrascht, wie stolz viele von ihnen auf die Aufgabe, das Internet zu “reinigen”, waren. Sie sagten uns: Ohne uns wären soziale Medien ein komplettes Chaos. Wir haben dann mit unseren ProtagonistInnen zusammengearbeitet, um herauszufinden, wie man einen Film über dieses Thema macht.
Ich kann von einer persönlichen Erfahrung berichten, die unsere Website betrifft: Einer unserer Artikel über den Film “Antichrist” wurde zuerst von facebook entfernt, dann mein Account gesperrt – weil das Titelbild eine Szene des Films enthielt, die 2 Menschen beim Sex zeigt. Es war dann irrsinnig schwierig, wieder Zugang zu meinem Account und auch unserer fb-Seite zu bekommen. Ist den “Cleaners” bewusst, was sie mit ihrer Arbeit bewirken und auslösen können?
Riesewieck: Ja, das ist einer von tausenden Fällen dieser Art jeden Tag. Die Cleaners bekommen natürlich mit, wenn es in den Medien zum Aufruhr kommt, weil wieder einmal eine völlig unverständliche Entscheidung getroffen wurde. Aber was sollen sie tun? Nackte Körper und erst recht Sex sind nun mal auf Facebook tabu. Ausnahmen werden nur selten gewährt. Hier zeigt sich, dass ein puritanisches Welt- und Menschenbild exportiert wird. Aber es ist ja auch praktisch, mit diesem kleinsten gemeinsamen Nenner die größte Zahl von Usern weltweit, also auch die religiös restriktiven Nutzerinnen und Nutzer, zu erreichen.
Ein Problem dieser Zensur ist ja auch, dass eine scheinbar “vereinheitlichte” Meinung (orientiert an klaren Richtlinien, die die “Cleaner” auswendig lernen) auf facebook dargestellt wird, die in Wahrheit so nicht existiert. Wie seht ihr das?
Block: Genau, die Regeln sind extrem widersprüchlich. So werden Skulpturen nackter Altgriechen von den Löschungen meist verschont, während die Nackten auf den Bildern der holländischen Meister dran glauben müssen. Wenn die Content Moderators erkennen, dass es sich um ein ikonographisches Bild handelt oder um bedeutende Kunst, sollen sie Ausnahmen machen. Aber wie soll ein/e College-AbsolventIn erkennen, ob ein Bild einen Kunstwert hat oder in die Fotografiegeschichte eingehen wird? Wir haben es hier nicht mit KunsthistorikerInnen zu tun. In einer weiteren Regel werden die Cleaners aufgefordert, den Zweck eines Bildes zu beurteilen, also die Frage, warum jemand dieses oder jenes Bild gepostet hat: aus voyeuristischen Gründen oder im Sinne der Aufklärung. So etwas innerhalb weniger Sekunden zu entscheiden, ist für die Content Moderators, die wir getroffen haben, schlicht unmöglich.
Gibt es andere (techniche) Möglichkeiten, mit “unliebsamen” Inhalten auf Social-Media-Plattformen umzugehen?
Riesewieck: Die Plattformen bemühen automatische Bilderkennungssoftware, um Gewalt und Pornographie in vielen Fällen schon beim Upload entdecken zu können. Aber auch diese Bilder und Videos müssen dann noch von Menschen begutachtet werden. Die Technik ist schlicht zu unzuverlässig. Es kommt schließlich immer auf den Kontext an, ob etwa ein Video voller Gewaltdarstellungen der Berichterstattung dient oder einfach nur gewaltverherrlichend ist. Ist ein Bild satirisch gemeint oder handelt es sich um Propaganda? Handelt es sich um ein Urlaubsfoto eines Kindes am Strand oder um Kindesmissbrauch? Die automatische Bilderkennung würde noch viel mehr Fehler produzieren als es den menschlichen Cleaners passiert.
Eine Frage ist ja auch, wer überhaupt bestimmen soll und darf, was “unerwünscht” ist. Für uns Europäer scheint z.B. Nackheit in der Kunst (und entsprechende Darstellung im Netz) vollkommen normal, während das für die Amerikaner offenbar höchst anstößig ist. Ich stelle mir vor, dass das einige, wenige Menschen sind, die darüber entscheiden, was Millarden Menschen zu sehen bekommen, und was eben nicht. Habt ihr bei eurer Recherche Einblick bekommen, wie diese Entscheidungen ablaufen, bzw. wer sie schlussendlich trifft?
Block: Neben einem kleinen Kreis von Verantwortlichen der Firmen nehmen auch Lobbygruppen Einfluss auf die Richtlinien. Dazu zählen Organisationen wie das „Family Safety Institute“, die Facebook & Co. kindersicher machen wollen. Politische Aufklärung, also etwa das Dokumentieren ziviler Opfer in Kriegsgebieten, wird wegen ihrer Einflussnahme auf Facebook oder YouTube immer schwieriger. Aber auch libertäre Vereinigungen, die etwa die Verbreitung von Hassrede durch das “First Amendment” rechtfertigen und deshalb gegen das Löschen solcher Posts und Tweets argumentieren, zählen dazu. Nacktheit und Sexualität werden ja in den USA gemeinhin schneller zensiert als Hass und Gewalt. Und dann sind es nationale Regierungen oder auch die EU, die Ausnahmen und Sonderwege erzwingen. Autokraten wie Erdogan tun es ihnen gleich und erpressen Facebook, Twitter & YouTube, bis sie unliebsame Inhalte für etwa den türkischen Markt sperren. Die Verlierer sind die mit der kleinsten Lobby: soziale Minderheiten und EinzelnutzerInnen, die nicht dem Mehrheitsinteresse entsprechen.
Gab es seit der Veröffentlichung des Films Versuche von facebook, mit euch in Kontakt zu treten?
Riesewieck: Nein, leider nicht. Im Gegenteil. Von Anfang an wollten wir mit den Führungskräften von all den großen Social-Media-Unternehmen in Kontakt treten, die es im Silicon Valley gibt. Aber ist gibt diesen “Code of Silence”. Keiner der Mitarbeiter von Facebook oder Google redet darüber, was drinnen passiert. Wir haben mehrere Dutzend Leute kontaktiert und nie eine Antwort bekommen. Wir haben sogar den fertig geschnittenen Film an alle großen Unternehmen geschickt und um eine öffentliche Erklärung gebeten. Auch hier gab es keine Antwort. Intransparenz ist leider nach wie vor eine der Haupteigenschaften dieser Unternehmen.
Habt ihr weitere Projekte in Planung, die sich dieser oder einer ähnlichen Thematik annehmen?
Beide: Ja, aber alles noch sehr geheim… Seid gespannt! 🙂
Vielen Dank für das Interview!

Bilder: © gebrueder beetz filmproduktion