Der Kommentarmoderator ist derzeit der wichtigste Job der Welt

Daniel Leal-Olivas / AFP / Getty Images

Letzte Woche hat YouTube etwas noch nie da gewesenes getan. Überflutet von Kritik an der Entdeckung eines Netzwerks von Kinderräubern, die die Kommentarbereiche der Plattform nutzen, um Zeitstempel und Screenshots von minderjährigen Benutzern aus implizit sexuellen Blickwinkeln zu teilen, deaktivierte das Unternehmen Kommentare zu fast allen Videos mit Minderjährigen. Nur wenige Kanäle mit Minderjährigen könnten monetarisiert bleiben – solange sie ihre Kommentare aktiv moderieren. Die Entscheidung eines Unternehmens, das seit langem die Bedeutung von Algorithmen betont, scheint eine stillschweigende Anerkennung zu sein, dass menschliche Moderation derzeit die beste Lösung für die Überwachung schädlicher Inhalte ist.





Die Moderation von Inhalten und Kommentaren ist eine der wichtigsten Aufgaben im Internet. Hier treffen freie Meinungsäußerung, Gemeinschaftsinteressen, Zensur, Belästigung, Spam und offene Kriminalität aufeinander. Sie muss einer Vielzahl von sich ständig weiterentwickelnden kulturellen Normen und akzeptablen Verhaltensweisen Rechnung tragen. Als jemand, der die Arbeit gemacht hat, kann ich Ihnen sagen, dass es eine düstere und verstörende Aufgabe sein kann. Und dennoch scheinen die großen Tech-Plattformen darauf wenig Wert zu legen: Die Bezahlung ist schlecht, die Arbeiter sind oft Auftragnehmer, und es wird oft als etwas beschrieben, das man am besten den Maschinen überlässt.

Letzte Woche veröffentlichte The Verge beispielsweise eine explosiver Blick in den Einrichtungen von Cognizant, einem Facebook-Auftragnehmer, der derzeit einige der Bemühungen zur Moderation von Inhalten der Plattform überwacht. In der Geschichte beschrieben Mitarbeiter, die aus Angst, ihren Arbeitsplatz zu verlieren, Anonymität beantragten, das emotionale und psychische Trauma ihrer Arbeit. Manche rauchten in den Pausen Gras, um ihre Nerven zu beruhigen. Andere beschrieben, dass sie gerade durch den Inhalt radikalisiert wurden, der ihnen der Polizeiarbeit vorgeworfen wurde. Die meisten verdienten nur 28.000 Dollar im Jahr.

Facebook-Moderatoren in Entwicklungsländern wie Indien sind laut einer aktuellen Reuters-Bericht . Die Auftragnehmer von Genpact, einem Outsourcing-Unternehmen mit Büros im südindischen Hyderabad, sehen sich in einer Acht-Stunden-Schicht jeweils etwa 2.000 Stellen an. Sie verdienen etwa 1.400 US-Dollar pro Jahr; das sind ungefähr 75 Cent pro Stunde.

Wenn die Barbaren bereits hinter den Toren stehen, sagt man den Dorfbewohnern nicht, dass sie auf eine algorithmische Lösung warten sollen.

Es ist klar, dass menschliche Moderatoren etwas sind, von dem Plattformen wie Facebook oder YouTube glauben, dass sie sie schließlich optimieren können. Im vergangenen Frühjahr wurde Mark Zuckerberg vor dem Kongress befragt. referenzierte künstlich-intelligente Moderation mehr als 30 mal. In der Zwischenzeit verbringen die menschlichen Moderatoren bei Facebook oder YouTube jedoch ihre Tage damit, high zu werden, um sich selbst zu betäuben, damit sie weiterhin Selbstmorde aus unseren Newsfeeds streichen können. Diese Unternehmen fordern uns immer wieder auf, den Müll auf den Straßen zu ignorieren, und sagen, dass alles besser wird, sobald sie herausfinden, wie sie die Müllwagen dazu bringen können, selbst zu fahren.

Die Mega-Plattformen, die die Welt in einen riesigen Kommentarbereich verwandelt haben, haben immer wieder gezeigt, dass sie wenig Interesse daran haben, echte Leute einzustellen, um sie zu moderieren. Jede Woche flammen neue Skandalfackeln auf, und wir sehen zu, wie Facebook, YouTube und Twitter Whack-a-Mole spielen und uns versprechen, dass so etwas nicht noch einmal passieren wird. Inzwischen bricht diese dünne Schicht, die Plattformen wie Facebook und YouTube vom kompletten Chaos im 4chan-Stil trennt.

Wenn die Barbaren bereits hinter den Toren stehen, sagt man den Dorfbewohnern nicht, dass sie auf eine algorithmische Lösung warten sollen.



Zach Gibson / Getty Images

Das heißt, es ist teuer und schwierig, Menschen einzustellen, die Ihre Kommentarbereiche, Ihre Newsfeeds und Ihre Videoseiten moderieren. Moderation erfordert ein realistisches Massstabsgefühl. Es gibt nur so viele Kommentare, Beiträge und Videos, die ein Mensch an einem Tag ansehen kann. Es erfordert auch ein konkretes Regelwerk, das konsequent durchgesetzt werden kann. Facebook ist sich im Moment nicht sicher, wie es definiert Hassrede. YouTube kann nicht herausfinden, was eine Verschwörungstheorie ist oder wie man sie richtig überprüft. Twitter werde nicht sagen ob es mächtige Benutzer wie Präsident Trump wegen Verstoßes gegen seine Benutzerrichtlinien verbieten würde.

Ob Fake News, Kinderausbeutung, Russische Chaos-Agenten , Marketing-Betrug , weißer Nationalismus , Anti-Vaxxer , gelbe Westen , koordinierte Belästigung , Welsfischen , doxing , oder die drohende Möglichkeit, dass ein Informationskrieg zwischen Indien und Pakistan zu einem nuklearen eskaliert, alles dreht sich um ein ganz einfaches Thema. Seiten wie Facebook, YouTube und Twitter unterstützen seit Jahren keine klaren und wiederholbaren Moderationsrichtlinien, während ihre Plattformen immer mehr unserer grundlegenden sozialen Funktionen übernommen haben.

Ältere Online-Communitys wie Slashdot, MetaFilter oder sogar Fark haben bewiesen, dass menschliche Moderation zusammen mit klaren Benutzerrichtlinien funktionieren kann. Sicher, der Maßstab war ganz anders als bei den Plattformen, die wir jetzt haben, aber die Methode war relativ effektiv. Im Moment haben wir nicht genug Menschen, die sich ansehen, was ins Internet gestellt wird, und die wenigen, die es nicht tun, haben es nicht die Ressourcen oder Unterstützung es gut zu machen. Wenn etwas schief geht, wie eine Massenpanik über ein vielleicht-echtes, aber mit ziemlicher Sicherheit nicht-echtes Selbstmordspiel wie das Momo-Herausforderung , YouTube zögert, etwas dagegen zu unternehmen und beschließt schließlich, zu versuchen, das Ganze zu löschen, indem es alle Momo-bezogenen Videos demontiert. Aber so weit wird es erst, nachdem Kim Kardashian West und die Strafverfolgungsbehörden angefangen haben, darüber auszuflippen.

Wir sind alle in einem endlosen Kommentarthread von Reddits /r/The_Donald gefangen, ohne dass ein Mod in Sicht ist.

Vielleicht wird KI eines Tages in der Lage sein, das gesamte Internet sofort und effektiv zu überwachen, aber in der Zwischenzeit sind wir alle in einem endlosen Kommentarthread von Reddits /r/The_Donald gefangen, ohne dass eine Mod in Sicht ist. Community-Moderatoren, Content-Moderatoren, Redakteure für die Zielgruppenentwicklung – sie alle haben dieselbe äußerst wichtige Rolle, die seit der Geburt des Internets existiert. Es ist die Person, die sich ansieht, was auf einer Website gepostet wird, und entscheidet, ob ein Inhalt oder ein Benutzer dort bleiben oder entfernt werden soll. Es ist, als würde man einen Sheriff und einen Bibliothekar kombinieren.

Usenet, eine der ersten echten Online-Communitys, hatte Moderatoren für einige seiner Newsgroups. Subreddits haben sie. Discord-Server haben sie. Online-Communitys wurden schon immer in gewisser Weise von ihren Moderatoren definiert. Comedy-Website Something Awful hatte bekanntlich eine riesige Liste von jedem gesperrten Benutzer und warum sie gesperrt wurden. Die feministische Humorseite The Toast hatte früher eine der nettesten und erhebendsten Kommentarbereiche im Internet. Eine der strengsten und am stärksten zensierten Communities im Internet war eine Zeit lang die Neopets-Forum , mit dem wöchentlichen Mod-Drama.

Etwa neun Monate lang arbeitete ich als Kommentarmoderator von BuzzFeed. Jeden Tag kam ich herein und rief einen Feed auf, der jeden Kommentar auf der Website anzeigte. Der Feed enthielt etwa 100 Kommentare gleichzeitig. Als ich fragte, wie viele ich pro Tag löschen sollte, wurde mir gesagt, dass neun Auffrischungen pro Tag normal seien. Das System von BuzzFeed im Jahr 2012 war tatsächlich viel intuitiver als andere Moderations-Feeds, die ich gesehen hatte. Auf der rechten Seite des Bildschirms befand sich eine Toolbox, mit der ich Kommentare blockieren oder Benutzer sofort sperren konnte. Meine Lieblingstaktik war eine Moderationstechnik namens Shadow Banning, bei der der Benutzer nicht weiß, dass er der einzige war, der seine Kommentare lesen konnte.

Meistens würde ich Spam löschen, lustigen Kommentatoren lustige Sticker geben und nach Hassreden suchen. Zu dieser Zeit war BuzzFeed noch ziemlich klein, also war es keine besonders schwierige Aufgabe.

Die härtesten Tage waren jedoch, als wir von einer anderen Online-Community angegriffen wurden. Die Taktik heißt Astroturfing, und normalerweise würde eine Community wie Reddit oder 4chan oder das Neonazi-Forum Stormfront unsere Kommentarbereiche mit Gore, Pornografie und Hassreden überfluten. Wenn so etwas über Nacht passierte – was normalerweise der Fall war – würde ich am Ende das Mittagessen durcharbeiten, um die Dinge aufzuräumen. Nach solchen Tagen verbrachte ich normalerweise meine Nächte damit, stumm ins All zu starren, nicht weil ich besonders traumatisiert war, sondern weil es wirklich nur so viel Vitriol und Giftigkeit gibt, die ein Mensch aufnehmen kann, bevor alles aufhört, etwas zu bedeuten.

Diese Kunstrasentage sind, wie jeder Tag jetzt ist.



knowyourmeme.com

Das mag überraschen, aber auch 4chan hat Moderatoren. Sie werden passenderweise Hausmeister genannt. Die Seite ist natürlich kaum zu moderieren. Es ist ein anonymes Free-for-All. Die einzige Möglichkeit, einen Benutzer wirklich zu sperren, besteht darin, seine IP-Adresse zu blockieren. Hausmeisters quixotische Suche, die tiefste Grube des Elends des Internets zu säubern, ist dort ein Meme. User werden bis mitten in die Nacht warten und die Boards mit grotesken Bildern überfluten, schreiben, Mods schlafen.

Im ersten Jahrzehnt der Lebensdauer von 4chan war die Seite die Ausnahme. Sie waren die anarchische Alternative zu einer Welt von Mods und Admins und Forenetikette. Die meisten seiner frühen Benutzer waren Leute, die von Something Awful verboten wurden, weil sie schrecklich waren. Aber jetzt scheint der einzige Unterschied zwischen 4chan und Facebook oder YouTube darin zu bestehen, dass die großen Plattformen eine Legion von unterbezahlten Auftragnehmern haben, die mit einem Algorithmus arbeiten, um die Giftigkeit schnell unter den Teppich zu kehren, wenn genügend Leute sich darum kümmern.

Im Jahr 2009 schrieb einer der Hausmeister von 4chan über den Job in einem Reddit-AMA . Auf die Frage, ob 4chan wirklich eine so schlechte Community ist, hat der Hausmeister etwas geschrieben, das jedem bekannt vorkommen wird, der seit 2015 auf Facebook, YouTube oder Twitter verbracht hat.

Alle anderen scheinen sich wie ein rassistischer verrückter Soziopath zu benehmen, also handeln Leute, die sogar grenzwertig sind, weil sie können, schrieb der Hausmeister. Wenn Ihr Nachbar sein Haus angezündet hat und dann versucht hat, es auszupissen und der andere nur aus dem Fenster auf Passanten schießt, werden Sie sich nicht allzu viele Sorgen machen, wenn Ihr Rasen zu sterben beginnt.