Sheryl Sandberg sagt, sie sei „angewidert“ von hasserfülltem Werbe-Targeting, da Facebook Änderungen vornimmt
Justin Tallis / AFP / Getty Images
Facebook nimmt Änderungen an seiner Werbeplattform vor, um zu verhindern, dass die Leute sie für hasserfüllte Werbung verwenden.
Am Mittwochnachmittag antwortete Facebook-COO Sheryl Sandberg auf a ProPublica-Bericht veröffentlichte letzte Woche heraus, dass Werbetreibende Facebook nutzen könnten, um Menschen anzusprechen, die sich für Themen wie Judenhasser, Wie man Juden verbrennt und die NSDAP interessieren. In einem Facebook-Post nannte Sandberg die Targeting-Kriterien völlig unangemessen und sagte, Facebook werde Änderungen vornehmen, um zu verhindern, dass ähnliche Probleme erneut auftreten.
„Diese Worte zu sehen, hat mich angewidert und enttäuscht gemacht – angewidert von diesen Gefühlen und enttäuscht, dass unsere Systeme dies zuließen“, sagte sie.
Hier ist Sandbergs vollständiger Beitrag:
Diesen Beitrag auf Facebook ansehen
Vor dem Bericht von letzter Woche machte das Anzeigensystem von Facebook diesen Eintrag automatisch zu einer Targeting-Option, wenn jemand etwas in die selbst gemeldeten Profilfelder von Facebook schrieb – Bildung, Beschäftigung, Berufsbezeichnung und Studienrichtung. Also machten Leute, die Judenhasser in ihrem Studienfach aufführten, 'Judenhasser' automatisch zu einer Anzeigen-Targeting-Option. Um das Problem zu beheben, fügt Facebook dem Prozess eine menschliche Überprüfung hinzu, in der Hoffnung, dass es eine Firewall ist, damit so etwas noch einmal passiert. ProPublica fand die Targeting-Kriterien im Anzeigensystem von Facebook nach einem Tipp. Es wurden 2.274 Personen in der Kategorie „Judenhasser“ entdeckt.
Facebook arbeitet auch an einem Programm, 'um die Leute auf Facebook zu ermutigen, uns potenzielle Missbräuche unseres Anzeigensystems direkt zu melden', sagte Sandberg. Das Unternehmen wird auch seine Anzeigenrichtlinien klären und die Durchsetzung der Richtlinien verschärfen, sagte Sandberg, ohne viel mehr Details zu nennen.
Sandberg gab in ihrem Beitrag zu, dass Facebook auf einen solchen Missbrauch nicht vorbereitet war, weil es dies nicht bedacht hatte. „Wir haben nie beabsichtigt oder erwartet, dass diese Funktionalität auf diese Weise verwendet wird – und das liegt an uns. Und wir haben es selbst nicht gefunden – und das liegt auch an uns“, sagte sie.
Die Unfähigkeit von Facebook, vorauszusehen, wie wenig altruistische Menschen seine Produkte missbrauchen könnten, ist ein seit langem bestehendes Problem und hat zu einer Reihe seiner größten Krisen beigetragen, vom Fake-News-Skandal bis zum erschreckendes Ausmaß an Gewalt das wird auf Facebook Live ausgestrahlt. Als Mat Honan . von BuzzFeed News Leg es im April: 'Das Problem bei der Vernetzung aller Menschen auf der Welt besteht darin, dass viele Menschen Arschlöcher sind.'
Auf die Frage, ob die Notwendigkeit, menschliche Rezensenten hinzuzufügen, ein grundlegender Fehler in seiner Technologie liege, verwies Facebook BuzzFeed News in Sandbergs Post auf diese Zeile: 'Die Tatsache, dass hasserfüllte Begriffe sogar als Option angeboten wurden, war völlig unangemessen und ein Versagen unsererseits.'