Content moderators: we want to speak to you!

Foxglove and social media content moderators

Foxglove is a non-profit based in London that aims to make technology fair for everyone. We’ve been working with Facebook, WhatsApp, Instagram and TikTok content moderators since 2019. We also work to support Amazon workers and drivers at apps like Uber. 

We work with content moderators because we know they are on the online frontline, risking developing PTSD to make social media safe for the rest of us. We know it is tough, gruelling but essential work that is badly understaffed, under-resourced and doesn’t pay nearly enough.

We also know that it is impossible to separate the failure of companies like Meta to employ enough moderators – and to support them properly – from the failure to make Facebook and other platforms safe to use. Put simply: putting moderators in danger puts social media users in danger.

This year, we supported Facebook whistleblower and former content moderator Daniel Motaung bring a legal case against his exploitation by Facebook and Sama, the outsourcing company that runs the content moderation office in Nairobi, Kenya, where Daniel worked.

We regularly support moderators to get their voices heard in the press to make sure their stories, experiences and unique understanding of how social media really works cannot be ignored. We have also supported moderators to appear in public forums like the Irish parliament and are working to do more of this. 

If you are a content moderator for any social media platform, we want to hear from you. We treat all our contact with content moderators in the strictest confidence and use the encrypted messaging app Signal, which is free to download, to make sure all contact is secure.

Contact us now on Signal: +44 7518 115 223.

Foxglove und Moderatoren für soziale Medieninhalte 

Foxglove ist eine gemeinnützige Organisation mit Sitz in London, deren Ziel es ist, Technologie für alle fair zu machen. Wir arbeiten seit 2019 mit Moderatoren von Facebook, WhatsApp, Instagram und TikTok zusammen. Außerdem unterstützen wir Amazon-Mitarbeiter und Fahrer bei Apps wie Uber. 

Wir arbeiten mit Content-Moderatoren, weil wir wissen, dass sie an der Online-Front stehen und riskieren, eine Posttraumatische Belastungsstörung (PTBS) zu entwickeln, um soziale Medien für den Rest von uns sicher zu machen. Wir wissen, dass es sich um eine harte, zermürbende, aber unverzichtbare Arbeit handelt, für die es zu wenig Personal und Ressourcen gibt und die nicht annähernd ausreichend bezahlt wird. 

Wir wissen auch, dass es unmöglich ist, das Versagen von Unternehmen wie Meta, genügend Moderatoren einzustellen – und sie angemessen zu unterstützen – von dem Versagen zu trennen, Facebook und andere Plattformen sicher zu machen. Einfach ausgedrückt: Moderatoren in Gefahr zu bringen, bringt die Nutzer sozialer Medien in Gefahr. 

Dieses Jahr haben wir den Facebook-Whistleblower und ehemaligen Moderator Daniel Motaung dabei unterstützt, einen Rechtsstreit gegen seine Ausbeutung durch Facebook und dem Outsourcing-Unternehmen Sama zu führen, das das Moderationsbüro in Nairobi, Kenia, betreibt, in dem Daniel gearbeitet hat. 

Darüber hinaus unterstützen wir Moderatoren regelmäßig dabei, sich in der Presse Gehör zu verschaffen, um sicherzustellen, dass ihre Geschichten, Erfahrungen und ihr einzigartiges Verständnis davon, wie soziale Medien wirklich funktionieren, nicht ignoriert werden. Wir haben auch Moderatoren dabei unterstützt, in öffentlichen Foren wie dem irischen Parlament aufzutreten, und arbeiten daran, dies noch öfter zu tun. 

Wenn Sie eine ModeratorIn für ein soziale Medien Plattform sind, möchten wir von euch hören. Wir behandeln alle unsere Kontakte mit Moderatoren streng vertraulich und verwenden die verschlüsselte Nachrichten-App Signal, die kostenlos heruntergeladen werden kann, um sicherzustellen, dass alle Kontakte sicher sind.  

Kontaktieren Sie uns jetzt über Signal: +49 160 3746194.