Kauna Ibrahim Malgwi s’est rendue à Nairobi, capitale du Kenya, pour suivre des études en psychologie. En parallèle, elle travaillait pour Sama. Facebook mais aussi TikTok, ChatGPT, Zalando ou Bold sous-traitaient à cette société la modération des contenus et l’entraînement d’intelligences artificielles.
Elle et ses collègues modérateurs ont été licenciés lorsque l’activité a été reprise par Teleperformance, via sa filiale récemment acquise Majorel, toujours au Kenya. Selon l’avocate des ex-salariés, ceux-ci ont été placés sur une liste noire et ne retrouvent plus de travail dans le secteur. Aujourd’hui, Sama ne fait plus que de l’entraînement d’IA et de l’annotation de données pour des géants comme Microsoft, Google ou Wallmart.
Comment vous êtes-vous retrouvée à travailler chez Sama, à quoi cela ressemblait ?
Je suis nigériane, mais je suis allée au Kenya pour passer mon master en 2018, et entamer un doctorat en psychologie clinique. Pour payer mes études, j’ai commencé à faire de la modération de contenu Facebook chez Sama. L’entreprise aime recruter des jeunes diplômés qui peinent à trouver du travail ou des étudiants. Il y avait des travailleurs de plein de nationalités : du Nigeria, d’Afrique du Sud, de Somalie, du Rwanda… Il fallait parler plusieurs langues.
Je dirais qu’il y avait plus de 4 000 personnes à travailler dans le même bâtiment pour TikTok, ChatGPT… Mais c’était très cloisonné. De notre côté, nous étions plus de 300 à modérer le contenu pour Facebook et à entraîner l’IA qui signale les contenus problématiques.
En quoi consistait le travail ?
On regardait en boucle du contenu et on devait décider si cela contrevenait ou non aux règles d’utilisation de Facebook. Ce pouvait être des textes, des photos ou des vidéos, que l’IA ou les utilisateurs avaient signalés. Nous disposions de 55 secondes maximum pour décider. Donc, on pouvait regarder entre 1 000 et 2 000 contenus par jour. Autant qu’on pouvait, en fait. Nous recevions des vidéos du monde entier. Je parle l’anglais et le houassa (3e langue du continent la plus parlée – NDLR), mais je devais modérer aussi des images provenant d’Indonésie par exemple.
Quant aux contenus qui nous étaient remontés… En vidéo, j’ai vu beaucoup de suicides, des attaques ou de la propagande terroriste, des violences contre des enfants ou de la pédopornographie. Sous d’autres formes, il y avait aussi pas mal de racolage et des arnaques qu’on devait supprimer. Nous avons aussi vu beaucoup de cyberharcèlement.
Quels effets cela a-t-il eus sur vous ?
C’était vraiment intense. Lorsque nous avons été recrutés, nous ne savions pas que c’était pour faire de la modération. Cela s’est révélé… trop graphique, trop explicite. Ces images, je les voyais tout le temps, elles restaient en moi. Elles ont affecté toute ma vie. J’ai commencé à faire beaucoup de crises de panique, d’angoisse, à cause de ce que je voyais. J’ai vu un homme violer un enfant de 2 ans.
Aujourd’hui encore, je ne dors pas. Ou très mal. Nous avons régulièrement dit à Sama que c’était trop dur, qu’on avait besoin de soutien. Ils ont répondu qu’ils allaient en parler au client, à Facebook. Notre employeur a toujours essayé de reporter la faute sur Facebook, qui ne faisait rien.
Facebook prétend que ces contenus sont majoritairement modérés par des IA…
C’est un mensonge et c’est triste. Nous faisons le gros de ce travail. Mais, comme c’est caché, dans le back-office de Facebook, il est impossible de s’en rendre compte si on n’y a pas accès. On apprend à l’algorithme à repérer les contenus problématiques, mais nous devons les vérifier avant de les supprimer. C’est sûr qu’on se sent invisibilisé. Ce système devrait être expliqué, montré à tout le monde : ces entreprises technologiques font faire le travail ingrat à des travailleurs payés à peine plus d’un dollar de l’heure en Afrique.
On se sent doublement déconsidérés. On gagnait 60 000 shillings kényans (380 euros) par mois. Quand mon collègue, Daniel Motaung, a raconté son histoire au magazine Time, on a fini par être un peu augmentés. Mais l’environnement de travail était toxique, on n’avait aucun soutien, aucun remerciement, aucune considération pour travailler dans de telles conditions. S’ils recrutent des diplômés, c’est que ce travail est important. Il devrait être valorisé, encadré. On devrait être aidés pour le faire.
Est-ce pourquoi vous avez créé un syndicat ?
On a voulu s’organiser très tôt, dès 2018. Mais le projet de syndicat s’est retrouvé brisé, les principaux initiateurs, dont Daniel Motaung, se sont fait ensuite licencier. Il y a eu des intimidations, du harcèlement… Ça nous a fait peur. Mais l’année dernière, Sama nous a annoncé qu’on serait tous licenciés, que la modération des contenus passait à Teleperformance, qu’il n’y avait plus de travail pour nous.
C’est là qu’on a relancé le syndicat et qu’on a pu commencer à raconter à l’extérieur ce qui se passait. Nous étions soumis à un contrat de confidentialité très strict, nous n’avions pas le droit de parler, même pas de nos pathologies. Nous retrouver mis à la porte nous a permis de raconter notre travail et commencer à recevoir du soutien, sans risquer de se faire poursuivre ou arrêter.
Vous avez porté plainte, un procès est annoncé. Où en êtes-vous et que demandez-vous ?
Nous sommes 187 à avoir porté plainte contre Sama, Facebook, et Teleperformance, pour contester les licenciements, et pour que nos souffrances soient reconnues et indemnisées. Le tribunal avait exigé qu’on soit payés le temps que le procès ait lieu, mais Sama et Facebook ont refusé d’obéir. Ils ne veulent pas non plus nous confier de travail. Cela fait onze mois qu’on n’a plus de salaire ni d’assurance-santé.
C’est pour cela que j’ai dû rentrer chez mes parents au Nigeria, avant de pouvoir finir mon doctorat. Le plus urgent pour moi est d’obtenir les moyens de me faire soigner, de bénéficier d’une aide psychologique, je ne pourrai pas reprendre une vie normale sans ça. Nous sommes tous dans la même situation.
Plusieurs anciens collègues ont essayé de se suicider. Certains n’ont plus rien à manger non plus. Nous avons donc besoin de soutien pour tenir jusqu’au procès. On a aussi lancé une cagnotte. Pour l’instant, le tribunal procède à nos évaluations psychologiques. On espère que les audiences commenceront peu après. Mais Facebook fait tout pour gagner du temps.