50 nuances d’atrocités – dans les coulisses de la modération Facebook
Être payé 15 $ de l’heure pour regarder des têtes se faire trancher toute la journée, minute après minute… voilà à quoi ressemble le travail de modérateur de contenu Facebook. Ça vous dit?
30 mai 2017
Il n’y avait littéralement rien de plaisant dans ce travail. Tu te rends au boulot à 9 h chaque matin, t’ouvres ton ordinateur et tu regardes une personne se faire trancher la tête. Chaque jour, chaque minute, c’est ce que tu regardes. Des têtes qui se font trancher…»
C’est ainsi qu’un ancien modérateur anonyme a décrit son métier au journal The Guardian dans le cadre d’une série d’articles-chocs («The Facebook files») portant sur le géant de la Silicon Valley.
À la lumière de l’enquête, on découvre que les 4 500 modérateurs actuellement à l’emploi de Facebook oeuvrent dans des conditions extrêmes. Pour la plupart engagés à forfait dans des firmes externes, ils sont plongés dans le feu de l’action après deux semaines d’entraînement, avec comme tâche de décider du sort du contenu signalé par des utilisateurs ou capté par l’algorithme de Facebook.
Le flot d’injures, de menaces et d’atrocités en tout genre est si élevé que les modérateurs n’ont qu’une dizaine de secondes à accorder à chaque demande, raconte une source anonyme. Tout y passe: décapitations, menaces terroristes, chantage et extorsion pornographique, violence infantile, négation de l’holocauste, cannibalisme…
Pour compliquer l’affaire, Facebook a mis sur pied un guide destiné aux modérateurs qui est à la fois précis dans ses exemples, mais qui ouvre la porte à la libre interprétation.
Voici quelques exemples tirés de l’article du Guardian:
Les vidéos de mort violente doivent être identifiées comme perturbantes, mais ne sont pas systématiquement retirées, car elles peuvent servir à sensibiliser les gens sur les enjeux de maladie mentale.»
Les photos non sexuelles de mauvais traitement ou d’intimidation peuvent demeurer en ligne, si elles ne contiennent pas d’éléments de célébration.»
Facebook permet aux gens de se faire du mal en direct, car ils ne veulent pas censurer ou punir les gens en crise.»
Ultimement, les modérateurs peuvent décider d’identifier le contenu comme «perturbant», d’envoyer un avertissement à l’auteur, de suspendre temporairement le compte de l’auteur, de retirer le contenu ou de le porter à l’attention de l’équipe interne de Facebook.
Des images traumatisantes
La conséquence prévisible sur le personnel:
Chaque jour des gens devaient visiter le psychologue, dit l’ancien modérateur. Certains ne pouvaient plus dormir ou faisaient des cauchemars.»
Pourtant, Facebook se défend de laisser ses modérateurs sans ressources:
Nous reconnaissons que ce travail peut souvent être difficile, ont-ils déclaré au Guardian. C’est pourquoi chaque personne affectée à la révision du contenu Facebook se voit offrir un soutien psychologique et des ressources bien-être. Nous avons travaillé avec des psychologues pour mettre sur pied un programme qui est spécifiquement conçu pour ces rôles. Le programme inclut de la consultation, un entraînement à la résilience et des programmes de soutien.»
Le problème, rétorque l’ancien modérateur anonyme, c’est que ces programmes sont accessibles sur une base volontaire. Et comme la majorité des modérateurs sont embauchés à l’externe, peu s’en prémunissent.
De la violence plein les brasÂ
Au-delà de la nature traumatisante du contenu, il y a le volume qui est problématique. Prenons la seule menace terroriste, Facebook a détecté pas moins de 1 300 menaces «crédibles» en août passé.
Accusé de ne pas en faire assez pour filtrer son contenu, le géant de la Silicon Valley a annoncé au début mai qu’il ajouterait 3 000 nouveaux modérateurs à sa brigade de 4 500 déjà en fonction.
Tenté par l’aventure?
La formation en lien avec le sujet:
Gestion de communauté: Facebook Entreprise