Ils sont surnommés "les nettoyeurs du net", mais leur poste, officiellement, s'appelle "modérateur". Leur mission est de préserver les réseaux sociaux d'images racistes, pédophiles, illégales ou trop violentes.
Facebook a annoncé la semaine dernière que 1000 personnes seraient embauchées cette année pour cette tâche. Mais ils sont des milliers, partout dans le monde, à exercer ce métier. Et tous les jours, ils visionnent les contenus affichés par les internautes pour décider, souvent en quelques secondes, si les images peuvent être maintenues sur le réseau social ou doivent en être retirées.
Ces travailleurs servent donc, en quelque sorte, de filtres. Ils sont engagés par des sociétés mandatés par Facebook, à savoir des entreprises internationales comme Cognizant, Accenture, Pro Unlimited ou US Tech Solutions, notamment, qui exigent que ces employés signent un accord de confidentialité sur leur mandataire et leurs conditions de travail.
"Le pire d'internet"
Les "nettoyeurs" s'exposent au pire d'internet: images de pédophilie, de torture, de zoophilie. Dernièrement, certains ont décidé de parler de leur expérience et même de porter plainte contre Facebook pour traumatisme psychologique.
"J'ai été placé dans un département spécialisé dans les contenus très explicites, avec beaucoup de violence: du harcèlement sexuel, de la torture, des abus sexuels sur des enfants... et je me suis aussi occupé d'un secteur spécialisé dans les discours haineux", témoignait par exemple l'Américain Shawn Speagle sur la chaîne CNN, en juin. Il y expliquait notamment qu'"une grande partie des contenus violents ne sont pas simplement téléchargés et repris d'autres sites, il s'agit de contenus spécialement réalisés pour être échangés et revendus dans des groupes privés sur Facebook. Une part importante de ces contenus ont trait à des abus sexuels et à de la torture sur animaux".
D'autres "nettoyeurs" ont aussi porté plainte aux Etats-Unis et en Irlande, comme Chris Gray, qui est soutenu par l'organisation non gouvernementale britannique FoxGlove. Lui aussi se dit traumatisé par la brutalité quotidienne à laquelle son travail pour Facebook le soumet, et à laquelle les travailleurs ne sont ni préparés ni accompagnés.
Une grande partie des contenus violents ne sont pas simplement téléchargés et repris d'autres sites, il s'agit de contenus spécialement réalisés pour être échangés et revendus dans des groupes privés sur Facebook.
"Si vous êtes policier chargé d'enquêter sur des cas de pédopornographie au Royaume-Uni, il y a un certain nombre de protections à votre disposition. Votre temps d'exposition à ce genre de contenus est limité et il y a des spécialistes pour vous soutenir psychologiquement", rappelle Cori Crider, fondatrice et directrice de Foxglove. "Les réseaux comme Facebook devraient s'inspirer de ce genre de protection (...). Mais si ces sociétés n'ont rien mis en place, c'est qu'elles ne veulent pas dépenser l'argent nécessaire pour ces mesures", ajoute-t-elle.
"Précarité numérique"
A cette forme de solitude s'ajoute la pression mise sur les modérateurs: par le nombre d'images et vidéos à visionner chaque jour, par la rapidité avec laquelle il faut décider de leur adéquation aux directives toujours changeantes imposées par Facebook.
"Les modérateurs vous disent que lorsqu'ils se réveillent la nuit, ils ne pensent pas seulement aux contenus épouvantables et aux décapitations qu'ils ont vus pendant la journée. Ils ont aussi peur de s'être trompés sur leur décision de retrait ou sur le maintien de ces images, parce que s'ils font 4 ou 5 erreurs par semaine, ils sont virés. Ils ne sont pas traités comme des employés normaux, avec des droits, ils font partie de ce qu'on appelle la précarité numérique", ajoute Cori Crider.
Les "nettoyeurs de Facebook" ne sont pas traités comme des employés normaux, avec des droits, ils font partie de ce qu'on appelle la précarité numérique.
A noter qu'Accenture, société mandatée par Facebook pour modérer les contenus, exige désormais de ses employés qu'ils signent un nouveau document. Celui-ci stipule qu'ils ont pleinement conscience du risque de stress post-traumatique lié à leur emploi... mais il compliquerait tout dépôt de plainte relatif à un mal être psychologique.
Des directives qui changent constamment
Mais pourquoi les directives changent-elles sans arrêt? Parce que Facebook et les autres plateformes numériques essaient de créer une ligne de conduite cohérente. Pourtant, ce projet, même mené en toute bonne foi, peut conduire à des situations aberrantes. En 2016, par exemple, Facebook avait retiré l'image emblématique de la guerre du Vietnam, celle de la "fillette au Napalm", représentant une enfant qui court, nue, les bras, écartés. Les modérateurs avaient appliqué la consigne bannissant la nudité enfantine du réseau. Une consigne avec laquelle, a priori, beaucoup seront d'accord, mais qui a pour conséquence le retrait d'une image historique et informative.
Même dilemme pour la nudité ou les parties génitales, mais cela signifie que l'on ne montre, par exemple, pas de sculpture grecque. Facebook avait d'ailleurs été accusé de censure après avoir retiré le célèbre nu de Gustave Courbet, "L'Origine du Monde", représentant un sexe de femme.
Enorme zone grise
La zone grise est énorme et la plateforme doit donc toujours essayer de contenter les uns et les autres et d'adapter ses directives. Des questions se posent d'ailleurs quant au statut de Facebook, qui sert aussi désormais de média d'information et pourrait, en ce sens, avoir davantage de responsabilités.
Par ailleurs, Facebook reste une plateforme numérique, qui n'est donc légalement pas responsable des contenus affichés. Elle souligne d'ailleurs régulièrement le fait que sa démarche de tri de contenus et de retrait de ceux offensants est volontaire.
Sujet radio: Katja Schaer
Sujet web: Jessica Vial
Twitter va ôter ou étiqueter les contenus "falsifiés" et "nocifs"
Twitter a annoncé mardi se lancer dans la lutte contre les photos et vidéos "falsifiées" dans la foulée des autres réseaux sociaux.
La plateforme entend se concentrer sur les contenus modifiés (montages vidéos ou audio, images éditées) qui visent à tromper le public ou risquent de nuire à des personnes, en incitant à la violence ou en portant atteinte à leur liberté d'expression, par exemple.
Les tweets tombant dans ces catégories seront retirés ou étiquetés avec un avertissement, à partir du mois de mars. Le réseau pourra aussi réduire la visibilité des messages ou ajouter du contexte.
Le CERN abandonne une plateforme de Facebook
Au-delà de la gestion de ses contenus, Facebook pose aussi certaines interrogations quant au partage de données, notamment lorsqu'il est utilisé par des entreprises.
En Suisse, l'Organisation européenne pour la recherche nucléaire (CERN) a décidé de cesser d'utiliser la plateforme Workplace de Facebook. Cet instrument de communication interne était à l'essai depuis 2016. Dans un communiqué daté du 28 janvier, le CERN invoque notamment des raisons de confidentialité et de coûts.
Ce document ajoute que les réactions des utilisateurs au sein du CERN n'ont pas toujours été positives vis-à-vis de Workplace. Nombre d'entre eux ont fait savoir qu'ils préféraient ne pas recourir à l'outil d'une entreprise à laquelle ils ne font pas confiance par rapport à la protection de données à caractère personnel.