14/01/2022 @ 19:40:59: Social - Une modératrice poursuit TikTok pour traumatisme psychologique : "Des heures de séquences violentes non-stop"
Après Facebook, TikTok se retrouve également dans l'œil du cyclone pour la question de la modération des contenus et l'impact psychologique qu'elle a sur les employés contraints de passer au crible des milliers de vidéos, certaines terribles, pour sélectionner celles à publier. La poursuite a été déposée en Californie par Candie Franzier , qui a assuré la modération de contenu pour TikTok via une société tierce, Telus International. Les modérateurs jouent un rôle fondamental pour les réseaux sociaux , car ils sont chargés de visionner les contenus - vidéos et photos, dans le cas de TikTok les vidéos - qui sont postés quotidiennement et d'établir s'ils sont conformes à la politique de publication de l'entreprise. . De nombreuses entreprises font appel aux conseils d'entreprises extérieures, qui sont « sous-traitées » pour diverses tâches, dont celle de la modération, et Franzier a travaillé pour l'une de ces entreprises.
La femme a porté plainte contre TikTok et le géant chinois auquel elle appartient, Bytedance , affirmant qu'elle travaillait comme animatrice 12 heures par jour, avec des pauses d'environ 15 minutes chacune, et qu'elle était forcée de voir toutes sortes de contenus . horreur et brutalité : fusillades, décapitations, viols, violences sur mineurs et animaux, mutilations, "des milliers d'actes de violence extrême et explicite" générés en flux continu. Des scènes glaçantes qu'elle devait forcément regarder pour le travail et qui lui ont causé de très graves dommages psychologiques, des cauchemars, des crises de panique et un état d'anxiété pérenne : tous les symptômes du trouble de stress post-traumatique .
Les vidéos sont également restées obligatoirement à l'écran pendant 25 secondes , un temps établi pour permettre au modérateur de comprendre de quel genre elles étaient et si elles contenaient des scènes qui violent les conditions d'utilisation du service (et aussi la loi, compte tenu du contenu) et ont également été projetées en simultané, jusqu'à 10 vidéos en même temps, pour optimiser les temps. Frazier a rapporté dans la plainte qu'en plus d'être obligé de les regarder, un système de surveillance des modérateurs surveillait la vitesse et le temps passé sur chaque vidéo, la publiant et la réprimandant au cas où elle prendrait des pauses non autorisées . Les avocats de Frazier ont souligné que la femme ne bénéficiait d'aucune protection communément reconnue aux travailleurs du secteur, notamment un soutien psychologique, des pauses plus fréquentes et plus longues et la possibilité de brouiller les vidéos les plus violentes : un protocole ad hoc que les géants sociaux ont commencé à adopter. précisément à la lumière des conséquences psychologiques auxquelles les modérateurs peuvent être confrontés dans l'exercice de leur travail de surveillance et de censure des contenus violents. Facebook , par exemple, propose une période de formation spécifique et une assistance psychologique directe pour les aider à faire face à l'impact que les vidéos et les photos peuvent avoir sur le travailleur.
Dans la plainte, les avocats de Franzier soutiennent que TikTok n'a pas averti la femme que la visualisation de tels messages "peut avoir un impact négatif important sur la santé mentale" et qu'il n'a pas mis en œuvre les mesures prévues pour protéger les employés. La demande d'emploi de Telus International pour modérateur de contenu, disponible en ligne, explique en outre que les messages qui doivent être supervisés "peuvent inclure du contenu explicite, violent, explicite, politique, profane et dérangeant ". Parmi les prérequis pour postuler au poste figurent « des compétences en gestion du stress et des émotions », et un porte-parole de l'entreprise (qui n'est pas un prévenu dans la poursuite) a assuré qu'il existe un programme ad hoc pour les animateurs qui travaillent pour eux ». Frazier n'a jamais soulevé ces préoccupations concernant son environnement de travail et ses allégations sont totalement incompatibles avec nos politiques et pratiques", a déclaré le porte-parole de l'entreprise dans un communiqué.
TikTok, de son côté, n'a pas souhaité commenter officiellement l'affaire, mais a déclaré se soucier du bien-être des employés et de la qualité de l' environnement de travail , même pour les contractuels. "Notre équipe de sécurité travaille avec des sociétés tierces pour aider à protéger la plate-forme et la communauté TikTok, et nous continuons à élargir une gamme de services de bien-être afin que les modérateurs se sentent soutenus mentalement et émotionnellement", a déclaré la société dans une note. En 2020, Facebook a accepté de verser 52 millions de dollars de dédommagement aux modérateurs qui ont intenté une action en justice pour les conséquences psychologiques du visionnage de contenus violents - encore une fois, le SSPT a été cité.