Un modérateur de contenu de TikTok allègue dans un procès que ce travail lui a causé le SSPT


Un modérateur de contenu TikTok poursuit le géant des médias sociaux et sa société mère, alléguant qu’elle souffre d’un «traumatisme psychologique» parce qu’ils n’ont pas mis en œuvre les mesures de sécurité standard dans l’industrie.

Candie Frazier, un entrepreneur employé par une autre société appelée Telus International, examine les publications TikTok offensantes, qui sont signalées par les utilisateurs et modifiées ou supprimées si des modérateurs comme Frazier déterminent qu’ils violent les conditions d’utilisation de l’entreprise.

Son avocat, Steve Williams, a déclaré à NBC News que son client voyait « des choses horribles sans arrêt ». Le recours collectif a été déposé jeudi devant le tribunal de district des États-Unis pour le district central de Californie.

La poursuite a déclaré qu’elle était exposée à des messages qui incluent « des abus sexuels sur des enfants, des viols, de la torture, de la bestialité, des décapitations, des suicides et des meurtres ». Elle est également soumise à des théories du complot, à des distorsions de faits historiques et à de la désinformation politique, selon le procès.

Le procès de Frazier a déclaré qu’elle souffrait de trouble de stress post-traumatique «à la suite d’une exposition constante et non atténuée à des images hautement toxiques et extrêmement dérangeantes sur le lieu de travail».

La poursuite alléguait que TikTok n’avait pas averti Frazier que la visualisation de ces messages « peut avoir un impact négatif important sur la santé mentale des modérateurs de contenu ».

Mais une description de poste de Telus International pour un modérateur de contenu, qui est actuellement disponible en ligne, indique que les messages « peuvent inclure du contenu graphique, violent, explicite, politique, profane et autrement dérangeant ».

La description de poste énumère « les bonnes compétences d’adaptation, de régulation des émotions et de gestion du stress » comme une exigence. Il n’est pas clair si cette description de poste était disponible lorsque Frazier a postulé pour le poste.

Un porte-parole de Telus International, qui n’est pas répertorié comme défendeur dans le procès, a déclaré que l’entreprise avait « un solide programme de résilience et de santé mentale en place pour soutenir tous les membres de notre équipe, ainsi qu’un programme complet d’avantages sociaux pour l’accès à la santé personnelle. et services de bien-être. »

Le porte-parole a également déclaré que « les membres de l’équipe peuvent soulever des questions et des préoccupations concernant n’importe quel aspect de leur travail via plusieurs canaux internes ».

Frazier « n’a jamais soulevé ces inquiétudes concernant son environnement de travail et ses allégations sont tout à fait incompatibles avec nos politiques et pratiques », a ajouté le porte-parole dans un communiqué.

La poursuite alléguait que les modérateurs de contenu travaillant pour TikTok et sa société mère, ByteDance, couraient un plus grand risque de souffrir de SSPT parce que les entreprises n’avaient pas mis en œuvre des «mesures de sécurité au travail».

« L’affirmation est de dire : « Je veux faire mon travail ; Je veux juste faire mon travail avec des protections appropriées », a déclaré Williams. « Comme tout autre travail dangereux. »

Bien qu’il ait reconnu que les mesures de sécurité ne sont pas requises par la législation, le procès a déclaré qu’il existe des «normes reconnues par l’industrie».

Les protocoles suivis par d’autres entreprises et groupes à but non lucratif incluent la limitation de la durée des quarts de travail des modérateurs de contenu à quatre heures. Frazier travaille pendant 12 heures, avec deux pauses de 15 minutes et une heure pour le déjeuner, a indiqué la poursuite.

La Technology Coalition, dont ByteDance est membre, recommande également que les modérateurs de contenu reçoivent des conseils et soient autorisés à refuser de visionner des images d’abus sexuels sur des enfants.

La coalition – qui comprend également Facebook, YouTube, Snap Inc. et Google – déclare que les entreprises « doivent soutenir les employés qui sont en première ligne de cette bataille », selon la poursuite.

Le Centre national pour les enfants disparus et exploités encourage également les entreprises à atténuer les effets des images perturbatrices auxquelles les employés sont soumis en les affichant en noir et blanc, en brouillant des parties de la vidéo, en montrant la vidéo dans une résolution plus petite et en mettant la vidéo en sourdine, le costume dit.

Mais « ByteDance et TikTok n’ont pas réussi à mettre en œuvre les normes suggérées par la Technology Coalition, bien qu’étant membre », selon le procès.

Un porte-parole de TikTok a déclaré à NBC News que la société ne commentait pas les litiges en cours, mais avait déclaré « nous nous efforçons de promouvoir un environnement de travail attentionné pour nos employés et nos sous-traitants ».

« Notre équipe de sécurité s’associe à des entreprises tierces pour le travail essentiel consistant à aider à protéger la plate-forme et la communauté TikTok, et nous continuons à développer une gamme de services de bien-être afin que les modérateurs se sentent soutenus mentalement et émotionnellement », a écrit le porte-parole dans un communiqué. .

Le porte-parole a partagé une page décrivant les efforts de TikTok pour assurer la sécurité des utilisateurs.

Laisser un commentaire