/news/techno

Médias sociaux

Une ancienne modératrice de Facebook désensibilisée face aux contenus difficiles

TVA Nouvelles

BillionPhotos.com - stock.adobe.com

BillionPhotos.com - stock.adobe.com

Une ancienne modératrice qui a travaillé pour Facebook a raconté à quel point cet emploi, qui la forçait à voir du contenu extrêmement difficile, l’a complètement désensibilisée.

Sarah Katz a été «vérificatrice de contenu» pour un sous-traitant de Facebook, Vertisystem, pendant huit mois en 2016.

En entrevue au site Business Insider, elle a raconté son quotidien, ses journées pendant lesquelles elle devait déterminer si oui ou non des publications respectaient les «standards» de la communauté.

Elle a donc dû voir des milliers d’images difficiles. Une nouvelle publication apparaissait toutes les 10 secondes, et elle devait décider si elles devaient être effacées.

Plus de 8 000 publications par jour devaient être vérifiées.

Des milliers de modérateurs

Le réseau social de Mark Zuckerberg embauche plus de 4500 modérateurs, et prévoit en engager plus de 3000 en 2018.

Dans un rapport rendu public en mai dernier, la compagnie a dévoilé avoir dû supprimer 21 millions de publications contenant de la nudité et des actes sexuels, et 3,4 millions de publications contenant de la violence explicite, et ce, dans les trois premiers mois seulement de 2018.

Des millions de messages à caractère haineux, du spam et des publications liées au terrorisme ont également été retirés.

Ceux qui sont responsables d’effacer publications doivent signer un document dans lequel ils se disent d’accord pour visionner du contenu difficile. Ce document protège Facebook de toutes poursuites d’anciens employés ou sous-traitants.

«Facebook a des milliards d'utilisateurs et les gens ne savent pas comment utiliser la plate-forme correctement. Il y avait donc beaucoup de pornographie, de la bestialité, de la violence graphique», a expliqué l’ancienne employée à Business Insider.

«C'est un peu monotone au bout d'un moment, vous êtes définitivement désensibilisé à certains éléments graphiques parce que vous voyez tellement de choses, beaucoup», a-t-elle ajouté.

Photo sinistre

L’employée a souligné que des photos et vidéos très dérangeantes revenaient constamment.

La vidéo de deux enfants, âgés de neuf à douze ans, l’a particulièrement dérangée.

Les deux se tenaient face à face, ne portant rien sous la taille et se touchant l'un l'autre. Il était clair, selon la modératrice, qu'il y avait quelqu'un derrière la caméra qui leur disait quoi faire.

«Le message disparaissait et revenait, il apparaissait à plusieurs moments de la journée, chaque fois l'emplacement de l'utilisateur était différent. Un jour il était partagé au Pakistan, un autre jour aux États-Unis, il est difficile de retrouver la source initiale», elle a expliqué.

Les comptes qui partageaient ce type de contenu n’étaient toutefois pas rapportés aux autorités.

«Si le compte de l'utilisateur datait de moins de 30 jours, nous désactivions le compte en tant que faux compte si le compte était plus ancien que 30 jours, nous supprimions simplement le contenu et laissions le compte actif», a conclut l’ex-employée.