Tech & internet

Grâce à eux, pas photos de pénis, de vagins ou de décapitations sur votre page Facebook

Repéré par Vincent Manilève, mis à jour le 23.10.2014 à 19 h 02

Repéré sur WIRED, Le Monde

Ils sont des dizaines de milliers à Manille, aux Philippines, à nettoyer les réseaux sociaux. Dans des conditions de travail souvent difficiles.

L'Origine du monde, par Gustave Courbet Wikimedia CC, floutée par Slate

L'Origine du monde, par Gustave Courbet Wikimedia CC, floutée par Slate

Le magazine Wired est parti à la rencontre des modérateurs de réseaux sociaux, ces personnes engagées par des entreprises américaines comme Facebook, Twitter pour effacer tout contenu nocif ou illégal.

Une image pornographique ouverte en grand sur son ordinateur? Pas de problème pour Michael Baybayan, une jeune Manillais de 21 ans, c'est son métier. Ils sont des dizaines de milliers de Philippins à traquer tout contenu illicite publié par les internautes pour de grosses sociétés américaines de réseaux sociaux. 

Le principal avantage de cette délocalisation est évidemment financier. Ryan Cardeno, qui par le passé a travaillé pour Microsoft dans le pays pour 500 dollars par mois, s’est vu offrir 312 dollars pour modérer les contenus de Facebook.

Si, dans une majorité de sites, les contenus censurés le sont à la suite d'une signalisation de la part d’usagers, une application comme Whisper, récemment mise en cause par le Guardian dans une affaire de collection de données GPS, laisse les gens poster leurs confessions «anonymement» et trie le contenu en temps réel. Laissant la porte ouverte à des contenus sexuels parfois très dérangeants:

«J’ai couché avec mon beau-père pour le faire chanter et avoir une voiture.»

Début octobre, comme l’expliquait Le Monde, Facebook a un peu levé le pied sur sa politique de censure. En effet, par le passé, la charte du site avait fait polémique. Comment expliquer que Facebook ait un temps refusé de censurer des images et des messages appelant à la violence contre les femmes alors qu’elle dépubliait une image reproduisant la peinture L’Origine du monde, de Gustave Courbet, assimilée à de la pornographie.

«Toutes les actions de modération sont donc effectuées après qu’un contenu (statut, commentaire, photo, vidéo, etc.) a été signalé par un utilisateur de Facebook –grâce aux boutons ad hoc», expliquait alors le journal.

Mais au-delà d’images pornographiques, les modérateurs doivent affronter des vidéos d’une violence rare: combats de rue, torture d’animaux, attentats suicides, accidents de la route... L’une d’entre elles a fait démissionner Jake Swearingen, un Américain qui travaillait comme modérateur en Californie, lorsqu’il tomba sur une vidéo de décapitation, il y a huit ans:

«Je ne voulais pas commencer à être blasé de regarder ces choses horribles et commencer à devenir ironique ou blagueur à propos de ces vidéos.»

Beaucoup de modérations sont encore faites aux Etats-Unis, par des jeunes à peine sortis de la fac et qui, pour beaucoup, craqueront au bout de quelques mois. «Rob», ancien employé de YouTube, a réalisé qu’il s’habituait peu à peu à ces vidéos, qu’elles lui donnaient «une vision bien plus sombre de l’humanité».

A tel point qu'une assistance psychologique est parfois nécessaire. Car même les agents du National Crime Squad, le FBI britanniques, chargés de détecter les contenus pédophiles sur Internet, ont eu du mal à gérer les images qui défilaient quotidiennement sur leurs écrans. «C’est comme un trouble post-traumatique», explique «Denise», une psychologue philippine, «il y a une trace qui reste inscrite dans leur mémoire».

«Tout le monde finit par se prendre un mur, généralement entre 3 et 5 mois après avoir commencé, ajoute Rob. Vous vous dites: "Bordel, je passe mes journées à ça, c’est horrible."»

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte