Tech & internet

Laisser passer ou censurer? Le Guardian publie des directives de modération de Facebook

Repéré par Grégor Brandy, mis à jour le 22.05.2017 à 14 h 03

Repéré sur The Guardian, The Verge

Le site britannique a révélé le contenu de documents internes qui détaillent, pour les modérateurs de Facebook, ce qui est acceptable ou non.

Facebook | HAMZA BUTT via Flickr CC License by

Facebook | HAMZA BUTT via Flickr CC License by

Comment gérer des publications à caractères haineuses, terroristes, pornographiques ou dangereuses lorsque l'on est modérateur chez Facebook? Dans certains cas, comme les abus sur des enfants, ou le terrorisme, des systèmes automatisés suppriment le contenu automatiquement. Pour le reste, cela tombe entre les mains de modérateurs. Pour eux, c'est un immense casse-tête en perspective, car ils sont là pour déterminer ce qu'ils doivent laisser ou non. Le Guardian semble tenir une partie de la réponse: le site britannique a pu consulter une centaine de manuels d'instruction, documents et infographies, et a publié un dossier complet sur le sujet.

«Ils montrent les difficultés auxquelles font face les dirigeants de Facebook qui tâtonnent pour réagir à de nouveaux défis comme le “revenge porn” –et les défis auxquels font face les modérateurs, qui indiquent être submergés par le volume de travail, ce qui explique qu'ils n'ont souvent “que dix secondes” pour prendre une décision.»

De nombreux modérateurs sont inquiets, souligne le Guardian, à propos de l'incohérence «et de la nature de certaines des politiques. Les contenus à caractère sexuel, par exemple, font partie des plus complexes et troublants».

Il y aura «toujours des zones d'ombre»

En ce qui concerne la violence, indique The Verge, les consignes de Facebook demandent aux modérateurs de faire la différence entre les utilisateurs qui passent leurs nerfs sur le réseau social, et ceux qui sont vraiment en train de menacer quelqu'un «en pointant vers différents exemples de publications contenant des menaces spécifiques, des moments particuliers, et des méthodes qui doivent recevoir la priorité par rapport aux autres».

«Il y a cependant d'importantes zones d'ombre. Les directives du site indiquent que les “photos et vidéos documentant la maltraitance d'animaux” sont autorisées à des fins de sensibilisation. Si le site ne traite pas les images de maltraitance infantile, les vidéos sont, elles, marquées comme “dérangeantes”. Les publications d'utilisateurs qui tentent de se faire du mal sont également autorisées, parce que Facebook “ne veut pas censurer ou punir des personnes en détresse qui tentent de se suicider”.»

Contacté par le Guardian, Monika Bickert, directrice de la politique des contenus de Facebook, explique qu'avec deux milliards d'utilisateurs, représentant des cultures bien différentes, il est compliqué de parvenir à un consensus pour savoir ce que l'on peut autoriser ou non, et que par conséquence, il y aura «toujours des zones d'ombre». Facebook a également réagi officiellement à cette publication –toujours par la voix de Monika Bickert– avec ce communiqué.

«Notre priorité est de garantir la sécurité des personnes sur Facebook. Nous travaillons sans relâche pour que Facebook soit le plus sûr possible, tout en garantissant la liberté d’expression. Cela requiert beaucoup de réflexion autour de questions pointues et difficiles, et nous prenons très au sérieux le fait de le faire correctement. Mark Zuckerberg a récemment annoncé que nous allons ajouter 3.000 personnes à nos équipes de modération –qui s'ajoutent aux 4.500 personnes qui composent cette équipe aujourd’hui– pour examiner les millions de signalements que nous recevons chaque semaine, et pour améliorer le mode opératoire pour agir le plus rapidement possible. En complément du renforcement de nos équipes, nous sommes également en train de construire de meilleurs outils pour garantir la sécurité de notre communauté. Nous allons simplifier le signalement des problèmes, accélérer la réponse de nos équipes sur les publications qui ne respectent pas nos standards et faciliter le contact avec les autorités si quelqu’un a besoin d’aide.»

Pour tenter le coup et savoir ce que les modérateurs doivent garder ou censurer, vous pouvez essayer de répondre aux questions de ce quiz bien plus difficile qu'il n'y paraît.

Facebook a récemment annoncé qu'il allait embaucher 3.000 nouveaux modérateurs. Des censures aux absences d'actions (ou trop tardives), le site est régulièrement critiqué pour sa modération.

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte