Tech & internet

Les obscurs secrets des règles de modération de Facebook

Temps de lecture : 6 min

Sexe, violence, discours de haine... certains messages sont supprimés, d'autres non. Voilà pourquoi.

Concernant la nudité par exemple, il y a une règle de base... | geralt via Pixabay License by
Concernant la nudité par exemple, il y a une règle de base... | geralt via Pixabay License by

Critiqué pour son manque de transparence, Facebook l’est aussi pour ses choix de modération. En mars dernier, Marzuki Darusman, travaillant auprès de l’ONU dans le cadre d’une mission d’information sur les droits humains, a directement accusé le réseau social d’avoir joué un «rôle déterminant» dans la propagation des messages de haine contre les Rohingyas, groupe ethnique musulman de Birmanie. Très utilisé dans ce pays (plus de 30 millions d’utilisateurs pour 53 millions d’habitants), le réseau social était devenu un véritable déversoir islamophobe.

Quelques mois plus tôt, le YouTubeur Paul Logan provoquait un tollé en se filmant aux côtés d’un cadavre en plein cœur de la célèbre «forêt des suicidés» japonaise. Vue plusieurs millions de fois avant d’être effacée par son auteur, la vidéo n’avait pas été retirée par YouTube. Pour une intelligence artificielle, la présence d’un cadavre dans un tel lieu n’avait rien d’aberrant. La décence, notion uniquement perceptible par un être humain, en aurait pourtant décidé autrement.

Où commence la censure et où s’arrête la modération? L’artiste américaine Illma Gore a une idée sur la question. Elle a vu son compte Facebook être brutalement supprimé, à cause de son portrait de Donald Trump affublé d’un micro-pénis, une image devenue virale depuis. En France, on se rappelle l’émoi suscité en 2011 par la censure de L’origine du monde de Gustave Courbet sur le réseau social.

Au Musée d'Orsay, oui. Sur Facebook, non. | Carroy via Wikimedia Commons License by

Dans la majorité des publications incriminées, il s’agit d’évaluer un contexte. C’est ce que révélaient en 2016 et en 2017 le Süddeutsche Zeitung et The Guardian en rendant publiques les instructions de «content moderation» chez Facebook. Concernant la nudité par exemple, la règle de base est la suivante: si c’est «fait à la main» [«handmade», ndlr], c’est autorisé, si c’est numérique, il y a de fortes chances que ce soit jugé pornographique.

Les messages de haine et commentaires injurieux sont traités selon une équation somme toute assez sommaire: «Protected category + attack = hate speech». Si la personne attaquée fait partie d’une catégorie protégée, la publication est classée comme discours de haine. Font partie de ces catégories toutes les orientations sexuelles, les communautés de croyants, les origines ethniques ou les nationalités. Par exemple, si on peut critiquer n’importe quelle religion, on n’a pas le droit de s’en prendre à ses croyants: «Le catholicisme/l’islam/le bouddhisme, c’est de la merde» sera ok, «Les catholiques/les musulmans/les bouddhistes sont des cons» ne passera pas.

Dans le document publié par le Süddeutsche Zeitung, certains exemples ne manquent pas de saveur. Ainsi, s’il vous est interdit d’écrire «Les Français sont tous des alcooliques», vous pouvez sans complexe écrire: «Ne faites pas confiance aux garçons qui vous disent qu’ils vous aiment» ou «Les grandes tiges, c’est juste trop chelou», parce que ni «garçon», ni «filles» n’appartiennent à une catégorie protégée. Les émigrés et les réfugiés font eux l’objet d’une «quasi-protection»: «Dehors, les demandeurs d’asile» est autorisé, «les émigrés sont crades», non. Même tarif pour le jeu de mots nauséabond «rape-fugees».

Vers un début de transparence...

On voit combien, lorsqu’il s’agit de juger d’un contexte ou d’une intention, la modération s’avère un art subtil. S’il est interdit d’insulter une orientation sexuelle, un «Les gens me prennent pour une diva, je suis trop une tapette» ne pose pas problème, car le message est jugé ironique. Pareillement, une menace «générique ou peu crédible» comme «Va t’faire foutre, j’espère que tu t’feras buter» ne sera pas supprimée.

Plus étonnant, «frapper un roux» est admis quand «buter Trump» ne l’est pas, car en tant que chef d’État, il fait partie d’une catégorie protégée. En termes de harcèlement, toutes les associations avec des excréments, du vomi ou de l’urine sont censurées, sauf si vous êtes…une célébrité. Au-delà de 100.000 followers, vous serez ainsi considéré comme une figure publique et ne ferez plus partie de la catégorie des gens «lambda».

Autre sujet délicat: les publications relatives aux violences faites aux animaux ne sont tolérées que si elles servent à les dénoncer. De même, les vidéos mettant en scène des mutilations, menaces de suicides ou de brutalité, peuvent être autorisées si elles remplissent une fonction d’alerte ou de dénonciation. Ainsi, en 2011, l’Américaine Hillary Adams a fait condamner son père pour maltraitance après l’avoir filmé sept ans plus tôt, au cours d’une de ses rituelles et violentes «corrections». Postée sur YouTube, la vidéo a servi au procès.

«Quelqu’un poste une vidéo particulièrement violente d’une attaque terroriste. Est-ce que cela va créer des émules ou encourager les gens à dénoncer de tels actes?»

Après avoir sciemment maintenu dans l’opacité la question de leur politique de modération, les géants du web sortent peu à peu de leur silence. Dans les colonnes du Guardian, en mai 2017, Monika Bickert, directrice de la politique des contenus chez Facebook, apporte un éclairage sur les «standards de la communauté» rendus publics depuis avril dernier et consultables par chacun depuis son compte Facebook. Rappelant la masse considérable de données à traiter quotidiennement, elle confie que le plus difficile reste leur mise en contexte:

«C’est difficile de juger de l’intention d’une publication ou du risque induit par une autre. Quelqu’un poste une vidéo particulièrement violente d’une attaque terroriste. Est-ce que cela va créer des émules ou encourager les gens à dénoncer de tels actes?» Quant à la question de la transparence, Monika Bickert apporte une réponse quelque peu surprenante: si Facebook fait si peu publicité de ses directives de modération c’est «pour ne pas encourager les gens à trouver des subterfuges».

Elle insiste, les standards de la communauté n’ont nullement vocation à être immuables: «Nos critères évoluent en même temps que notre communauté grandit et que les questions sociales à travers le monde évoluent. Nous sommes en dialogue constant avec des experts et des organisations locales, pour parler de tout, depuis la sécurité des enfants au terrorisme, en passant par les droits humains». Si elle reconnaît les manquements du système de modération actuel, Monika Bickert rappelle que la situation est inédite dans l’histoire du web, il faut bien essuyer les plâtres en quelque sorte et «pour l’instant Facebook n’a pas la technologie capable de faire une analyse contextuelle». Pour pallier ce problème, l’entreprise a annoncé l’embauche de 3.000 nouveaux «content moderators» dans les années à venir.

Gardiens du web ou nouveaux précaires?

Aujourd’hui, une partie de la modération passe par de l’intelligence artificielle notamment pour les spams qui, chez Facebook, sont modérés automatiquement. Mais en attendant qu’une telle technique soit capable de comprendre l’humour acerbe, la blague de mauvais goût, la parodie ou l’art du nu photographique, le rôle des modérateurs en chair et en os a de beaux jours devant lui.

Peu considéré, harassant et sous-payé, leur travail n’en reste pas moins primordial. Comme l’écrit la chercheuse Sarah T. Roberts dans l'article «Commercial Content Moderation: Digital Laborers’ Dirty Work»: la modération de contenu ne constitue pas une «entreprise per se» [en soi] puisque «ces travailleurs sont dispersés aux quatre coins de la planète». Ceux qu’elle appelle des «digital gatekeepers» [contrôleurs numériques] jouent un rôle significatif dans l’identité d’un site: «Ils sélectionnent ou conservent, ils sont les arbitres de ce qui viole le bon goût, les règles ou les normes socioculturelles et ce qui peut être gardé sur un site». Pour elle, il serait temps de poser «ces questions éthiques de ce qui est universellement tolérable ou non sur l’espace du web».

Aujourd’hui, on chiffre à environ un peu plus de 100.000 le nombre de modérateurs et modératrices de contenu dans le monde, et si la lumière se fait progressivement sur le travail, celui-ci reste encore largement méconnu. Une réalité qui fait étrangement écho à l’analyse de Sarah T. Roberts, lorsqu’elle écrit: «La marque d’un bon modérateur, c’est l’invisibilité d’un travailleur qui ne laisse aucune trace derrière lui».

Prochain épisode: les coulisses d'Arvato, prestataire de services pour Facebook à Berlin, où le silence est d'or.

Opération net propre
Dans les coulisses du plus grand dépotoir au monde de déchets numériques

Épisode 1

Dans les coulisses du plus grand dépotoir au monde de déchets numériques

Pendant deux ans, il a nettoyé Facebook

Épisode 3

Pendant deux ans, il a nettoyé Facebook

Newsletters

Êtes-vous «l'enfant mot de passe»?

Êtes-vous «l'enfant mot de passe»?

Un test lancé sur TikTok montrerait qui est le préféré de la fratrie aux yeux des parents.

Santé mentale: attention à l'autodiagnostic sur les réseaux sociaux

Santé mentale: attention à l'autodiagnostic sur les réseaux sociaux

La démarche présente certains risques et n'empêche surtout pas de consulter.

Panique bancaire: la faute aux réseaux sociaux?

Panique bancaire: la faute aux réseaux sociaux?

La crise de confiance et la viralité des réseaux expliquent les récentes secousses bancaires.

Podcasts Grands Formats Séries
Slate Studio