Tech & internet

Le chemin de croix des humoristes 2.0 sur Facebook

Temps de lecture : 7 min

Face à l'explosion des pages de mèmes, nombre de personnes qui créent du contenu subissent une politique de modération stricte de la plateforme.

L'humour de la page «Complots faciles pour briller en société» semble rester obscur pour la modération automatique de Facebook comme pour celui de ses petites mains. | via Facebook
L'humour de la page «Complots faciles pour briller en société» semble rester obscur pour la modération automatique de Facebook comme pour celui de ses petites mains. | via Facebook

Les réseaux sociaux sont impitoyables. Début février, un activiste russe dévoile des vidéos à caractère sexuel d'un responsable politique sur un site créé spécialement pour l'occasion, pornopolitique. Le virus est lancé. Après dix jours d'incubation dans les limbes de l'internet, la bombe explose, relayée par quelques gros comptes Twitter. En 24 heures, le lien vers la vidéo porno circule sur toutes les plateformes et Benjamin Griveaux se retire de la campagne des municipales à Paris. Plus qu'une attaque en dessous de la ceinture, ce revenge porn a montré que malgré les règles très puritaines, notamment de Facebook, un contenu sexuellement explicite est devenu viral. Preuve que les mailles du filet peuvent être encore lâches. Pour certain·es seulement.

En 2015, Dimitri Halby lance ses «Complots faciles pour briller en société», une page parodique qui tord le cou aux idées simplistes et conspirationnistes: «J'en avais marre d'argumenter avec ces gens-là donc j'ai décidé de les troller pour m'amuser. L'humour est pour moi l'arme absolue et permet d'éviter de s'embarquer dans des conversations sans fin», développe ce musicien et ingénieur originaire de Normandie.

La mayonnaise prend rapidement. Aujourd'hui, ses publications sont suivies quotidiennement par plus de 600.000 personnes sur Facebook et 245.000 sur Twitter. Un travail quotidien qui lui demande trois à quatre heures par jour.

Cachez ce second degré que je ne saurais voir

Pour les internautes ayant un minimum de recul, la portée humoristique est évidente. Mais pas pour Facebook. La mention «La publication de votre page risque d'être annulée» surlignée en rouge trône dans l'onglet qualité de la page pour «infractions continues à nos standards de la communauté».

En guise d'exemple, un post établissant un lien entre la (prétendue) naissance de Chuck Norris, le 6 mai 1945, et la chute du IIIe Reich (le 8 mai). Pas vraiment une apologie du nazisme. Mais suffisamment provocateur pour que le montage soit supprimé de la plateforme.

Un sosie d'Hitler dans un métro; Gilbert Montagné grimé en agent de piste devant le World Trade Center en flamme, autant de publications clouées au pilori par les algos pour «non-respect des standards de la communauté». Et difficile de trouver un interlocuteur pour se justifier. «La relation avec Facebook lorsque la page est menacée est simplement inexistante, je n'ai jamais eu aucun interlocuteur à qui expliquer l'humour derrière la publication, son but et pourquoi elle ne va justement pas à l'encontre des règles Facebook», témoigne Dimitri Halby. Contacté, Facebook France nous a confirmé l'existence d'une procédure d'appel: «Le contenu en question [est] adressé à un modérateur pour une seconde revue. S'il s'avère que le contenu respecte les règles internes, le contenu sera republié automatiquement.» Cela n'est arrivé qu'une fois pour Dimitri, sur une page annexe ayant une faible audience.

En matière de modération, la création de Zuckerberg semble être encore très premier degré. Comme au collège, la plateforme punit les mauvais utilisateurs par des sanctions graduelles, d'abord des avertissements, puis des exclusions temporaires et, enfin, si l'internaute n'est toujours pas rentré dans le droit chemin, une exclusion définitive.

En octobre, après une publication tournant en dérision une chercheuse koweïtienne qui affirmait que l'homosexualité se transmettait par un ver anal, les Complots faciles ont été supprimés.

Une sentence (quasiment) irrévocable, sans aucune explication. La page a finalement été republiée, mais pas le post en question, qui reste mis au ban du réseau social pour «appel à la haine». La future instance chargée de régler les litiges liés à la suppression de contenus douteux (mais aussi à la suppression douteuse de contenus), dévoilée le 28 janvier par Facebook, ne devrait rien apporter de nouveau: elle ne pourra traiter que quelques dizaines de cas par an.

https://lh5.googleusercontent.com/VjXQKOlgO2G1wveYglarqU7igkorOuSIRN9XcrusxviEqFzBSnPbVeSwBzhzbyPB_mh_hs4zToz6o8Gr2-bP8CdcURVjTACw__mJbJ1HkHMJ7O3eAoWbWOpSXzVcCHkLvIuRRC5l

Drôle de renversement des valeurs. Il y a quelques mois, la chaîne YouTube Yes vous aime se faisait supprimer la vidéo parodique et grinçante «Comment embrasser une fille en 5 secondes». Dans le même temps, les vidéos parodiées continuaient de se répandre.

«Tout ce que je poste a pour but de lutter contre les fake news et les théories conspirationnistes. Avec 600.000 followers, je suis donc le meilleur allié possible pour Facebook dans son but affiché de lutte contre elles», reprend Dimitri Halby, qui, outre la création de plusieurs pages de secours, admet devoir s'autocensurer pour passer à travers une modération «de plus en plus restrictive, mais floue».

Machines humanisées, humains robotisés

Pour nettoyer la plateforme, Facebook s'appuie de plus en plus sur de systèmes automatisés. Actuellement, 4/5e des contenus sont supprimés sans signalement d'utilisateurs (chiffres Facebook France). Un vrai travail de gros, nécessaire pour une communauté qui rassemble 2,4 milliards d'usagè·res.

«Facebook semble trop faire confiance à l'automatisation. Et il semble impossible pour un algorithme de détecter l'ironie», tempère Arnaud Mercier, professeur en science de l'information et de la communication à l'université Paris II-Assas. Certes, il existe des modérateurs humains, compléments indispensable des algorithmes. Mais les méthodes de travail et d'embauche de ces fossoyeurs du web (15.000 en tout, répartis dans une vingtaine de centres autour de la planète), largement documentées, laissent planer le doute quant à leur réelle efficacité.

De plus, de l'aveu même de Facebook France, il n'y a «parfois besoin d'être un expert en français pour modérer un contenu en français». De quoi expliquer certains couacs.

«Même les êtres humains peuvent avoir du mal à détecter l'ironie, car elle tire son essence de la réversibilité de l'énoncé. Des petites mains, chez Facebook, il y en a. Mais elles n'ont pas forcément les mêmes codes culturels permettant de détecter le second degré. Cela ne peut se résoudre que par l'embauche de modérateurs compétents», reprend Arnaud Mercier.

«En 2020 sur Facebook, il vaut mieux être un radar qu'une femme»

Pourtant, Facebook précise les cas où «la satire et l'humour» sont autorisés. Prenons le cas de la nudité: les fameux standards de la communauté précisent que les restrictions s'appliquent sauf pour les contenus «postés à des fins éducatives, humoristiques ou satiriques». Pour les contenus «haineux», les règles précisent entre autre que «l'humour ou les commentaires liés à ces sujets est autorisé», tout en précisant qu'ils attendent «que l'intention soit clairement affichée». En clair, si on veut faire des vannes, il vaut mieux prévenir avant.

Lassées de ces coups de pressions permanents, les personnes qui créent du contenu se lâchent moins: «Dès qu'il y'a une infime trace de nudité, dès qu'on pourrait se faire attaquer pour discrimination, dès qu'une image est “violente”, on ne publie pas. On n'est pas du genre à faire du contenu uniquement basé là-dessus, mais quand ça nous arrive, ça ne finit jamais sur la page», avance Gabriel Kaikati, un Grenoblois co-administrateur des très populaires Mèmes décentralisés. Sa page, qui met à l'honneur les régions françaises et les oubliés de la mondialisation, est suivie par plusieurs centaines de milliers de personnes. Après plusieurs avertissements sur des publications pourtant loin d'être subversives, son compte personnel est supprimé, puis la page, le 23 décembre dernier. S'il admet que certains contenus peuvent être considérés comme sensibles, il dénonce l'hypocrisie du réseau social, prenant pour exemple un mème montrant un homme en flamme.

«La photo était problématique. Mais je l'ai trouvée sur le réseau, sur un compte avec moins de visibilité que le nôtre. Est-ce de notre faute ou de celle de Facebook de laisser passer du contenu sensible?»

Gabriel dit aussi avoir été victime de «Shadow Banning», une pratique qui consiste à réduire considérablement la visibilité d'une publication. Facebook France nous a confirmé y avoir recours «pour les contenus qui ne violent pas directement nos standards, mais qui sapent quand même l'authenticité de la plateforme, comme les pièges à clics ou les contenus sensationnalistes». La portée de certains posts peut être réduite de 80%. Et là encore, la marge d'interprétation est large.

L'Isérois poursuit: «Les signalements sont de plus en plus absurdes. Au début je prenais des avertissements justifiés parce que je faisais des blagues sur les Alsaciens et le nazisme. Sauf qu'un des derniers en date, c'était un sondage qui demandait “qu'est-ce qui se fait le plus démonter au bord de la D948? La pute ou le radar?”. Je m'attendais à me faire supprimer le sondage à cause du mot pute, mais au final j'ai pris un avertissement pour “incitation à la violence organisée!” En 2020 sur Facebook, il vaut mieux être un radar qu'une femme.»

Malgré la popularité de sa page, sur laquelle il travaillait à temps plein, Gabriel a songé à arrêter, démoralisé, d'autant que d'autres de ses publications programmées ont été préventivement supprimées. Lui et Dimitri Halby songent parfois à tirer un trait sur la visibilité que leur amène Facebook, préférant s'appuyer uniquement sur leurs propres plateformes.

Une modération à deux vitesses?

Depuis l'affaire Cambridge Analytica et alors que des soupçons planent sur l'influence de la plateforme sur la campagne de l'élection présidentielle américaine de 2016, Mark Zuckerberg a quelque peu changé les règles. «Compte tenu du climat de pression exercée par les États sur Facebook, ils préfèrent (parfois) censurer plutôt que de laisser passer un contenu haineux», analyse Arnaud Mercier. Un revirement anti-fakenews tardif et quelque peu hypocrite selon le chercheur: «Les fake news, ils s'en moquaient éperdument car ils voyaient le trafic que ça générait. Pour lutter efficacement contre elles, Facebook doit aller contre son modèle économique.»

La parodie et l'ironie seraient donc bien les victimes collatérales d'une politique de modération plus restrictive. Ainsi, des bloqueurs de contenus sont récemment apparus sur des certains mèmes utilisant des photos détournées, sous couvert de fact-checking.

https://lh4.googleusercontent.com/URjMP6pzlGeHW61Bppe2p9BwNIWxpCLBe4ZHWCiFAUiCjhTkXBFYmi6eJ-NtCalGUCYsNxLkp-PqF0WZWXjiUEOEbPAHOjrFKTQ7VjkOn3tVCsU2MyzXRHGetYbI9jdvnE6i-9S0

En tâtonnant à ce point sur la modération, les plateformes montrent leur incapacité à distinguer un contenu haineux ou discriminatoire de sa parodie. Elles redéfinissent les codes de l'humour numérique, fait de 1 et de 0. Un humour binaire.

Newsletters

Des courses à pied virtuelles pour s'entraîner même sans marathon

Des courses à pied virtuelles pour s'entraîner même sans marathon

Les adeptes du running utilisent la technologie pour rester connecté·es et concourir malgré l'interdiction des grands rassemblements.

Des milliers de femmes s'insurgent contre Nicky Cosmetics et ses influenceuses de télé-réalité

Des milliers de femmes s'insurgent contre Nicky Cosmetics et ses influenceuses de télé-réalité

Sur les réseaux sociaux, elles sont nombreuses à se plaindre de pertes de cheveux, douleurs et démangeaisons après plusieurs utilisations d'un shampoing de la marque.

Un algorithme pourrait-il prédire les nouvelles vagues de Covid-19?

Un algorithme pourrait-il prédire les nouvelles vagues de Covid-19?

Des scientifiques développent un algorithme utilisant les réseaux sociaux et d'autres données pour prévoir l'évolution de l'épidémie.

Newsletters