Tech & internet / Monde

Facebook certifie supprimer 95% des discours de haine avant qu’ils ne soient visibles

L'entreprise s'est beaucoup améliorée pour empêcher la haine de se manifester. Mais les modérateurs sont mécontents d'être poussés à retourner au bureau.

Une photo de tablettes qui affichent Facebook ou Instagram, le 5 octobre 2020 à Toulouse. | Lionel Bonaventure/AFP
Une photo de tablettes qui affichent Facebook ou Instagram, le 5 octobre 2020 à Toulouse. | Lionel Bonaventure/AFP

Temps de lecture: 2 minutes - Repéré sur Fast Company, BBC

Facebook a enfin publié ses premiers chiffres sur le nombre de personnes exposées à des contenus haineux sur sa plateforme. Entre ses modérateurs et son système d'intelligence artificielle, l'entreprise de Mark Zuckerberg affirme qu'elle détecte et supprime 95% du contenu haineux avant que quiconque ne le voie, que ce soit sur Facebook ou Instagram, écrit le magazine d'affaires américain Fast Company. La société estime que pour 10.000 vues de contenu, il s'y trouve 10 à 11 vues de discours violent. 

«Nos mesures d'application de la loi ce trimestre, y compris la quantité de discours haineux que nous avons trouvé de manière proactive et la quantité de contenu sur laquelle nous avons pris des mesures, indiquent que nous progressons dans la détection du contenu préjudiciable», a déclaré Guy Rosen, vice-président de l'intégrité de Facebook, lors d'une conférence téléphonique avec des journalistes le 19 novembre. D'après Fast Company, le réseau social a «travaillé dur pour améliorer ses systèmes d'IA» afin de supprimer le contenu toxique de la plateforme. D'après l'entreprise, le taux de détection (qui est donc de 95% aujourd'hui) n'était que de 24% fin 2017.

Le directeur technique de Facebook, Mike Schroepfer, a également rappelé le 18 novembre que les systèmes de détection étaient toujours confrontés à des défis pour détecter du discours haineux dans le contenu multimédia, comme les mèmes, qui peuvent tromper l'IA. 

Néanmoins, tout n'est pas rose pour l'un des Gafas. La BBC a révélé que 200 de ses modérateurs contractuels ont écrit une lettre ouverte, alléguant que la société les poussait à revenir trop tôt au bureau pendant la pandémie. Ils expliquent que l'entreprise risque leur vie en exigeant qu'ils se présentent au travail dans un bureau pendant la pandémie au lieu d'être autorisés à travailler à domicile. Les travailleurs exigent que Facebook leur fournisse une prime de risque, des avantages sociaux et d'autres concessions. 170 d'entre eux étaient anonymes.

cover
-
/
cover

Liste de lecture