Tech & internet

Pourquoi Facebook a décidé d'ajouter une supervision humaine à ses contenus populaires

Temps de lecture : 2 min

Au commencement était l'algorithme.

Facebook | Jorge Caballero Jiménez via Flickr CC License by
Facebook | Jorge Caballero Jiménez via Flickr CC License by

Facebook se serait probablement passé de cette polémique. Ce 9 mai, le site Gizmodo a accusé le réseau social «de ne pas mentionner des sujets sur des personnalités conservatrices alors que l’algorithme indiquait qu’ils étaient populaires», comme nous le racontons ici.

«Par exemple, lorsque des sujets sur des hommes politiques républicains comme Mitt Romney et Rand Paul (ou sur la conférence de conservateurs CPAC) étaient très discutés sur le site, ils ne se sont pas retrouvés dans la colonne des sujets tendance.»

Facebook a ensuite nié toute intervention concernant ces sujets auprès de plusieurs médias, dont Slate, et a rappelé sur son site comment fonctionnait son service. Il a d'ailleurs souligné qu'il n'autorisait pas la censure d'opinions politiques ou qu'il ne cherchait pas à donner plus d'espace à un camp qu'à un autre.

«L'algorithme qui repère des sujets potentiels cherche à optimiser la popularité et la fréquence à laquelle ils apparaissent sur Facebook et savoir si c'est ou non un évènement mondial –et il ne prend pas en compte le point de vue. Ensuite, on a une série de pouvoirs et contrepouvoirs en place pour aider à faire remonter les histoires les plus importantes, peu importe leur couleur politique, ainsi que pour éliminer ce qui n'est que du bruit et qui n'est pas un évènement d'actualité, mais qui a pu remonter via notre algorithme. Facebook n'autorise pas ses employés à censurer certaines sources, peu importe leur origine politique.»

Au début, Facebook n'avait pourtant pas d'intervention humaine. En fait, explique le Guardian, c'est à l'été 2014 que Facebook a abandonné son approche purement algorithmique pour faire remonter des sujets dans cette colonne. À l'époque, le réseau social avait été largement critiqué pour n'avoir (quasiment) pas inclus les émeutes en cours à Ferguson, dans le Missouri.

«[Ces plaintes] étaient la preuve pour Facebook que des humains évaluaient mieux l'actualité que son algorithme. De nombreux articles avaient critiqué Facebook pour avoir donné le priorité aux vidéos de l'Ice Bucket Challenge plutôt qu'aux émeutes. Pour de nombreuses personnes, cet incident était la preuve que c'était sur Twitter que l'on trouvait les dernières informations et que Facebook était l'endroit où l'on se retrouvait pour ce qui était plus superficiel

Newsletters

Le jeu vidéo peut-il nous sauver?

Le jeu vidéo peut-il nous sauver?

Et si... nous reconstruisions le monde différemment? Et si le jeu nous rappelait l’importance de se connaître soi pour mieux vivre en accord avec le monde?

Ne vous laissez pas avoir par les vidéos de «cooking hacks»

Ne vous laissez pas avoir par les vidéos de «cooking hacks»

Elles promettent des résultats spectaculaires grâce à des recettes de cuisine ultra-simples. Mais en plus d'être un leurre, elles peuvent causer des accidents domestiques.

Des courses à pied virtuelles pour s'entraîner même sans marathon

Des courses à pied virtuelles pour s'entraîner même sans marathon

Les adeptes du running utilisent la technologie pour rester connecté·es et concourir malgré l'interdiction des grands rassemblements.

Newsletters