Tech & internet

Pourquoi Facebook a décidé d'ajouter une supervision humaine à ses contenus populaires

Temps de lecture : 2 min

Au commencement était l'algorithme.

Facebook | Jorge Caballero Jiménez via Flickr CC License by
Facebook | Jorge Caballero Jiménez via Flickr CC License by

Facebook se serait probablement passé de cette polémique. Ce 9 mai, le site Gizmodo a accusé le réseau social «de ne pas mentionner des sujets sur des personnalités conservatrices alors que l’algorithme indiquait qu’ils étaient populaires», comme nous le racontons ici.

«Par exemple, lorsque des sujets sur des hommes politiques républicains comme Mitt Romney et Rand Paul (ou sur la conférence de conservateurs CPAC) étaient très discutés sur le site, ils ne se sont pas retrouvés dans la colonne des sujets tendance.»

Facebook a ensuite nié toute intervention concernant ces sujets auprès de plusieurs médias, dont Slate, et a rappelé sur son site comment fonctionnait son service. Il a d'ailleurs souligné qu'il n'autorisait pas la censure d'opinions politiques ou qu'il ne cherchait pas à donner plus d'espace à un camp qu'à un autre.

«L'algorithme qui repère des sujets potentiels cherche à optimiser la popularité et la fréquence à laquelle ils apparaissent sur Facebook et savoir si c'est ou non un évènement mondial –et il ne prend pas en compte le point de vue. Ensuite, on a une série de pouvoirs et contrepouvoirs en place pour aider à faire remonter les histoires les plus importantes, peu importe leur couleur politique, ainsi que pour éliminer ce qui n'est que du bruit et qui n'est pas un évènement d'actualité, mais qui a pu remonter via notre algorithme. Facebook n'autorise pas ses employés à censurer certaines sources, peu importe leur origine politique.»

Au début, Facebook n'avait pourtant pas d'intervention humaine. En fait, explique le Guardian, c'est à l'été 2014 que Facebook a abandonné son approche purement algorithmique pour faire remonter des sujets dans cette colonne. À l'époque, le réseau social avait été largement critiqué pour n'avoir (quasiment) pas inclus les émeutes en cours à Ferguson, dans le Missouri.

«[Ces plaintes] étaient la preuve pour Facebook que des humains évaluaient mieux l'actualité que son algorithme. De nombreux articles avaient critiqué Facebook pour avoir donné le priorité aux vidéos de l'Ice Bucket Challenge plutôt qu'aux émeutes. Pour de nombreuses personnes, cet incident était la preuve que c'était sur Twitter que l'on trouvait les dernières informations et que Facebook était l'endroit où l'on se retrouvait pour ce qui était plus superficiel

Newsletters

Elon Musk et Twitter: la liberté d'expression est-elle une valeur de droite?

Elon Musk et Twitter: la liberté d'expression est-elle une valeur de droite?

Aux États-Unis, la gauche est devenue réticente à défendre la liberté d'expression, soupçonnée d'être un prétexte pour protéger les discours de haine, alors que la droite s'en fait la championne.

Une intelligence artificielle pour brasser la bière de ses rêves

Une intelligence artificielle pour brasser la bière de ses rêves

Et pour trouver des parades s'il vous manque des ingrédients.

Vous ne savez pas chercher l'amour

Vous ne savez pas chercher l'amour

Les critères les plus courants sur les sites de rencontres sont les moins prédictifs du bonheur amoureux.

Podcasts Grands Formats Séries
Slate Studio