Tech & internet

Facebook a des partis-pris? Bien entendu!

Temps de lecture : 9 min

Le vrai problème, c’est que le réseau social ne veut pas admettre qu’il est un organe de presse subjectif.

Mark Zuckerberg lors de la remise du Axel Springer Award à Berlin le 25 février 2016 | Kay Nietfeld/POOL/AFP
Mark Zuckerberg lors de la remise du Axel Springer Award à Berlin le 25 février 2016 | Kay Nietfeld/POOL/AFP

Facebook avait sans doute pensé que faire de l’information en ligne était chose facile. En 2014, le géant des réseaux sociaux avait composé une petite équipe d’une dizaine de jeunes brillants et ambitieux tout frais sortis de leur école de journalisme ou d’un premier emploi dans les médias. Il les avait collés dans un sous-sol, les avait embauchés comme sous-traitants et leur avait donné pour tâche de sélectionner et de résumer les principales nouvelles de la journée, en renvoyant vers les sites d’information qui les traitaient. Facebook ne les qualifiait pas de journalistes mais de «curateurs» (curators en anglais). Leur travail apparaissait dans la rubrique Trending de la page Facebook et de l’application mobile, afin de permettre à des millions d’utilisateurs de Facebook de voir quelles étaient les grandes nouvelles du jour.

Il s’agit donc bien, d’une certaine manière, d’une forme de journalisme. Et cela fait donc de facto de Facebook un organe de presse.

Mais Facebook a refusé de le reconnaître. Le réseau social ne s’est jamais ennuyé à tenir compte des responsabilités de base que le journalisme implique, ni des questions éthiques et épistémologiques qu’il soulève —sans doute parce qu’il s’agit de questions compliquées et peu pratiques qui pourraient gêner l’optimisation de l’engagement des utilisateurs. L’entreprise en paye aujourd’hui le prix.

Mardi 10 mai, Facebook est devenu la cible d’une enquête du Sénat américain suite à des accusations de partis-pris anti-conservateurs dans la rubrique Trending. Le président du comité sénatorial sur le Commerce, John Thune, un républicain du Dakota du Sud, a envoyé une lettre à Mark Zuckerberg en lui demandant de répondre à une série de questions précises sur la manière dont Facebook choisit les sujets de la section, sur la formation des curateurs, sur les personnes responsables de ces décisions et sur la manière dont l’entreprise compte enquêter au sujet de ces accusations de biais politique. Il a également demandé une liste détaillée des sujets que Facebook avait décidé de ne pas inclure dans la rubrique Trending en dépit de leur popularité auprès des utilisateurs de Facebook.

L’enquête faisait suite à un reportage de Michael Nunez publié par Gizmodo le lundi 9 mai, dans lequel d’anciens curateurs de Facebook décrivaient de manière anonyme les processus subjectifs selon lesquels ils composaient la rubrique Trending. Facebook avait publiquement présenté la section —qui se retrouve, chez les utilisateurs américains, dans le coin en haut à droite de l’écran sur Facebook.com ou sous l’onglet recherche dans l’application— comme un reflet algorithmique des sujets les plus populaires lus par ses utilisateurs à un moment donné. Mais les anciens curateurs ont expliqué qu’ils filtraient souvent les sujets jugés discutables et qu’ils en ajoutaient d’autres qui étaient jugés plus dignes d’intérêt. L’un d’eux, qui se dit lui-même conservateur, a jugé que cela entraînait un biais subtil mais omniprésent, puisque la plupart des curateurs étaient plutôt progressistes d’un point de vue politique. Les sujets populaires de sites conservateurs comme Breitbart, par exemple, étaient, selon lui, négligés tant que des publications plus grand public comme le New York Times ne les avaient pas repris à leur tour.

Algorithme

Rien de tout cela ne devrait sembler très surprenant à quiconque connaît le travail de journaliste ou sait faire preuve d’un peu de jugeote. L’être humain est subjectif. L’objectivité est un mythe ou, au mieux, un idéal duquel un professionnel aguerri et très consciencieux peut vaguement s’approcher. Les informations ne peuvent être neutres, pas plus que la «curation» de contenu.

L’objectivité est un mythe. Les informations ne peuvent être neutres, pas plus que la «curation» de contenu

Trending permet à des millions d’utilisateurs de Facebook de voir quelles sont les grandes nouvelles du moment.

Il existe des moyens de s’attaquer à ce problème avec honnêteté: il suffit de tenter d’identifier et de corriger ses propres partis-pris, de les dévoiler scrupuleusement, d’employer une équipe diversifiée d’un point de vue idéologique, peut-être même de jeter carrément l’idéal d’objectivité aux oubliettes et d’accepter pleinement la subjectivité. Mais l’on ne peut s’attaquer à la subjectivité des informations si on ne la reconnaît pas au départ. Et c’est exactement ce que Facebook refuse scrupuleusement de faire, pour des raisons qui sont au cœur même de son identité de société technologique.

Voici de quelle manière Facebook répond, sur ses pages d’aide, à la question «Comment Facebook fait-il pour déterminer les sujets à afficher dans la rubrique Trending?»:

«Trending vous montre les sujets qui sont récemment devenus populaires sur Facebook. Les sujets que vous voyez apparaissent en fonction d’un certain nombre de facteurs, notamment l’engagement, le moment où ils apparaissent, les pages que vous aimez et votre emplacement.»

Il n’est fait ici absolument aucune mention de l’humain ou de la subjectivité. De la même manière, Facebook a affirmé au blog technologique Recode en 2015 que la rubrique Trending était algorithmique, c’est-à-dire que les sujets étaient sélectionnés automatiquement par un programme informatique:

«Lorsqu’un sujet a été identifié comme étant tendance, il est approuvé par une personne humaine, qui en rédige un bref résumé. Ces personnes ne choisissent pas ce que Facebook fait apparaître dans la rubrique Trending. C’est une tâche qui est réalisée automatiquement par l’algorithme. Ils se contentent de choisir le titre.»

Des partis-pris dans le choix des sujets et des sources? Impossible! Tout est fait «automatiquement» par «l’algorithme»! Pour ce que cela révèle du véritable processus, autant dire carrément que c’est fait «par magie».

Visage objectif

Il n’est pas difficile de comprendre pourquoi Facebook tient tant à présenter un visage purement objectif. Avec plus de 1,6 milliard d’utilisateurs actifs, l’entreprise est plus importante que n’importe quel parti politique ou organisation au monde. Et son succès repose sur son attrait quasi universel. On ne devient pas une entreprise à 340 milliards de dollars en prenant parti.

Et, par conséquent, on ne devient pas aussi gros en admettant être une entreprise de médias. Comme l’ont fait remarquer John Herrman et Mike Isaac dans le New York Times, 65% des Américains sondés par le centre de recherches Pew considéraient que les médias avaient «une influence négative sur le pays». Pour les entreprises du secteur technologique, cette proportion s’élevait à seulement 17%. Il reste donc dans l’intérêt de Facebook de rester un réseau social aux yeux du public, même s’il apparaît de plus en plus évident qu’il s’agit de quelque chose de bien plus important. Et il est dans l’intérêt de Facebook de faire peser la responsabilité de décisions controversées non sur des humains, qui, comme nous l’avons vu, ont des partis-pris, mais sur des algorithmes, que nous avons tendance à idéaliser.

Mais les algorithmes ne sont pas magiques. Ils sont créés par des humains, ils sont maintenus, mis à jour et supervisés par des humains, et ils sont imparfaits comme des humains. Par-dessus tout, ils sont destinés à servir des ambitions humaines qui sont, par définition, subjectives. J’avais écriten janvier un long article sur les décisions et valeurs humaines qui façonnent l’algorithme du fil d’actualité de Facebook. L’algorithme est conçu pour atteindre des objectifs allant de la maximisation de l’engagement des utilisateurs au sentiment de bien-être de ces derniers lorsqu’ils sont sur Facebook.

La rubrique Trending est rédigée par des «curateurs» embauchés pour résumer l’actualité.

Les algorithmes ne sont pas magiques. Ils sont créés par des humains, ils sont maintenus, mis à jour et supervisés par des humains, et ils sont imparfaits comme des humains

Les valeurs humaines définissent également la rubrique Trending. L’algorithme qui met en avant les sujets pourrait esquiver les questions du parti-pris en se contentant de les classer par ordre de popularité, reléguant ainsi la responsabilité du choix des sujets aux utilisateurs et non plus aux employés de Facebook. Toutefois, cette idée –selon laquelle ce qui est populaire mérite d’être privilégié– représente encore un jugement de valeur humain, même s’il est vrai qu’il n’est pas particulièrement vulnérable aux accusations de préjugé politique (c’est pour cette raison que rien n’est reproché au module, plus simple, de sujets tendance de Twitter).

Le problème d’un algorithme qui se contente de s’appuyer sur la «sagesse» de la foule est que la foule est loin d’être toujours sage. Les sujets les plus lus à un moment donné peuvent souvent être trompeurs, sensationnalistes, voire complètement mensongers. C’est pourquoi Facebook a ressenti le besoin d’employer des humains pour superviser le tout. Cette disposition est en conformité avec les efforts généraux faits par la société pour avoir ce qu’elle qualifie de contenu de qualité, autre terme qui entraîne des jugements de valeur sans l’admettre.

Rédacteur humain

Le réflexe de Facebook d’embaucher des journalistes était pertinent: comme je l’ai expliqué, aucun algorithme ne peut encore entièrement remplacer un bon auteur ou un rédacteur humain.

Mais Facebook a finalement choisi d’engager des sous-traitants bon marché et a continué d’affirmer que leur rôle n’était que de «confirmer que les sujets sont réellement tendance dans la vraie vie et non, par exemple, des sujets similaires ou ressemblants». C’est une affirmation discutable, même pour celui ou celle qui pense que les allégations de parti-pris progressistes ont été inventées. Si le travail des curateurs se limite réellement à faire le tri dans les données, Facebook semble avoir oublié d’en prévenir les curateurs, qui ont décrit leurs fonctions très différemment à Gizmodo. Ils ont déclaré qu’on les encourageait à donner la priorité aux sujets provenant de certains médias considérés comme réputés, à éviter les actualités sur (entre autres) Facebook et à remplacer le mot Twitter dans les titres par une expression plus vague, comme «réseau social». Ce ne sont peut-être pas des biais politiques, mais c’est tout de même de la subjectivité. Ils ont également avoué avoir choisi des sujets pour la rubrique Trending qui, bien que non mis en avant par l’algorithme, leur semblaient importants ou dignes d’intérêt, comme des sujets sur les conflits en Syrie ou le mouvement Black Lives Matter.

Facebook peut contester ces affirmations (et il le fera sûrement), tout comme l’a fait le responsable de l’équipe en charge des trending topics, Tom Stocky, dans un post Facebook mardi 10 au matin. Mais ils passent complètement à côté de l’essentiel. Le problème de Facebook n’est pas que les curateurs ont des partis-pris. Le problème est que Facebook refuse d’admettre qu’ils font preuve de subjectivité, ou même qu’ils sont humains.

L’enquête du Sénat n’est qu’un spectacle politique, une chance merveilleuse pour les Républicains d’alimenter le complexe de persécution médiatique des conservateurs. L’enquête ne pourra sans doute répondre qu’à quelques questions et en règlera encore moins. Pourtant, Facebook a forgé son propre malheur en rendant délibérément obscur le processus qui sous-tend sa rubrique Trending et en prétendant posséder une neutralité que sa main d’œuvre sous-payée ne pouvait s’offrir.

Le seul moyen qu’a l’entreprise de se tirer de cette situation est d’arrêter de considérer ses «curateurs» comme des drones

Facebook ne règlera pas le problème en congédiant quelques éléments ou en instituant des règles plus strictes. Le seul moyen qu’a l’entreprise de se tirer de cette situation est d’admettre que le journalisme n’est pas aussi simple qu’elle l’avait pensé au départ, d’arrêter de considérer ses «curateurs» comme des drones et de ne plus traiter l’information comme un simple ensemble de données à optimiser. La vraie solution serait de mettre en place une vraie équipe de curation, avec un vrai rédacteur en chef, une ligne éditoriale et le sens des responsabilités qu’implique le fait de présenter les informations à 1,6 milliard de personnes. C’est quelque chose que peut sans doute se permettre une société qui paie ses stagiaires 11.000 dollars par mois en salaire et avantages divers.

Ce sera soit cela, soit —solution la plus probable compte tenu de l’aversion qu’a Facebook pour le jugement humain et de sa peur de la controverse— il faudra totalement retirer les humains de la boucle, faire de Trending le pur résultat algorithmique que Facebook a toujours prétendu qu’il était et accepter qu’il puisse être criblé de bêtises sensationnalistes. Ou alors, il faudra s’en débarrasser totalement dans sa forme actuelle et le ramener plus tard comme caractéristique du fil d’information principal.

Mais tout cela ne pourra suffire à retirer tout biais de Facebook, tout simplement parce que c’est une tâche impossible. Cela ne fera qu’enterrer ce biais au fin fond des algorithmes d’apprentissage automatique de la société, là où les vrais journalistes ne peuvent accéder.

Newsletters

Les Randonautes, ou comment épicer ses sorties déconfinées

Les Randonautes, ou comment épicer ses sorties déconfinées

Transformer ses promenades en quêtes existentielles, ça n'a pas de prix. Surtout lorsqu'on les partage sur TikTok.

Nouveau job de rêve: représenter une entreprise sur «Animal Crossing»

Nouveau job de rêve: représenter une entreprise sur «Animal Crossing»

Une offre d'emploi inédite liée au hit du jeu vidéo devrait faire saliver tout le monde.

Pour cartonner sur Youtube, apprenez d'abord à vous excuser

Pour cartonner sur Youtube, apprenez d'abord à vous excuser

Un vidéaste aux millions de fans a partagé son expérience douloureuse mais fructueuse avec de jeunes pousses.

Newsletters