Tech & internet

La semaine de merde de Facebook

Entre l'élection de Donald Trump et la révélation d'erreur dans ses calculs d'audiences publicitaires, le réseau social vient de passer huit derniers jours compliqués.

Mark Zuckerberg, le 25 février 2016. John MACDOUGALL / AFP
Mark Zuckerberg, le 25 février 2016. John MACDOUGALL / AFP

Temps de lecture: 6 minutes

Ça aurait pu être une semaine relativement tranquille pour Facebook. Le réseau social aurait pu simplement se féliciter d'avoir envoyé des millions d'Américains aux urnes, se vanter d'être une force importante dans la démocratie moderne, de continuer à y jouer un rôle clé, et de promettre de renouveler ces engagements pour créer un monde meilleur.

Le problème, c'est que ça ne s'est pas du tout passé comme ça. Depuis ce 9 novembre, et l'élection de Donald Trump comme 45e président des États-Unis, il semble ne pas passer un seul jour sans que Facebook ne se reprenne un petit coup derrière la tête alors qu'il commence toujours à la relever. S'il est parfois clair que le réseau social le plus utilisé dans le monde s'est planté, certaines des accusations ne sont cependant pas complètement fondées. Retour sur quatre points, qui ont animé la vie du réseau social en ce milieu de mois de novembre.

1.Facebook et les fausses informations

Le Pape qui appelle à voter pour Donald Trump, WikiLeaks qui confirme qu'Hillary Clinton a bien vendu des armes à l'État islamique, un agent du FBI suspecté d'être derrière les fuites d'e-mails d'Hillary Clinton retrouvé mort dans ce qui semble être un faux suicide... Toutes ces histoires ont deux points communs: elles sont fausses et ont été largement partagées dans les jours ou les semaines qui ont précédé l'élection présidentielle américaine.

Mark Zuckerberg a beau assurer que les hoaxes et les fausses informations représentent moins de 1% de tous les contenus partagés sur son réseau social, BuzzFeed vient de démontrer qu'ils font partie de ceux qui reçoivent le plus d'engagement (likes, commentaires, partages) de la part des utilisateurs.

Et si le fondateur de Facebook répète qu'il ne veut pas de tout cela sur son site, la réalité est sans doute un peu plus compliquée. Dans les jours qui suivent la réaction de Zuckerberg, Gizmodo affirme que Facebook avait en fait les outils pour contrer les fausses informations qui circulent sur son site, mais a préféré ne rien déployer pour ne pas enrager les conservateurs dont les sites auraient été particulièrement touchés.

«Selon la source, la mise à jour a été mise de côté et n'a jamais été présentée au public. On ne sait pas si elle avait d'autres problèmes qui ont amené à ce qu'elle disparaisse. “Ils ont déjà les outils pour mettre fin aux fausses infos, indique la source qui a demandé à rester anonyme. Ils ont très peur d'énerver les conservateurs après l'affaire des Trending Topics et beaucoup de décisions sur les produits ont été affectées”.»

Facebook a déjà eu des problèmes, quand Gizmodo a publié les témoignages d’anciens employés de Facebook assurant qu’ils supprimaient régulièrement des sujets qui pourraient intéresser leurs utilisateurs conservateurs et qui faisaient partie des plus discutés sur le site (Trending). Facebook a toujours nié ces allégations, mais a renvoyé toute l'équipe qui s'occupait de ce service, ce qui a permis à de fausses informations d'y apparaître.

«Cet incident a paralysé toute volonté de Facebook de faire des changements sérieux sur ses produits, qui pourraient compromettre la perception de son objectivité», expliquaient, après l'élection américaine, des employés de Facebook au New York Times.

BuzzFeed assure cependant que, dans leur coin, des employés du réseau social ne sont pas du même avis, et essaient d'imaginer des moyens pour s'attaquer à la diffusion de certaines de ces fausses informations sur le réseau.

Officiellement, Facebook va s'attaquer au porte-monnaie de ces pages. Le réseau social a changé ses règles publicitaires et a ajouté les fausses actualités à sa liste «d’éléments illégaux ou interdits».

«Nous n’intégrons pas ou ne montrons pas de publicités dans des applications ou des sites dont le contenu est illégal, trompeur ou mensonger, ce qui inclut les fausses informations, a souligné un communiqué du réseau social. C’était jusqu’à présent sous-entendu, mais nous avons mis à jour notre politique pour clairement exprimer que cela concerne les fausses nouvelles.»

Pourtant, Facebook ne veut pas de toutes ces responsabilités, qui l'amèneraient à jouer le rôle d'arbitre de la vérité. «Cette mission reviendrait à donner à Facebook une responsabilité bien plus grande que celle qu’elle n’a aujourd’hui dans la diffusion des savoirs et du débat d’idées», conclut justement Le Monde qui rappelle que «Mark Zuckerberg en est conscient, déclarant dans son dernier post Facebook»:

«Nous devons être extrêmement prudents avec l’idée que nous puissions devenir nous-mêmes des arbitres de la vérité.»

D'autant que la prochaine étape dans ce plan pourrait amener Facebook à se considérer comme une véritable entité médiatique –et donc à prendre des décisions éditoriales– ce que le réseau a toujours refusé de faire, préférant se considérer comme une plateforme neutre.
 

2.Facebook renforce les bulles de filtres

Si ses fausses informations ont si bien marché, c'est aussi parce qu'elles ont touché un public réceptif. C'est en tout cas l'argument avancé dans le Guardian, qui rappelle qu'à chaque fois que l'on clique sur un lien, une photo, ou quoi que ce soit sur Facebook, l'algorithme le prend en compte pour nous fournir plus tard des contenus similaires que l'on va probablement aimer, ce qui va nous faire rester sur le réseau social, ce qui va plaire à Facebook, qui va donc continuer à sélectionner le même type de messages.

«Plus on clique, aime, et partage des choses qui sont en phase avec nos opinions, plus Facebook nous donne des posts similaires. Ceci a progressivement divisé la narrative politique en deux bulles de filtres distinctes –une pour les conservateurs, et une pour les progressistes, ce qui les a éloignés un peu plus les uns des autres au fil des jours menant à l'élection.»

Et il se trouve que lors de cette élection, les fausses infos ont particulièrement touché les bulles conservatrices (même si les progressistes n'ont pas été épargnés).

Cette idée de bulles de filtres a été conceptualisée par Eli Pariser.

Interrogé sur le rôle de Facebook dans l'élection de Trump, Eli Pariser estime qu'il y a deux points à prendre en compte et qu'ils ne vont pas dans le même sens. Le premier, c'est que l'on est dans une bulle qui voudrait que l'on s'informe sur les réseaux sociaux, alors que la majorité des Américains s'informe encore majoritairement via la télé (même si là encore, certaines chaînes sont clairement progressistes, et d'autres conservatrices).

«La bulle de filtres a contribué à ce que les progressistes et les gens vivant sur les côtes [qui ont surtout voté démocrate] soient surpris par le résultat. Mais c'est différent de dire que ça a poussé les résultats dans un sens, ou les a changés.»

Il estime néanmoins que la diffusion des fausses informations a contribué à l'érosion de notre confiance dans les médias.

«C'est plus facile aujourd'hui de vivre dans un environnement informationnel complètement différent de la normale. Ça change la conversation culturelle pour tout le monde.»

Mais dire que Facebook est responsable de l'élection de Trump, c'est une vision «trop simpliste» des choses, que partage notamment TechDirt. Ce dernier estime qu'il est idiot d'accuser Facebook d'avoir fait pencher l'élection, et souligne que le problème était déjà là avant. Au pire, Facebook n'a fait que l'amplifier:

«Oui, de nombreuses personnes ont cru à ces infos fausses ou sensationnelles –et la campagne de Trump a très bien su extirper un noyau de vérité (à savoir que les principaux médias ne voulaient pas de sa victoire) et la transformer en l'idée qu'aucun de ces articles répertoriant ses erreurs, mensonges ou preuves de corruption ne pouvaient être crus. Mais les gens ont cru ses articles parce qu'ils correspondaient à ce qu'ils vivaient tous les jours et parce que cela correspondait à la façon dont ils pensent que le système marche (ou ne marche pas) depuis tant d'années.»

Facebook responsable, mais Facebook sans doute pas coupable.

3.Facebook tue deux millions de personnes

Alors que les questions sur le rôle de Facebook dans l'élection de Trump continuent de se multiplier, le réseau social passe les pages de plusieurs millions de ses utilisateurs (dont Mark Zuckerberg) en profils commémoratifs, utilisés pour les personnes décédées. Le tout avant de corriger ce problème et de s'en excuser.

«Pendant quelques instants aujourd’hui, un message destiné aux comptes de commémoration a été posté par erreur sur d’autres comptes. C’était un terrible bug que nous avons réparé. Nous sommes désolés que ce ce soit produit, et avons travaillé aussi vite que possible pour résoudre ce problème.»

4.Facebook se trompe dans ses chiffres

Et alors que l'on commence à oublier toutes les histoires autour de l'élection de Donald Trump et de l'influence de Facebook, le Wall Street Journal révèle qu'il s'est à nouveau trompé (entre autres) dans le calcul des audiences publicitaires.

En clair, récapitule Le Monde, «le réseau social a surestimé de plus de 50% le nombre de gens différents visitant une de ses pages chaque mois. De la même façon, sa méthode de calcul de la lecture des articles de journaux sur son site (Instant Articles) serait trop optimiste, et, à l’inverse, le nombre d’internautes visionnant des vidéos intégralement aurait été sous-estimé de près de 35%.»

Ces révélations sont d'autant plus catastrophiques qu'en septembre, Facebook avait déjà annoncé qu'il avait surestimé le temps passé devant des vidéos, sur les deux dernières années, puisqu'il ne prenait pas en compte les personnes qui regardaient les vidéos pendant moins de trois secondes. De quoi passablement énerver les annonceurs. «Comment ne pas penser que Facebook a triché en rendant ses vidéos plus désirables que celles sur les autres plateformes?», résumait alors le Journal du Geek. Et là, le réseau social n'a pas grand monde à blâmer à part lui-même.

Allez Facebook, ça ira mieux la semaine prochaine.

cover
-
/
cover

Liste de lecture