Médias / Tech & internet

Les méthodes anti-fake news de Facebook semblent porter leurs fruits

Temps de lecture : 7 min

Selon une récente étude, les sites d’intox seraient à la peine sur le réseau social depuis l’élection présidentielle américaine de 2016 (et ils auraient plus de succès sur Twitter).

Le bout du tunnel? | Stefano Ghezzi via Unsplash License by
Le bout du tunnel? | Stefano Ghezzi via Unsplash License by

Depuis la dernière élection présidentielle aux États-Unis, Facebook s’emploie à limiter la présence de fausses informations dans les fils d’actualité, s’exposant ainsi à un feu nourri de critiques, et notamment d’accusations de biais politique, à gauche comme à droite. Des critiques potentiellement injustifiées: selon une récente étude réalisée par des chercheurs de l’université de Stanford, de l’université de New York et de Microsoft Research, les mesures de Facebook seraient bel et bien en train de porter leurs fruits –dans une certaine mesure.

L’étude a été publiée le 14 septembre sous la forme d’un document de travail. Les chercheurs ont étudié la manière dont les utilisateurs et utilisatrices de Facebook et de Twitter interagissaient avec des articles issus de 570 sites accusés (par au moins une source fiable) de colporter des fake news (informations purement et simplement fausses, intentionnellement trompeuses ou particulièrement biaisées).

Les auteurs indiquent que leur étude est «loin d’être définitive», mais elle demeure intéressante: il s’agit peut-être de la première étude empirique à grande échelle à avoir directement analysé l’efficacité de l’opération anti-désinformation de Facebook. Les résultats des chercheurs pourraient servir de futur fil conducteur au réseau social, qui cherche justement à mieux contrôler l’impact qu’il peut avoir sur la société civile.

Des résultats de bon augure

J’ai échangé au téléphone avec l’un des auteurs de l’étude, Matthew Gentzkow, économiste à Stanford. Il m’a expliqué qu’il fallait prendre les bons résultats apparents de l’entreprise avec des pincettes. De fait, les fausses informations sont encore légion sur Facebook (bien plus que sur Twitter). Par ailleurs, la liste de «sites à fake news» de l’étude n’est ni exhaustive, ni entièrement fiable. Reste que ces données mettent en évidence une tendance positive d’une netteté stupéfiante. Voilà qui devrait redonner de l’espoir aux analystes tentés par le défaitisme face à l’avancée des fake news.

En s’appuyant sur des données recueillies par la société de marketing BuzzSumo, les chercheurs ont déterminé qu’au total, l’engagement Facebook –soit la somme des «j’aime», des partages et des commentaires– des sites à fake news étudiés avait baissé de plus de 50% entre l’élection de 2016 et le mois de juillet 2018. Ce résultat se démarque clairement des tendances de Twitter: les retweets de ces mêmes sites ont nettement augmenté durant cette même période.

«L’ampleur générale du problème de désinformation est en recul»

Un constat pour le moins logique, dans la mesure où Facebook a produit des efforts concertés pour limiter la désinformation sur sa plateforme depuis le début de l’année 2017, contrairement à Twitter (Twitter a privilégié la lutte contre les bots, le spam, le harcèlement et les messages de haine, délaissant la lutte contre la propagation de fausses informations). Ce qui tend à prouver que les bons résultats apparents de Facebook ne sont pas simplement dus à une modification du comportement des sites à fake news (résignation, réduction d’activité, modification des noms de domaine…).

«Les éléments de preuve sont loin d’être irréfutables, écrivent les auteurs, mais nous estimons qu’ils sont conformes à l’analyse selon laquelle l’ampleur générale du problème de désinformation est en recul (temporaire, à tout le moins), et selon laquelle les efforts produits par Facebook pour limiter la diffusion des fausses informations au lendemain de l’élection de 2016 ont été couronnés de succès.»

L’étude, qui n’a pas été examinée par des pairs, a été réalisée par les économistes Matthew Gentzkow et Chuan Yu (Stanford) ainsi que par le chercheur Hunt Alcott (université de New York, Microsoft Research). Facebook n’a pas financé et n’a pas participé à ces recherches.

Les courbes ci-dessus montrent l'évolution des engagements Facebook et Twitter de tous les articles publiés sur des sites de différentes catégories. | Matthew Gentzkow

«Ces résultats sont extraordinaires et quelque peu surprenants», confie Dipayan Ghosh, chargé de recherche au Centre Shorenstein sur les médias, la politique et les politiques publiques de l’université de Harvard. «Les chercheurs se sont appuyés sur les données de multiples sources réputées, et ils ont réalisé une analyse bien raisonnée et consciencieuse.»

Ghosh a travaillé pour Facebook dans le domaine de la vie privée et des politiques publiques avant de quitter l’entreprise au lendemain de l’élection de 2016. Il milite désormais contre la désinformation sur les réseaux sociaux. Dans les colonnes du magazine Time en janvier 2018, il déclarait qu’il serait bientôt «impossible de stopper la désinformation». Les auteurs de l’étude racontent que cette déclaration compte parmi les éléments qui ont motivé leur enquête. Lors de notre entretien, Ghosh m’a expliqué qu’au vu des résultats de l’étude, les processus de détection et d’élimination mis en place par Facebook semblaient finalement avoir un impact relativement positif. Si ces données sont exactes, elles sont selon lui «de bon augure pour l’impact à long terme des opérations de lutte contre la désinformation, au moins sur Facebook».

Bémols

On aurait toutefois tort d’en conclure que Facebook a réglé son problème de désinformation, ou que la situation est bien pire sur Twitter. Selon l’étude, l’ampleur du problème sur Facebook était bien plus importante que sur Twitter à l’origine, et l'est toujours aujourd'hui. Sur les 570 sites étudiés par les chercheurs, le ratio engagements sur Facebook/retweets sur Twitter était de quarante contre un avant la mise en place des mesures. Il est de quinze contre un aujourd’hui. Ce qui tend à prouver que Facebook demeure la principale source de fake news, et de loin. Les sites en question récoltent encore quelque soixante-dix millions d’engagements Facebook par mois à ce jour. C’est effectivement beaucoup moins qu’à l’époque du duel Trump-Clinton –mais ce chiffre demeure terriblement élevé.

Afin de replacer ces données dans leur contexte, les auteurs ont comparé l’engagement d’articles issus des 570 sites d’intox à l’engagement d’articles issus de trente-huit sources d’information réputées. En 2016, les 570 sites en question récoltaient à peu près autant d’engagement Facebook que ces trente-huit médias traditionnels. Ils en récoltent aujourd’hui moitié moins, tandis que les grands sites d’information ont peu ou prou maintenu leur niveau d’origine.

L’étude n’a pas pu se pencher sur un phénomène problématique: les sources de désinformation majeures qui ont sans doute vu le jour après 2016.

Second bémol d’importance: la définition du terme «fake news» est particulièrement floue, et Gentzkow reconnaît lui-même que la définition utilisée par l’étude n’est absolument pas scientifique. Les auteurs ont dressé leur liste de 570 sites en associant tous les sites accusés de colporter des informations fausses ou trompeuses –sur la base de cinq analyses plus anciennes, pour la plupart informelles, réalisées par de multiples sources. Certaines de ces listes s’avèrent controversées: on pense notamment à la liste d’un professeur de Merrimack College, élaborée en 2016, qui mélange allègrement sites connus pour leur engagement politique fort (Breitbart, Red State…) et sites d’intox purs et durs.

Gentzkow nous rassure tout de même: selon lui, l’analyse des auteurs indique que ce sont les «acteurs les plus néfastes», c'est-à-dire les sites que l’on retrouve dans plusieurs des listes précédentes en tant que sources de désinformation, qui ont le plus souffert en termes d’engagement Facebook. Les chercheurs ont testé plusieurs répartitions possibles de l’ensemble de données. Ces informations peuvent être consultées dans une annexe en ligne riche d’enseignements.

L’étude n’a pas pu se pencher sur un phénomène problématique: les sources de désinformation majeures qui ont sans doute vu le jour après 2016, certaines d’entre elles ayant certainement été conçues pour contourner les nouveaux dispositifs de Facebook. Le réseau social connaissait déjà la plupart des sites analysés par l’étude lorsqu’il a lancé ses projets anti-fake news; limiter leurs apparitions dans les fils d’actualité n’a donc pas dû être bien compliqué. Mais Facebook parviendra-t-il à s’adapter aux nouvelles techniques des propagandistes et autres trolls d’internet? Là est la vraie question à laquelle, dit Gentzkow, l’étude est incapable de répondre.

Quelles mesures chez Twitter?

Le jour de la parution du document, un porte-parole de Facebook l’a qualifiée d’«encourageante», tout en reconnaissant que d’autres travaux de recherche seraient nécessaires. Lauren Svensson, responsable de la communication de l'entreprise, a souligné que l’étude s’intéressait à l’engagement sur tous les articles d’un site donné. Or, Facebook s’emploie à limiter l’affichage d’articles-intox au cas par cas, lorsqu’ils sont signalés par des fact-checkers tiers. Autrement dit, Facebook ne cherche pas à écarter tous les contenus des sites examinés par l’étude... Leurs articles continueront donc d’apparaître dans les fils d’actualité.

Les progrès signalés par l’étude «sont conformes à ce que nous observons en interne, estime Lauren Svensson. Mais nous devons poursuivre nos efforts, comme toujours; nous en sommes conscients».

Interrogé à ce sujet, un porte-parole de Twitter a déclaré que l’entreprise avait toujours refusé de jouer les «arbitres de la vérité». Twitter estime que sa plateforme peut elle-même constituer un antidote contre la propagation des intox: le fait qu'elle soit publique permettrait aux utilisateurs et utilisatrices de déboulonner les fausses informations. Cette position a été relayée par Vijaya Gadde (responsable juridique chez Twitter) dans un récent épisode du podcast «If Then», sur Slate.com. Soulignons toutefois qu’un article de recherche publié en mars dernier met à mal sa théorie: sur Twitter, les mensonges se propagent plus vite que la vérité.

Il est encore trop tôt pour affirmer que Facebook est en train de gagner la guerre contre les fake news. Même s’il existait une définition de la «désinformation» faisant consensus (ce qui est loin d’être le cas), il faudrait réaliser de nouveaux travaux de recherche avant de déclarer que le réseau social parvient bel et bien à endiguer ce flux. Reste qu’au vu des résultats de l’étude, Facebook peut à tout le moins s’enorgueillir d’une victoire: ses efforts ont eu un impact significatif sur les sites visés.

Will Oremus Journaliste

Newsletters

Qui se cache derrière l'opinion publique?

Qui se cache derrière l'opinion publique?

L’opinion publique est l'un de ces éléments si insérés dans notre environnement qu’ils font partie de notre quotidien. On la retrouve partout, tout le temps et sous différentes formes.

Une journaliste de RT fait l'éloge du goulag sur Twitter

Une journaliste de RT fait l'éloge du goulag sur Twitter

La correspondante de Russia Today à Washington s'est excusée après avoir partagé un mème qui décrivait le goulag comme un lieu agréable et humain.

Pourquoi il ne faut pas prendre à la lettre les études sur l’alcool

Pourquoi il ne faut pas prendre à la lettre les études sur l’alcool

Chaque mois ou presque sort une publication scientifique sur les bienfaits ou méfaits supposés de l'alcool. Devant les conclusions contradictoires, on s'y perd.

Newsletters