Mathématicien et directeur de recherche au CNRS, David Chavalarias étudie depuis plus de cinq ans le rôle et l'influence des réseaux sociaux sur le discours public. En mars 2022, il a publié chez Flammarion Toxic Data, essai grand public dans lequel il analyse l'explosion des fausses informations et les manipulations algorithmiques à des fins politiques. À la veille de l'élection présidentielle, nous sommes allés le rencontrer pour retracer l'évolution de la présence des forces politiques françaises sur les réseaux sociaux et le rôle des algorithmes dans nos comportements électoraux.
Slate.fr: Nous passons énormément de temps sur les réseaux sociaux, y compris en phase pré-électorale. Comment ces espaces influent-ils les informations que nous y recevons, et potentiellement les opinions politiques que nous y formons?
David Chavalarias: Quand on est sur une plateforme comme Facebook, Twitter ou autre, la majeure partie de l'information que l'on reçoit vient des fils d'actualité. Or, l'organisation de ces fils n'est pas une simple agrégation de ce que postent nos contacts, c'est le résultat de choix réalisés par le réseau. C'est un amas de publications que vos proches vous recommandent, de ce que la plateforme veut que vous voyiez, plus, dans certains cas, des contenus que vos contacts ont simplement apprécié, liké, commenté, etc. Ça crée un effet de contagion sur certaines publications sans même qu'elles n'aient été «partagées» au sens strict.
Quels sont les buts et les effets de cette construction des fils d'actualité?
La motivation qui dirige la construction de ces fils est clairement économique. Les critères exacts des filtrages réalisés sont souvent secrets, même si des fuites permettent quelquefois d'en savoir plus. Cela signifie que ce que vous voyez dans vos fils d'actualité n'est pas un reflet de la réalité, mais une vision déformée par un filtre économique. Et cette déformation est d'autant plus forte que votre environnement social est grand. Étant donné que les algorithmes piochent ce qu'ils vous montrent parmi les publications de vos contacts, plus vous suivez de gens, moins vous maîtrisez ce que vous voyez dans vos fils.
En quoi cela peut-il influencer l'information reçue en période électorale?
Dans Toxic Data, je reprends l'expérience menée par le journaliste Mat Honan. Un jour, celui-ci a décidé de liker tout ce qu'il voyait sur Facebook. Non seulement il s'est retrouvé à recevoir plein de contenus horribles en moins de 48 heures, mais son expérience a eu pour effet collatéral d'influencer les fils d'actualité de ses propres contacts. Sans rien avoir demandé, ceux-ci ont commencé à recevoir des suggestions de contenus qu'ils n'auraient pas eues autrement. Infiltrer les réseaux sociaux de cette manière est une technique connue.
«Si la publication est faite pour créer une émotion, on peut se demander s'il n'y a pas une intention derrière.»
Des entités politiques, le Kremlin par exemple, ou des intérêts économiques, peuvent tout à fait créer des comptes d'apparence anodine, se glisser dans les contacts des uns et des autres, pour, le moment venu, se mettre à diffuser des tas de messages qui vont dans le même sens, que ce soient de fausses informations ou des incitations à voter ou non. À ce moment-là, de votre côté, vous verrez votre fil d'actualité changer imperceptiblement mais vous aurez du mal à discerner si le sujet est représentatif de ce que pensent vos amis ou le seul résultat de quelques comptes très actifs auxquels vous êtes connectés. C'est une manière de détourner les algorithmes des plateformes pour faire de l'influence sociale.
Que recommander aux citoyens qui souhaitent s'armer contre les manipulations algorithmiques?
Premier point, on peut se demander si on connaît vraiment les gens dont on voit les messages passer dans notre fil d'actualité. Ensuite, on peut chercher la source de la publication qui nous intrigue –généralement, sur internet, si l'information est légitime, on en retrouve la source. Autre point, si la publication est faite pour créer une émotion, on peut se demander s'il n'y a pas une intention derrière, car on sait que l'appel à l'émotion est un élément très efficace en ligne.
Or, au long terme, c'est une forme de conditionnement. Si on vous montre de manière très récurrente une personnalité politique associée à une représentation négative, même si c'est injustifié, vous aurez de plus en plus de mal à envisager cette personne sous un jour positif. L'effet induit, c'est aussi que cela vous coupe de votre rationalité, ce qui peut avoir un vrai effet le jour d'une élection.
Ce biais d'émotion a été utilisé aux États-Unis pour pousser certaines populations à l'abstention. Pouvez-vous expliquer le mécanisme à l'œuvre dans ces cas-là?
Dans une élection qui oppose A à B, vous avez trois manières d'influencer le vote pour faire élire A. Vous pouvez promouvoir A, vous pouvez dénigrer B, ou vous pouvez faire en sorte que les soutiens de A aillent voter et ceux de B, moins. Au niveau individuel, l'abstention peut être rationalisée: vous n'aimez pas A, on vous dégoûte de B, donc aucun des deux ne vous paraît intéressant, pas la peine d'aller voter. Mais ce qu'on ne voit pas, c'est que cette décision peut être volontairement biaisée pour qu'un camp s'abstienne plus que l'autre. En ce moment par exemple, sur les réseaux, on voit beaucoup d'appels à l'abstention du côté de La France insoumise et beaucoup d'appels à aller s'inscrire sur les listes électorales du côté de Reconquête et de l'extrême droite.
«Toutes les ficelles utilisées pour l'élection de Donald Trump ou de Jair Bolsonaro sont visibles aujourd'hui en France.»
Ce qui est inquiétant, et que j'explique dans Toxic Data, c'est que toutes ces ficelles utilisées pour l'élection de Donald Trump ou de Jair Bolsonaro sont visibles aujourd'hui en France –que ce soit la question de l'abstention, les déclarations sur la nature truquée des élections, sur les idées type «les fonctionnaires de l'État endoctrinent nos enfants», etc.
Si on prend du recul, y a-t-il des communautés politiques qui s'adonnent plus que d'autres à la manipulation des discours en ligne?
Clairement, l'astroturfing [fait de créer artificiellement l'illusion d'une foule de gens intéressés par un même sujet, en coordonnant un grand nombre de comptes ou en recourant à des robots, ndlr] tel qu'on le mesure est plus le fait de l'extrême droite, surtout depuis l'entrée d'Éric Zemmour dans la campagne. Ils ont bien compris que c'était une manière de sortir de leur microcosme en arrivant dans les tendances, dans les fils d'actualité, etc. Ils ne s'en cachent pas, ils expliquent qu'ils se coordonnent pour faire monter des sujets en tendance, mais dans les faits, c'est utiliser des failles des algorithmes de Twitter pour faire croire à un mouvement de foule.
D'ailleurs, il y a une espèce de double dynamique qui consiste d'une part à tromper les algorithmes et les utilisateurs des réseaux, et d'autre part, grâce à la première étape, à tromper les journalistes qui regardent les tendances Twitter, pensent que beaucoup de gens s'intéressent, par exemple, à #LesFemmesAvecZemmour, en font un article et donc réalimentent la machine.
Vos cartographies vous permettent aussi d'avoir une idée du poids de chaque communauté politique en ligne. Que constatez-vous exactement?
En cinq ans, on observe un vrai déplacement du centre de gravité politique français sur Twitter vers l'extrême droite, avec l'émergence de deux grosses communautés autour de Reconquête (Éric Zemmour) et d'un mélange de discours anti-pass / anti-vaccins autour de Florian Philippot. En parallèle, on voit aussi un rétrécissement des communautés militantes des deux partis historiques que sont le Parti socialiste et Les Républicains.
Nouvelle brève @Politoscope2022 : la twittosphère politique du 1er tour. ça va chauffer aux extrêmes !https://t.co/lUJ08cHnoK pic.twitter.com/ZeSQdQ3eWj
— David Chavalarias (@chavalarias) April 6, 2022
Ça reste des communautés numériques de l'ordre de 100.000 personnes, donc ce n'est pas énorme. Mais il y a un pouvoir d'influence non négligeable sur les réseaux. La communauté autour de Florian Philippot (et François Asselineau, Nicolas Dupont-Aignan) n'est pas négligeable parce qu'au fil de ses années de militantisme, il a permis un passage entre l'extrême gauche et l'extrême droite qui pourrait jouer dans les reports du second tour.
Parmi les recommandations que vous faites dans votre essai, il y a des outils pour les citoyens, que nous avons déjà un peu évoqués, mais aussi des recommandations pour le collectif. Vous militez, en particulier, pour passer au mode de scrutin au jugement majoritaire. La transformation numérique a-t-elle rendu le mode de scrutin actuel définitivement obsolète à vos yeux?
Le mode de scrutin utilisé en France est mauvais depuis longtemps. On a eu l'opposition Le Pen-Chirac en 2002 alors que Jospin était donné gagnant contre les deux, ce type de configuration s'est reproduit à plusieurs reprises… Le problème est qu'en l'état, si un candidat A est donné gagnant contre tous les autres, vous introduisez un candidat C qui n'a quasiment pas de chance de gagner mais qui prendra des voix à A, résultat c'est B qui gagne, alors que celui-ci n'est pas le plus plébiscité. Le fait même que dans la campagne actuelle on parle de voter utile dès septembre, c'est qu'il y a un problème.
Là-dessus s'ajoute le numérique, qui amplifie les failles du modèle actuel. Si vous avez un candidat à 30%, un à 25% et toutes les autres à 10%, le scénario du deuxième tour est assez clair. En revanche, si comme en 2017 vous avez trois candidats à 15%, le passage de l'un ou de l'autre au second tour se fait quasiment au hasard. Les réseaux sociaux rendent aussi les campagnes très hostiles: jusqu'au premier tour, tout le monde se tape dessus, puis au deuxième, vous êtes censé voter pour quelqu'un que vous avez appris à détester.
Résultat, vous ne votez pas ou un peu au hasard. C'est pour ça qu'il faut trouver un meilleur mode de scrutin. À mon sens, le jugement majoritaire est le meilleur pour plein de raisons, mais notamment parce que l'arrivée d'un candidat «disruptif» ne viendra pas changer le jugement porté sur la qualité des programmes des autres.
Toxic Data – Comment les réseaux manipulent nos opinions
David Chavalarias
Éditions Flammarion
Paru le 2 mars 2022
300 pages
19 euros