Tech & internet

YouTube est pire que Facebook ou Twitter en matière de fake news

Régulièrement à la traîne lorsqu'il s'agit de lutter contre la désinformation, la plateforme vidéo de Google a mis des mois à interdire le complotisme anti-vaccins.

Photo d'une tablette connectée à YouTube, prise le 5 octobre 2021 à Toulouse. | Lionel Bonaventure / AFP
Photo d'une tablette connectée à YouTube, prise le 5 octobre 2021 à Toulouse. | Lionel Bonaventure / AFP

Temps de lecture: 3 minutes

Fin septembre, YouTube a annoncé une évolution majeure dans sa façon de traiter les contenus présentant un risque pour la santé publique: la plateforme interdit désormais la désinformation liée à tout vaccin approuvé par les autorités sanitaires locales et l'Organisation mondiale de la santé.

Les règles de YouTube en matière de désinformation médicale interdisaient déjà auparavant la promotion de traitements nocifs non testés et les fausses allégations au sujet du Covid-19, mais la filiale de Google affirme que la pandémie l'a incitée à examiner de plus près les contenus anti-vaccins en général. «Nous avons pu constater de manière répétée que la désinformation au sujet des vaccins contre le coronavirus finit régulièrement par céder la place à de la désinformation sur les vaccins en général. Et nous sommes aujourd'hui arrivés à un point où il est plus important que jamais d'étendre aux autres vaccins ce travail que nous avons fait avec celui pour le Covid-19», a-t-on pu lire dans le post de blog de la société expliquant sa décision.

Parmi les désinformations que YouTube ciblera désormais, il y aura les liens entre l'autisme et les vaccins, les micropuces cachées dans les vaccins et, en général, tous les contenus affirmant que les vaccins sont dangereux et inefficaces. En plus de ces nouvelles règles, YouTube a décidé de suspendre les comptes d'éminents militants antivax tels que Robert F. Kennedy Jr., Joseph Mercola et Sherri Tenpenny.

C'est une initiative importante et elle a été applaudie par les experts de la santé publique. Toutefois... il y a comme un problème de timing.

La plus grande plateforme de vidéos était sortie des radars

Facebook a annoncé la mise en place de sa propre politique de censure des désinformations (que réclamaient chercheurs et militants depuis des années) en février 2021. Twitter a fait de même en mars. Et même si YouTube a fini par annoncer cette mesure à son tour, la société a fait savoir sur son blog que «comme toujours avec les changements importants, il faudra du temps avant que nos systèmes ne prennent totalement en compte la modification».

YouTube étant, de loin, la plus grande plateforme de vidéos sur internet, c'est un élément majeur de l'écosystème antivax, puisqu'elle sert à héberger de nombreuses vidéos de désinformation qui se répandent ensuite comme des traînées de poudre sur Facebook et Twitter. Durant la pandémie, plusieurs critiques ont laissé entendre que YouTube semblait échapper à la vigilance des discours publics contre la désinformation antivax, par exemple, quand Joe Biden a laissé entendre en juillet que Facebook jouait un rôle majeur dans les réticences des Américains à se faire vacciner.

Il est vrai qu'il peut paraître difficile de repérer les désinformations de ce type sur YouTube car elles prennent souvent la forme de déclarations isolées à l'intérieur de longues vidéos. Il est beaucoup plus facile de repérer des morceaux de texte anti-vaccins qui apparaissent sur Facebook ou Twitter. Mais, en même temps, certains des comptes que YouTube a interdits dernièrement comptaient des dizaines de milliers d'abonnés et enregistraient des millions de vues. Ils ne pouvaient clairement pas être passés inaperçus aux yeux de YouTube.

De nombreux précédents

Ce n'est pas la première fois que YouTube rate le coche en ce qui concerne les problèmes de désinformation. En 2020, par rapport à Facebook et Twitter, YouTube avait abordé de manière plutôt détachée le problème de la désinformation autour de l'élection présidentielle. La plateforme n'a commencé à prendre des mesures contre les vidéos trompeuses parlant de fraude électorale qu'un mois après l'élection, soit après la date du «safe harbor», à laquelle les résultats doivent être certifiés et les litiges réglés.

Pendant l'élection, YouTube avait choisi d'accoler des étiquettes d'information à toutes les vidéos relatives aux résultats des votes, qu'il s'agisse ou non d'informations fiables. Facebook et Twitter, quant à eux, avaient décidé d'indiquer que certains contenus particuliers relevaient de la désinformation et de limiter la diffusion de certains contenus trompeurs.

YouTube fut aussi la dernière grosse plateforme à désactiver le compte de l'ancien président Donald Trump à la suite de l'invasion du Capitole par ses partisans le 6 janvier –et sans doute la moins sévère dans ses sanctions. Alors que les autres plateformes ont soit définitivement banni Trump, soit précisé la durée de sa suspension, YouTube a simplement déclaré que l'ancien président serait à nouveau autorisé à poster lorsque le risque de violences se serait estompé (ce qui signifie que YouTube pourrait être, dans un avenir immédiat, sa meilleure chance de revenir sur les réseaux traditionnels).

Autre exemple: à l'automne 2020, YouTube a rendu publique sa politique de lutte contre les théories complotistes de QAnon, soit une semaine après Facebook et des mois après Twitter. Et même à ce moment-là, la politique de YouTube était loin d'être aussi stricte que celles des autres grandes plateformes. Tandis que Facebook a carrément interdit les comptes et les groupes liés à QAnon, YouTube n'a pas réussi à chasser totalement le mouvement de sa plateforme et l'entreprise s'est montrée relativement conciliante envers ce qu'elle qualifie de contenu «borderline».

Il est à noter que Susan Wojcicki, la présidente de YouTube, n'a pas non plus eu à se présenter devant le Congrès pour répondre à des questions sur la désinformation dans les médias sociaux, comme l'ont fait Mark Zuckerberg et Jack Dorsey, les PDG de Facebook et Twitter. Certes, son supérieur, Sundar Pichai, patron de Google, est bien passé devant les parlementaires américains, mais les experts et les journalistes auraient aimé que Wojcicki explique elle-même au Congrès l'approche de YouTube. Il semblerait qu'il y aurait eu beaucoup de choses à expliquer.

cover
-
/
cover

Liste de lecture