Médias / Tech & internet

Fake news: YouTube sort du déni, mais est encore loin d'avoir résolu le problème

La plateforme de vidéos en ligne admet seulement depuis peu qu’elle contribue à diffuser des fausses informations. Et pour l’instant, elle semble ne pas du tout savoir comment y remédier.

Pour lutter contre les fake news, YouTube est dans le brouillard. | Capture écran via YouTube
Pour lutter contre les fake news, YouTube est dans le brouillard. | Capture écran via YouTube

Temps de lecture: 7 minutes

Dès sa fondation ou presque, Twitter s’est considéré comme une plateforme d’information. Les grands moments de son histoire incluent notamment le printemps arabe et le tremblement de terre de 2011 sur la côte est des États-Unis.

Facebook a pour sa part affirmé dès 2013 son intention de devenir une sorte de «journal personnalisé», avant de s’apercevoir que séparer les vraies informations de la propagande était plus difficile que ses dirigeants ne l’avaient pensé.

Les deux sociétés ont consacré une bonne partie de leur emploi du temps de l’année dernière à reconnaître qu’elles avaient contribué à propager de fausses informations, à permettre des ingérences dans les élections et à alimenter l’extrémisme et les divisions sociétales.

Face à ses responsabilités

Jusqu’à récemment, YouTube avait réussi à passer au travers des gouttes, évitant la plupart des critiques auxquelles les autres médias sociaux avaient dû faire face. En conséquence, la plateforme de Google a mis beaucoup de temps à assumer les implications de son rôle de source d’informations –et, inévitablement, de désinformation.

En octobre dernier, lors d’une série d’auditions devant le Congrès américain, Google a minimisé le rôle joué par YouTube dans les interférences électorales russes, tandis que Facebook et Twitter devaient affronter les questions les plus difficiles.

Désormais, une série de controverses forcent YouTube à faire face à ses responsabilités de manière plus franche et plus directe que par le passé. Lors de la conférence interactive South by Southwest, qui a eu lieu du 9 au 13 mars à Austin, au Texas, l’apparition de sa PDG Susan Wojcicki a montré que la plateforme réfléchit désormais sérieusement à la qualité et à la véracité des informations que ses utilisateurs reçoivent. Elle a aussi clairement établi que la société a beaucoup de retard à rattraper.

En janvier dernier, le youtubeur star Logan Paul a déclenché une importante polémique en publiant une vidéo montrant le cadavre d’une personne qui s’était apparemment suicidée au Japon. Google a réagi en annulant la monétisation des vidéos de Logan Paul et en suspendant ses projets pour son service payant de vidéo, YouTube Red.

L'incident est survenu alors que l'entreprise faisait déjà face à une série de révélations sur des dessins animés apparemment destinés aux enfants, mais très perturbants –YouTube en a effacé 150.000– et sur un autre genre de vidéos représentant des enfants dans des situations de maltraitance. Ces dernières ont poussé la société à embaucher des milliers de modérateurs supplémentaires afin de passer en revue les contenus susceptibles d’enfreindre les règles du site.

Plan contre les vidéos conspirationnistes

Il est pourtant devenu évident que les problèmes de la plateforme ne résultent pas d’un simple manque de main-d’œuvre: ils résultent d’une confusion de l’entreprise sur la nature de son activité et sur l’étendue de ses responsabilités.

«@SusanWojcicki “Si un évènement d'actualité se produit, nous voulons être en mesure de délivrer la bonne information.” Quelques minutes plus tard, elle affirme: “nous ne sommes pas un média.”»

En février dernier, les algorithmes de YouTube ont mis en avant des vidéos conspirationnistes attaquant les enfants qui avaient survécu au massacre de l’école de Parkland. Ce mois-ci, l’influent théoricien conspirationniste Alex Jones a affirmé que YouTube était sur le point d’effacer sa chaîne –ce que la société a démenti.

Dans un article écrit pour le New York Times, la spécialiste des nouvelles technologies Zeynep Tufekci a qualité YouTube de «grand radicalisateur», en expliquant de quelle manière ses algorithmes de recommandation conduisent les utilisateurs lambda vers des niches extrémistes.

À South by Southwest, Susan Wojcicki s’est présentée avec un nouveau plan pour contrer les vidéos conspirationnistes sur YouTube. Les réactions qu’il a suscitées laissent penser qu’elle n’était pas encore assez préparée.

Présentant des captures de vidéos YouTube répandant des théories conspirationnistes sur les chemtrails ou les premiers pas de l’homme sur la Lune, Wojcicki a affirmé que YouTube allait commencer à afficher des «contrepoints informatifs» issus de Wikipédia pour accompagner les clips de ce genre. Ces informations apparaîtront sous forme de petits blocs de texte, directement affichés sous la vidéo. Afin de déterminer quelles vidéos nécessiteront ce type de contrepoints, YouTube s’appuiera sur la liste propre à Wikipédia des théories conspirationnistes les plus connues –sa PDG a ajouté que YouTube pourrait étendre cette liste avec le temps.

Ce fut une surprise pour la Wikimedia Foundation, l’organisation à but non lucratif qui gère Wikipédia. «Nous n’avions pas été prévenus à l’avance de cette annonce», a déclaré la fondation le lendemain, ajoutant qu’il n’existait aucun partenariat officiel entre Wikipédia et YouTube.

Sans exprimer publiquement d’objection à ce que YouTube utilise ses services, elle a souligné que le fonctionnement de Wikipédia reposait uniquement sur les dons et le travail d’éditeurs non rémunérés, et que la fondation «ne contrôle pas les contenus, ni ne prend de décision éditoriale sur les informations publiées sur Wikipédia».

En d’autres termes, une société estimée à 800 milliards de dollars –que l’on peut sans doute considérer comme la première source d’information au monde– externalise la lutte contre la désinformation sur sa plateforme en la confiant à une organisation à but non lucratif reposant sur le bénévolat… sans même prendre la peine de l’en informer.

Wikipédia, une mauvaise piste

YouTube aurait pu mieux gérer l'annonce, mais il n’est de toute façon pas certain que les textes de Wikipédia pourront vraiment résoudre son problème. Cette approche est vaguement similaire à celle que commença à déployer Facebook en décembre 2016 pour lutter contre les fake news, avant de revenir sur sa première méthode, de peur que cela ne se retourne contre l’entreprise –ce avec quoi tout le monde n’est pas d’accord.

Après une année entière de recherches, de tests, d’essais et d’erreurs, peu d’éléments semblent démontrer que les efforts du réseau social aient vraiment permis d’empêcher la diffusion de fausses informations. C’est l’une des raisons pour lesquelles Facebook a simultanément tenté plusieurs autres solutions pour améliorer la qualité et la crédibilité des informations sur sa plateforme –certaines étant plus prometteuses que d’autres.

L’un des problèmes les plus flagrants du plan de YouTube est que la plateforme semble bien mal équipée pour gérer les théories conspirationnistes, qui apparaissent très rapidement dans le sillage d’évènements majeurs, comme la tuerie de Parkland.

Ces «memes» –tels que celui qui avait qualifié le survivant de Parkland David Hogg de «comédien de crise»– sont susceptibles de faire le tour de YouTube bien avant de pouvoir être «débunkés» sur Wikipédia, et encore plus avant de rejoindre la liste des fausses informations célèbres. Malgré la présence modérateurs humains, certaines de ces théories conspirationnistes sont arrivées au sommet de la liste des vidéos les plus en vogue sur YouTube, et ont ainsi pu être vues des millions de fois avant d’être retirées.

Autre souci: comme toute autre plateforme reposant sur le public pour produire et modérer son contenu, Wikipédia n’est pas à l’abri des trolls et des propagandistes. Elle le sera encore moins, maintenant que les gens savent que c’est Wikipédia qui possède les clés de l’appareil de débunkage de YouTube. L’un des principaux contributeurs de Wikipédia a d’ailleurs rapidement fait savoir que les problèmes de la plateforme face à la désinformation étaient bien trop profonds pour pouvoir être résolus par «une encyclopédie mise à jour de manière irrégulière».

Incapables de trier les sources d'information

Le même 13 mars où Susan Wojcicki a annoncé sa grande réforme à Austin, un porte-parole de YouTube a expliqué à Vice News que sa société ne savait absolument pas comment, la veille, une vidéo d’InfoWars relayant une théorie complotiste sur les colis piégés d’Austin était apparue parmi les plus demandées. La vidéo d’InfoWars affirmait, sans preuve, que le mouvement antifa était l’un des «principaux suspects» des explosions.

Dans le même entretien, si l’on en croit les tweets de Ryan Mac, de BuzzFeed News, le rédacteur en chef de Wired Nick Thompson a demandé à Wojcicki comment YouTube décidait quelles sources d’information pouvaient être considérées comme fiables. Wojcicki a refusé d’entrer dans les détails, se contentant de dire qu’«il y a généralement des algorithmes compliqués» –le type d’explication vague que Facebook a utilisé pendant des années avant que le public ne cesse d’y croire. Elle a toutefois laissé entendre que YouTube prend en compte le «nombre de récompenses journalistiques» et le «volume du trafic» dont disposent certains éditeurs de contenu.

Si cela est vrai, ce sont des moyens affreusement rudimentaires et extrêmement amateurs –au moins autant que l’enquête de confiance très moquée qu’a menée Facebook sur les éditeurs de contenus.

Pas au bout de ses peines

Il semblerait donc que YouTube n’en soit qu’au début du processus d’évolution que Facebook, suite aux critiques –venant parfois de ses propres employés, a été contraint d’entreprendre presque immédiatement après l’élection de 2016.

Cette évolution inclura sans doute l’apprentissage d’une certaine humilité: le mois dernier, Susan Wojcicki a lancé une pique contre Facebook à l’occasion d’une conférence de presse en Californie, disant que le réseau social «devrait revenir aux photos de bébés» –une manière de dire que Facebook était incapable de gérer les hautes responsabilités d’une grande plateforme d’actualité. On pourrait aujourd’hui se moquer de YouTube de la même façon: il suffirait de remplacer la référence aux photos de bébés par des vidéos de chatons.

En réalité, aucune de ces plateformes ne reviendra à l’innocence de ses premières années. Pour le meilleur ou pour le pire, les médias sociaux se sont positionnés comme source principale d’information pour une grande partie de la population, les jeunes générations en tête.

YouTube, Facebook et Twitter sont dans l’obligation de trouver un moyen pour mieux informer leurs utilisateurs. Les excuses comme celles utilisées par Richard Salgado, de Google, devant le Congrès américain en octobre dernier –il avait expliqué que l’entreprise était une «plateforme technologique» et n’avait par conséquent rien à voir avec l’actualité–ne sont plus valables.

Il est bon que YouTube commence enfin à reconnaître son problème. La prochaine étape pour la plateforme de vidéos sera de comprendre qu’il ne sera pas facile à régler et qu’il ne suffira pas de poser quelques rustines pour s’en débarrasser.

Mark Zuckerberg a affirmé en janvier dernier qu’il avait compris que la résolution des problèmes de Facebook nécessiterait un effort long et soutenu. Le directeur général de Twitter, Jack Dorsey, a dit la même chose au début du mois. À en juger par les derniers commentaires de Susan Wojcicki, YouTube n’en est pas encore là.

cover
-
/
cover

Liste de lecture