Tech & internet

L'algorithme de YouTube recommande des vidéos qui violent son propre règlement

Temps de lecture : 2 min

Une enquête participative lancée par Mozilla montre que des vidéos mensongères, violentes ou haineuses sont recommandées par la plateforme.

12,2% des vidéos signalées n'auraient pas dû être hébergées sur la plateforme. | NordWood Themes via Unsplash
12,2% des vidéos signalées n'auraient pas dû être hébergées sur la plateforme. | NordWood Themes via Unsplash

Selon une nouvelle étude, l'algorithme de YouTube recommande des vidéos qui violent les règles de la plateforme en matière de contenu inapproprié. L'entreprise à but non lucratif Mozilla –concurrente de Google, qui possède YouTube– a proposé aux utilisateurs de son moteur de recherche (Firefox) d'installer l'extension RegretsReporter pour mener une enquête. Cette extension suit les contenus visionnés sur YouTube et, pour chaque vidéo, demande aux utilisateurs s'ils regrettent de l'avoir regardée.

Entre juillet 2020 et mai 2021, 37.380 utilisateurs ont identifié 3.362 vidéos qu'ils ont estimé «regrettables», soit 1% de toutes les vidéos regardées, précise NewScientist. L'équipe de recherche a ensuite visionné elle-même ces contenus et les a comparés aux directives de YouTube. Elle a découvert que 12,2% des vidéos signalées n'auraient pas dû être hébergées sur la plateforme ou ne devraient pas être recommandées par l'algorithme, a affirmé Mozilla.

70% des signalement concernaient des vidéos recommandées par l'algorithme de YouTube

Environ 20% des vidéos signalées relèvent de la désinformation, selon la définition établie par YouTube dans son règlement, et certaines propagent de fausses informations sur le Covid-19. Les contenus violents et les discours de haine figurent notamment parmi les autres vidéos signalées dans l'enquête. La plupart des contenus problématiques ont été suggérés aux utilisateurs par l'algorithme de YouTube. D'après léquipe de recherche, 70% des signalements concernaient des vidéos recommandées.

«Certains de nos résultats soulèvent parfois des questions très importantes et peuvent être vraiment préoccupants, a déclaré Brandi Geurkink, cadre chez Mozilla en Allemagne. Ce que nous avons découvert n'est que le sommet de l'iceberg.» Elle estime que le manque de transparence de YouTube sur son algorithme est «inacceptable».

Les vidéos qui ne sont pas en anglais sont 60% plus susceptibles d'être signalées. Un phénomène qui serait dû au fait que les algorithmes de YouTube sont créés sur des vidéos principalement anglophones. «Cela souligne la nécessité d'adopter un système de modération par pays. Il faut s'assurer que YouTube ait des modérateurs qui sachent ce qu'il se passe dans chaque pays», affirme Savvas Zannettou, du Max Planck Institute for Informatics en Allemagne.

«Le but de notre système de recommandation est de mettre en relation les utilisateurs avec du contenu qu'ils apprécient. Chaque jour, plus de 200 millions de vidéos sont recommandées uniquement sur la page d'accueil», a indiqué un porte-parole de YouTube. Le géant américain a ajouté avoir modifié son algorithme de recommandation l'année dernière, afin de réduire le visionnage de «contenu inapproprié» à moins de 1% de toutes les vidéos.

Newsletters

Mettez TOUT DE SUITE à jour votre iPhone

Mettez TOUT DE SUITE à jour votre iPhone

Et vos autres appareils Apple. Ceci n'est pas un exercice: NSO Group a encore frappé.

Ces fans de Sonic qui s'excitent sur ses versions pornos

Ces fans de Sonic qui s'excitent sur ses versions pornos

Eh oui, il est possible de fantasmer sur un hérisson fluo.

Données de santé partout, secret médical nulle part

Données de santé partout, secret médical nulle part

De l'otite bénigne au cancer métastasé, les informations médicales ne sont plus ces secrets que nous ne partageons qu'avec notre médecin et la Sécurité sociale.

Podcasts Grands Formats Séries
Slate Studio