Société / Tech & internet

WhatsApp accusé d'abriter des groupes d'échange de matériel pédopornographique

La plateforme n'arrive pas à modérer ses contenus.

L'application ne dispose que de 300 salariés | Rachid Tank via Unsplash CC <a href="https://unsplash.com/photos/lZBs-lD9LPQ">License by</a>
L'application ne dispose que de 300 salariés | Rachid Tank via Unsplash CC License by

Temps de lecture: 2 minutes - Repéré sur Intelligencer, Business Insider

WhatsApp est désormais l’un des services de messagerie les plus populaires du monde. L’application compte plus d’1,5 milliard d’utilisateurs et d'utilisatrices et plusieurs dizaines de millions de messages envoyés chaque jour. D’après le Financial Times (article payant), elle serait aussi un gigantesque marché d'images pédopornographiques.

En septembre, les organisations à but non lucratif israéliennes Netivei-Reshet et Screensaverz ont prévenu Facebook (qui détient WhatsApp) qu’elles avaient identifié un groupe de chat comptant 256 membres dédié à l’échange d’images d’abus d’enfants. Groupe qu’elles avaient trouvé assez facilement, en utilisant des mots clés ou des avatars de photos explicites.

Trois mois plus tard, le Financial Times assure que le groupe est toujours bien actif, malgré le signalement. S'il y a des failles aussi béante dans la modération du service de messagerie, ce serait en partie à cause de son tout petit effectif.

WhatsApp n’ y emploie en effet que 300 personnes en tout, sans que l’on sache exactement combien sont chargées de la modération du contenu produit chaque jour par son milliard et demi de fans. À titre de comparaison, Facebook dispose d’équipes de plusieurs milliers de personnes dédiées à cette seule tâche.

Messages cryptés

La raison pour laquelle il est difficile de modérer le contenu de la plateforme est que depuis 2016, les messages sont cryptés de manière à ce que ni les gouvernements ni l’application elle-même ne puisse lire vos messages.

Pour compenser, WhatsApp assure disposer de «techniques» pour scanner le contenu illégal et bannir automatiquement les utilisateurs et utilisatrices qui contreviennent aux règles de la plateforme. Elle assure même que leur intelligence artificielle bannit «des milliers de comptes par jour».

Pourtant, la manière dont les recherches israéliennes ont réussi à mettre la main sur le contenu pédopornographique est simplement en tapant le mot clé «cp», l’abréviation de «child pornography».

cover
-
/
cover

Liste de lecture