Tech & internet

L'algorithme Facebook confond des hommes noirs avec des singes

Temps de lecture : 2 min

C'est loin d'être la première fois que des personnes non blanches sont victimes d'une reconnaissance faciale pas conçue pour eux.

quitting facebook, #deletefacebook | Book Catalog via Flickr CC License by
quitting facebook, #deletefacebook | Book Catalog via Flickr CC License by

«Voulez-vous voir plus de vidéos sur les primates?» C'est la suggestion effectuée par Facebook aux utilisateurs et utilisatrices ayant visionné une vidéo (mise en ligne par le Daily Mail en juin 2020) dans laquelle figurent des hommes noirs. À peine alerté, le réseau social a désactivé cette recommandation d'un racisme absolu, et dit mener une enquête en interne pour comprendre comment une telle erreur a pu être commise.

Interrogée ce vendredi par le New York Times, une porte-parole de Facebook a reconnu que cette suggestion automatique constituait une «erreur inacceptable» et a présenté ses excuses aux personnes ayant été offensées.

Ce n'est pas la première fois que Facebook commet ce genre d'erreur majeure. L'an dernier, dans la traduction automatique d'un texte birman en anglais, le président chinois Xi Jinping était qualifié de «Mr. S***hole» («M. Tr** du C*l»). Un problème de traduction automatique qui n'a concerné que Facebook, Google n'ayant pas rencontré de souci de ce genre.

Des conséquences importantes

À propos de Google, on rappelle néanmoins qu'en 2015, Google Images avait catégorisé des personnes noires en tant que gorilles. L'entreprise avait fini par présenter ses excuses et par réaliser un travail tout particulier sur des termes comme «gorille», «chimpanzé» ou «singe» afin que ce genre de faute ne se reproduise plus.

Inscrivez-vous à la newsletter de SlateInscrivez-vous à la newsletter de Slate

Les biais de reconnaissance faciale sont légion, rappelle le New York Times, puisque les algorithmes peinent aujourd'hui encore à reconnaître convenablement les personnes non blanches. Avec des conséquences parfois gravissimes. En 2020, Robert Julian-Borchak Williams était dénoncé par un algorithme de reconnaissance pour un vol qu'il n'avait pas commis, confondu avec un autre homme noir.

Newsletters

Une intelligence artificielle pour brasser la bière de ses rêves

Une intelligence artificielle pour brasser la bière de ses rêves

Et pour trouver des parades s'il vous manque des ingrédients.

Vous ne savez pas chercher l'amour

Vous ne savez pas chercher l'amour

Les critères les plus courants sur les sites de rencontres sont les moins prédictifs du bonheur amoureux.

Je suis influenceuse et je pense que les réseaux sociaux sont nocifs

Je suis influenceuse et je pense que les réseaux sociaux sont nocifs

Je gagne ma vie grâce à un système économique qui repose sur le mensonge et nuit à la santé mentale des jeunes.

Podcasts Grands Formats Séries
Slate Studio