«Voulez-vous voir plus de vidéos sur les primates?» C'est la suggestion effectuée par Facebook aux utilisateurs et utilisatrices ayant visionné une vidéo (mise en ligne par le Daily Mail en juin 2020) dans laquelle figurent des hommes noirs. À peine alerté, le réseau social a désactivé cette recommandation d'un racisme absolu, et dit mener une enquête en interne pour comprendre comment une telle erreur a pu être commise.
Interrogée ce vendredi par le New York Times, une porte-parole de Facebook a reconnu que cette suggestion automatique constituait une «erreur inacceptable» et a présenté ses excuses aux personnes ayant été offensées.
Ce n'est pas la première fois que Facebook commet ce genre d'erreur majeure. L'an dernier, dans la traduction automatique d'un texte birman en anglais, le président chinois Xi Jinping était qualifié de «Mr. S***hole» («M. Tr** du C*l»). Un problème de traduction automatique qui n'a concerné que Facebook, Google n'ayant pas rencontré de souci de ce genre.
Des conséquences importantes
À propos de Google, on rappelle néanmoins qu'en 2015, Google Images avait catégorisé des personnes noires en tant que gorilles. L'entreprise avait fini par présenter ses excuses et par réaliser un travail tout particulier sur des termes comme «gorille», «chimpanzé» ou «singe» afin que ce genre de faute ne se reproduise plus.
Les biais de reconnaissance faciale sont légion, rappelle le New York Times, puisque les algorithmes peinent aujourd'hui encore à reconnaître convenablement les personnes non blanches. Avec des conséquences parfois gravissimes. En 2020, Robert Julian-Borchak Williams était dénoncé par un algorithme de reconnaissance pour un vol qu'il n'avait pas commis, confondu avec un autre homme noir.