Tech & internet / Monde

Un logiciel de détection des émotions aurait été testé sur les Ouïghours

Un ingénieur qui témoigne anonymement affirme avoir travaillé sur ce dispositif s'apparentant à un détecteur de mensonges mais en beaucoup plus élaboré.

Une manifestation en soutien aux Ouïghours, le 16 avril 2021 à Washington. | Drew Angerer / Getty Images North America / AFP
Une manifestation en soutien aux Ouïghours, le 16 avril 2021 à Washington. | Drew Angerer / Getty Images North America / AFP

Temps de lecture: 2 minutes - Repéré sur BBC

Ce serait une nouvelle preuve de l'oppression des Ouïghours. Alors que les citoyens de la région du Xinjiang, majoritairement des membres de cette minorité musulmane, font l'objet d'une surveillance quotidienne depuis des années et que plus d'un million de Ouïghours ont été détenus dans des camps de rééducation, les autorités chinoises seraient allées encore plus loin, selon des informations de la BBC.

Un système de caméra utilisant l'intelligence artificielle (IA) et la reconnaissance faciale pour révéler les émotions aurait été testé sur cette minorité. Un ingénieur du logiciel en question affirme au média britannique, sous couvert d'anonymat, avoir installé ce dispositif dans des postes de police de la province du Xinjiang. S'il n'a pas indiqué pour quelle entreprise il travaillait, le scientifique a fourni cinq photos de détenus ouïghours sur lesquels, selon lui, cette technologie aurait été testée.

«Nous avons placé la caméra de détection des émotions à 3 mètres du sujet, explique-t-il. Elle est similaire à un détecteur de mensonges, mais sa technologie est beaucoup plus avancée.» Ce système d'IA serait formé pour détecter et analyser des changements, même infimes, dans les expressions faciales et les pores de la peau, selon ses dires.

Des preuves choquantes

Lors de l'examen, les individus auraient été placés sur des «chaises de contrainte», largement utilisées dans les postes de police du pays, où les poignets et chevilles «sont bloqués par des attaches métalliques». Le logiciel, lui, créerait un diagramme circulaire, dont la partie rouge représenterait un état d'esprit négatif ou anxieux, détaille l'ingénieur.

Ces preuves sont jugées choquantes par Sophie Richardson, la directrice de l'ONG de défense des droits de l'homme Human Rights Watch en Chine. Selon elle, les Ouïghours vivent dans des circonstances tellement coercitives et sous pression, qu'ils «sont naturellement nerveux et cela est pris comme une indication de culpabilité», ce qui est très problématique.

De son côté, l'ambassade de Chine à Londres n'a pas répondu aux questions de la BBC concernant l'utilisation de logiciels de reconnaissance des émotions dans la province, mais affirme que les droits politiques et sociaux de tous les groupes ethniques sont garantis. «Les gens vivent en harmonie, quelle que soit leur origine ethnique, et jouissent d'une vie stable et paisible, sans restriction à la liberté individuelle», indique l'ambassade.

Ce n'est pas la première fois que la Chine est accusée d'utiliser l'intelligence artificielle contre cette minorité musulmane. En lien avec certaines entreprises technologiques chinoises, le pays se servirait de la technologie de reconnaissance faciale pour identifier les Ouïghours, précise l'article.

cover
-
/
cover

Liste de lecture