Tech & internet

La reconnaissance faciale est stupide (et voici comment la duper facilement)

Temps de lecture : 3 min

Vous ne le saviez pas, mais dessiner avec du maquillage de carnaval peut faire de vous un redoutable pirate informatique pour les logiciels de reconnaissance faciale. À vrai dire, cette nouvelle n’a rien de réjouissant, elle est même singulièrement inquiétante.

L’intelligence artificielle, et plus particulièrement la reconnaissance visuelle, est la nouvelle marotte des géants du web. Dans sa prochaine mise à jour iOS 10, Apple a par exemple ajouté une fonction qui regroupera automatiquement les photos d’une personne précise présente sur les clichés, mais aussi les paysages, objets ou thèmes. La firme à la pomme a par ailleurs racheté en janvier 2016 la start-up Emotient, qui analyse «l’état émotionnel» d’un individu en fonction des expressions de son visage. Facebook a intégré en 2015 la reconnaissance faciale à Moments afin de regrouper des photos d’utilisateurs selon les participants à un événement précis. Snapchat, Microsoft et Google ont eux aussi développé des logiciels d’analyse d’image.

D’après leurs promoteurs, ces programmes réalisent des performances incroyables. FaceNet, le logiciel de Google, se vante ainsi de taux de réussite de 99,36%. Une start-up russe, NTechLab, affirme pouvoir identifier instantanément n’importe quel individu dans la rue avec un taux de réussite de 70%.

Un robot... qui fait des erreurs de robot

Sauf que l’intelligence artificielle est aussi capable d’erreurs. Et parfois d’erreurs grossières. En avril dernier, le logiciel de Microsoft Captionbot, censé décrire les objets et personnes sur une photo en langage naturel, est devenu la risée des internautes en confondant Michelle Obama avec un smartphone ou «The Dress» en «chat portant une cravate». La reconnaissance faciale serait aussi faiblarde en cas de mauvais éclairage ou pour les enfants.

Mais voilà qu’une nouvelle étude vient semer encore plus le trouble. D’autant plus qu’elle n’émane pas d’internautes taquins, mais des chercheurs de Google et d’OpenAI –une des start-up d’intelligence artificielle les plus en vue, soutenue par Elon Musk– eux-mêmes. Qu’y apprend-on? Qu’une simple altération de quelques pixels d’une image, imperceptible à l’œil nu, peut complètement duper le système.

Les chercheurs ont pris des photos avec leur smartphone et les ont envoyées dans le système de reconnaissance visuelle ImageNet Inception, développé par ImageNet pour Google. En ajoutant un léger «bruit», un peu de flou ou en imprimant puis scannant les photos en Jpeg, ils aboutissent à des erreurs de classification allant jusqu’à 97% des cas. «Il serait possible de vous faire passer pour quelqu’un d’autre simplement en dessinant des points noirs sur votre visage», avance Alexey Kurakin, un des auteurs de l’étude, au site Wired. Trop voyant? Certaines marques invisibles à l’œil nu peuvent produire le même effet. Une sorte de «maquillage frauduleux».

Même pour des altérations mineures (ε = 4), le système classe la photo de façon incorrecte.

Une technologie censée assurer notre sécurité

Toutes ces révélations sont relativement inquiétantes. Car la reconnaissance faciale n’est pas uniquement destinée à nos photos de vacances. Elle sert de plus en plus de passeport biométrique, au même titre que les mots de passe ou les empreintes digitales. Aux États-Unis, Google expérimente par exemple une application de paiement par reconnaissance faciale, Hands Free («mains libres»). Certains entreprises l’utilisent pour filtrer leurs employés à l’accueil.

Tous les systèmes reposant sur l’apprentissage de la machine (ce que l’on appelle le «Deep Learning») sont susceptibles d’être détournés

Elle intéresse aussi de près les services de renseignements et de police. La start-up israélienne Faception a ainsi annoncé en mai être capable d’identifier des terroristes «avec une justesse de 80%» simplement en filmant et analysant leur comportement et les traits de leur visage. En France, deux propositions de loi ont été déposées à l’Assemblée nationale et au Sénat visant à autoriser les forces de l’ordre à utiliser des logiciels de reconnaissance faciale pour l’analyse des images obtenues par les caméras de vidéosurveillance.

Toute «l’intelligence» derrière ces logiciels doit être remise en cause

Encore plus inquiétant: tous les systèmes reposant sur l’apprentissage de la machine (ce que l’on appelle le «Deep Learning») sont susceptibles d’être détournés. Le «Bot» de Microsoft, converti au racisme et à l’homophobie en quelques jours après le torpillage en règle de quelques internautes sur Twitter, en a donné un triste exemple en mars 2016. Or, de plus en plus de tâches dans les entreprises sont automatisées grâce à des algorithmes.

Prenez le trading par exemple. Plus de la moitié des ordres de bourse sont déjà passés par des robots, en fonction de seuils, de résultats passés et d’analyses sophistiquées. L’algorithme, qui s’enrichit chaque jour en nouvelles données, est ainsi censé devenir de plus en plus fin et pertinent au fil du temps. Pourtant, cette super intelligence artificielle est déjà détournée par des compagnies financières, d’après Ian Goodfellow, un autre chercheur de l’étude cité par Wired.

«Il leur suffit de passer quelques ordres bidon spécialement conçus pour faire croire qu’une action est à un prix inférieur au prix réel et ensuite la racheter à bas coût», explique-t-il.

Alors que faire? Jeter à la poubelle l’intelligence artificielle? Impossible, car elle remplit des missions infaisables par un être humain normalement constitué. Comment imaginer surveiller des milliers de caméras de surveillance en même temps pour y détecter un mouvement anormal, ou trier des centaines de milliers de visages à un aéroport? La solution, selon nos chercheurs de Google: encore plus d’intelligence artificielle. On pourrait par exemple inclure les «faux» dans la machine, pour qu’elle apprenne à les reconnaitre. Peut-être. Ou peut-être pas.

Newsletters

Comment la Russie tente d'isoler son internet du reste du monde

Comment la Russie tente d'isoler son internet du reste du monde

Une nouvelle composante de la navigation sur internet est sur le point d'être criminalisée en Russie.

Après l'assassinat de Samuel Paty, repenser l'école et combattre l'anonymat

Après l'assassinat de Samuel Paty, repenser l'école et combattre l'anonymat

[TRIBUNE] Sur internet, l'anonymat permet de se soustraire à la responsabilité individuelle.

Google vous permet enfin de retrouver une chanson juste en la fredonnant

Google vous permet enfin de retrouver une chanson juste en la fredonnant

Vous n'avez même pas besoin de savoir chanter.

Newsletters