Life

Mon ordinateur pourra-t-il bientôt lire mes émotions?

Jean-Laurent Cassely, mis à jour le 18.10.2012 à 13 h 41

Nicole's Many Emotions / allyaubry via Flickr CC Licence By

Nicole's Many Emotions / allyaubry via Flickr CC Licence By

«Notre univers numérique est pour sa plus grande part consacré aux manières complexes d’exprimer nos émotions», explique Rosalind Picard, directrice de l’Affective computing research group au Media Lab du MIT. Son champ de recherche: l'«affective computing». Ou l'ensemble des techniques qui permettront à nos ordinateurs de lire nos émotions de manière à mieux y répondre.

Comme le résume le New York Times dans l'article qu'il consacre à l'affective computing, Rosalind Picard «a travaillé durant plus de deux décennies à la manière de traduire les émotions en “0” et en “1”, le langage des machines».

Un de ses premiers projets a été de fabriquer des lunettes pour les personnes atteintes du syndrome d’Asperger, une forme d’autisme modérée, pour les prevenir du moment où ils commençaient à ennuyer leur interlocuteur.

Le Dr Picard et sa collaboratrice, Rana el Kaliouby, ont plus récemment développé un logiciel permettant d’identifier 24 points du visage pour en déduire une émotion. Et pour que les machines décodent convenablement ces émotions, il faut disposer d’un «nombre d’exemples suffisant à travers le cultures et les générations», précise Rana el Kaliouby.

«L’ordinateur ne sait rien de mes émotions, alors que je passe tellement d’heures devant lui chaque jour», affirmait Rana el Kaliouby lors d’une conférence TEDx au Caire en 2010 consacrée à ses recherches.

Le fait que les ordinateurs ne réagissent pas aux émotions est aussi une limite que note Peter Robinson, de l’université de Cambridge. Son apport dans le champ de l’affective programming: Charles, un robot en forme de buste humain, qu’il a créé en 2010.

Explication sur cette vidéo hilarante de l’université de Cambridge. Si le MIT travaille sur la capacité des machines à nous comprendre, Robinson a pour sa part réfléchi aux émotions que pourrait simuler la machine elle-même. Ici, il s’agit d’un GPS anthropomorphe, qui ne se contente pas de nous guider, mais s’assied à côté du conducteur et donne ses indications routières avec le sourire...

L’enfer technologique étant souvent pavé de bonnes intentions, l’affective computing soulève des questions sur ce que la société est prête à accepter de ses amies les machines. Car comme l’écrit le New York Times, «voulons-nous vraiment que notre compte Facebook ou les publicités en ligne sachent comment nous nous sentons aujourd’hui?» Et rien ne dit qu'un ordinateur doué de reconnaissance des émotions humaines «ferait un monde meilleur», met en garde Nick Bostrom du Future of Humanity Institute (université d'Oxford).

Dans le New York Times, d'autres relativisent ces dérives en rappelant que si l’ordinateur imite la manière humaine de décrypter les émotions des autres, il n’y a pas de quoi s’inquiéter! Pour Arvid Kappas, professeur dans le domaine des émotions à l’université Jacobs en Allemagne, les gens interprètent souvent mal les émotions des autres et les incompréhensions mutuelles sont fréquentes… «La relation entre ce que nous montrons et ce que nous ressentons est en fait très ténue», juge-t-il.

Jean-Laurent Cassely
Jean-Laurent Cassely (990 articles)
Journaliste
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte