Science & santé

Les robots apprennent à nous dire «non», et c’est une bonne nouvelle

Repéré par Vincent Manilève, mis à jour le 26.11.2015 à 13 h 16

Repéré sur Quartz

Si les conséquences des actions des robots entraînent des risques pour les humains ou pour eux-mêmes, il faut leur laisser le choix de refuser de les réaliser.

Nao humanoid robot | Jiuguang Wang via Wikimédia CC License by

Nao humanoid robot | Jiuguang Wang via Wikimédia CC License by

Un robot qui exécute chacun de nos ordres, cela fait forcément rêver un peu. Dans un monde parfait et futuriste, il répondrait «avec plaisir» quand on lui demande de ranger notre chambre, de faire la vaisselle, ou d’aller promener notre chien à notre place. Même chose dans un milieu professionnel: il devra être capable d’exécuter une tâche potentiellement dangereuse, que ce soit dans une usine ou un chantier.

Mais, contrairement à ce que l’on pourrait espérer, ce robot devra aussi être capable de vous dire non de temps à autre. Le site Quartz nous explique que des chercheurs américains dans le Massachusetts «sont en train d’essayer ce que beaucoup de films ont déjà anticipé: apprendre aux robots à dire non à certaines instructions Depuis longtemps, une question les obsède: comment programmer un robot pour qu’il puisse décider d’outrepasser un ordre qui serait dangereux pour un humain ou pour lui-même?

Pour cela, ils ont d’ores et déjà mis en place une liste de questions d’éthique et de confiance basiques permettant au robot de mieux analyser la situation. Est-ce que je sais faire ça? Est-ce que ça relève de mes fonctions? Est-ce que cela viole les règles établies?

Vous ne ferez pas marcher un robot vers un précipice

Dans une vidéo assez bluffante, que l’on peut visionner que le site de Quartz, on peut voir un petit robot Nao refuser de marcher vers le bord d’une table quand un humain lui demande. «Ce n’est pas prudent», répond-il. Même chose quand on lui demande de s’engager sur un chemin pourtant obstrué par un obstacle: il répond qu’il ne le peut pas. Et la démonstration est encore plus impressionnante quand le robot explique pourquoi il ne va pas aller vers le bord de la table ou quand il refuse de désactiver son option de détection d’obstacle car la personne qui le lui demande n’a pas les autorisations nécessaires.

Ces nouvelles capacités peuvent être inquiétantes (on se souvient de la scène de 2001: l’odyssée de l’espace où le robot HAL 9000 refuse d’ouvrir la porte), mais elles sont indispensables dans la mesure où les robots vont envahir notre quotidien.

Il y a quelques semaines, nous vous parlions justement du libre arbitre chez les robots, et plus particulièrement dans le cas des voitures autonomes, qui ont déjà envahi les rues de certains États américains. Des situations particulières feront forcément appel à la morale éthique et algorithmique de la voiture. Par exemple, certaines configurations pourraient pousser la voiture autonome à décider de sacrifier ses passagers en fonçant dans un mur pour sauver un groupe de personnes qui étaient sur son chemin.

Au fur et à mesure que les robots gagnent en autonomie et s’intègrent à notre vie quotidienne, ces questions se feront de plus en plus pressantes et l’homme devra y répondre. Car, qu’on le veuille ou non, un jour, notre libre arbitre dépendra aussi de celui des robots.

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte