Science & santé

Et si on punissait les robots autonomes quand ils commettent un crime?

Repéré par Galaad Wilgos, mis à jour le 06.04.2017 à 16 h 44

Repéré sur Vocativ

Une chercheuse de Yale a plaidé pour que l'on puisse punir un robot autonome qui aurait commis un délit ou un crime.

Un robot semi-autonome dirigé par l'équipe du Wosrcester Polytechnique Institute et Carnegie Mello University, le 5 juin 2015 à Pomona en Californie | CHIP SOMODEVILLA / AFP

Un robot semi-autonome dirigé par l'équipe du Wosrcester Polytechnique Institute et Carnegie Mello University, le 5 juin 2015 à Pomona en Californie | CHIP SOMODEVILLA / AFP

Après la première mort causée par une voiture Tesla mise en autopilote, les questions philosophiques sur la responsabilité de ces machines autonomes deviennent encore plus pressantes. Qui est responsable lorsque l’un de ces robots évoluant sans contrôle humain commet un dégât, voire tue un homme?

En effet, traditionnellement, l’on impute la faute aux concepteurs lorsque les machines dérapent et provoquent des bourdes:

«Après tout, explique Vocativ, les chercheurs ont prouvé de manière approfondie que les systèmes d’intelligence artificielle héritent souvent des biais de leurs concepteurs, puisque les modèles statistiques et les types de données utilisées pour “entraîner” ses algorithmes affectent dramatiquement la façon dont le système fait ses choix.»

Cependant une chercheuse de Yale justement défend la thèse provocatrice selon laquelle il y a une responsabilité des robots. Elle affirme en effet qu’ils devraient être moralement responsables de leurs actions, voire même pénalement responsables, et donc punis le cas échéant pour d’éventuels heurts infligés à d’autres.

Pour démontrer cela, Ying Hu compare les robots aux entreprises qui, dans la loi américaine, sont considérées comme des «personnes» dont les actions sont souvent détachées des décisions des individus qui en font partie. De fait, les robots autonomes apprennent continuellement et s’ajustent aux situations: cela crée une structure interne de prise de décision qui évolue avec le temps et qui peut devenir tellement complexe qu’il est impossible d’attribuer leurs actions à une erreur de conception ou une décision humaine.

Dès lors, les robots pourraient effectivement prendre des jugements moraux, puisque leurs erreurs ne seraient plus que de leur propre fait. Les hommes seraient donc en mesure d’en être les arbitres, de juger si telle action est bonne ou mauvaise:

«Si et quand on délègue aux robots le pouvoir de prendre des décisions morales, j’affirme que c’est le devoir des hommes de les superviser. Il devrait y avoir un processus pour évaluer le raisonnement des robots et, si le raisonnement est mauvais, de l'annoncer publiquement comme tel.»

En faisant cela, il serait ainsi possible de déterminer les conduites interdites et criminelles, et de créer un système de signalement qui permettrait aux autres robots et concepteurs de robots de ne plus les répéter. La punition éventuelle étant pour le robot la désactivation ou la reprogrammation –ou l’étiquette de «criminel».

Ying Hu pense que ce problème risque de se poser de manière de plus en plus pressante – aux États-Unis, il y a déjà des voitures autonomes et des gardes de sécurité robotisés. L’Union européenne a par ailleurs déjà émis l’idée de qualifier ces robots autonomes comme «des personnes électroniques» avec «des droits et responsabilités spécifiques».

Mais il ne faut surtout pas, selon elle, punir ces robots pour disculper leur propriétaire. 

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte