Sciences / Tech & internet

Tu préfères écraser un homme ou une femme, un chien ou un enfant?

Temps de lecture : 7 min

Les machines pourront-elles bientôt tout se permettre? Si on n’est toujours pas foutu de savoir où on fixe les limites de la morale pour les êtres humains, il y a des chances.

Le robot Helios Atlas de l'équipe du MIT au DARPA Robotics Challenge le 6 juin 2015 à Pomona, Californie. | Chip Somodevilla/Getty Images/AFP 
Le robot Helios Atlas de l'équipe du MIT au DARPA Robotics Challenge le 6 juin 2015 à Pomona, Californie. | Chip Somodevilla/Getty Images/AFP 

Cet article est publié en partenariat avec l'hebdomadaire Stylist, distribué gratuitement à Paris et dans une dizaine de grandes villes de France. Pour accéder à l'intégralité du numéro en ligne, c'est par ici.

Nous sommes en 2038 (demain donc) à Detroit, devenu le QG mondial de la production d’androïdes, où les machines continuent d’exécuter sagement ce que leur ordonnent les êtres humains. Successivement, les robots Conor (enquêteur prêté à la police locale), Kara (aide-ménagère), et Markus (qui assiste un vieil artiste malade), prennent conscience de leur condition merdique. Votre rôle à vous –oui, parce que vous avez toujours votre mot à dire sur tout–, c’est d’incarner ces robots et de participer (ou non) et d’agir moralement (ou non) dans cette grande révolte des intelligences artificielles (IA).

Un énième dilemme tordu suite à une overdose d'infusion Nuit Calme? Non, le pitch de Detroit: Become Human, jeu vidéo du studio français Quantic Dream, sorti au printemps dernier et déjà écoulé à plus de 1,5 million d’exemplaires à la fin de l’été. Ce qui n’est pas un jeu, en revanche, c’est que, selon le pape de l’intelligence artificielle, Ray Kurzweil, une intelligence robotique un milliard de fois supérieure à tous les cerveaux humains réunis écrasera l’intelligence humaine d’ici à 2045.

Or, plus les machines sont performantes, plus nous leur déléguons des tâches complexes (choisir la bonne playlist Spotify pour relancer une soirée, conduire des passagères ou passagers, tuer des gens). Et le problème, c’est que personne ne sait si, en ce jour de 2045, les robots seront assez «moraux» pour faire tout cela sans représenter un danger pour l'être humain. Pour vous faire passer le temps jusqu’à ce qu’on sache comment gérer cette armada de robots incontrôlables, Stylist revient sur la bataille intellectuelle la plus fucked-up de la décennie.

Les pleins pouvoirs

Même si nous sommes encore loin du scénario apocalyptique (l’IA va prendre le contrôle du monde puis nous détruire), cela n’empêche pas les ingénieures et ingénieurs, scientifiques et politiques de plancher sur le sujet, un peu comme pour une catastrophe naturelle (on projette qu’en 2050, le mercure va exploser les 50 degrés, ce n’est pas une raison pour ne rien faire aujourd’hui, ce genre).

Leur grand sujet d’inquiétude? La prolifération des robots complètement autonomes. «Est autonome celui qui fixe ses lois, ses règles, rappelle Jean-Gabriel Ganascia, chercheur en IA et président du Comité d’éthique du CNRS (Comets). Les dispositifs actuels sont autonomes techniquement, ils peuvent récupérer de l’information puis prendre une décision. Un jour, peut-être seront-ils assez complexes pour nous imposer ces décisions. Devrons-nous alors leur obéir? Pourrons-nous les accepter? Ce sont des questions qui inquiètent beaucoup aujourd’hui.»

Comme aux Nations unies, où des experts ont planché cette année sur les «robots tueurs autonomes». Ces engins capables de choisir leur cible et de tirer, qu’on voit proliférer dans les salons et peut-être bientôt sur les champs de bataille. À Bruxelles, le Parlement et la Commission européenne réfléchissent à accorder une personnalité juridique et morale aux robots, dont on pourrait à terme engager la responsabilité. Et dans les grandes universités américaines, on envisage des moyens de leur programmer un sens du bien et du mal (en 2014, l’Office of Naval Research, bureau de recherche navale du département de la Marine des États-Unis a débloqué sept millions de dollars sur cinq ans pour financer ces recherches).

«On envisage d’exprimer la morale de façon algorithmique, programmable, pour l’intégrer aux machines»

Du côté des grands noms de la Silicon Valley, on bachote aussi. DeepMind, filiale de Google spécialisée en IA, vient de créer une équipe de scientifiques qui travaillera en étroite collaboration avec des ingénieures et ingénieurs pour s’assurer que les progrès technologiques n’entraînent pas de dérives (ambiance les Cylons, robots humanoïdes de la série Battlestar Galactica, qui reviennent pour ravager ce qu’il reste d’êtres humains éparpillés dans les Douze Colonies).

«Le premier à avoir formulé des lois pour se protéger des robots, c’est l’écrivain de science-fiction Isaac Asimov, en 1942», souligne l’ingénieur de recherche au CNRS Édouard Kleinpeter. Trois lois, très simples, qui servaient principalement à empêcher le robot de porter atteinte à l’humain ou l'humaine, l’interdit suprême, et à le maintenir dans une position de vassal. Que faire face à des machines plus complexes et plus autonomes? «Aujourd’hui, on envisage d’exprimer la morale de façon algorithmique, programmable, pour l’intégrer aux machines, dont certaines d’entre elles sont déjà dans les rues, au contact des humains.» Comment programmer une morale? En la réduisant à une série de choix.

Le dilemme du tramway

En mars 2018 –ironie du sort, quelques jours avant le premier accident mortel impliquant une voiture autonome–, le MIT (Institut de technologie du Massachusetts) dévoile les premiers résultats d’une grande enquête mondiale, lancée en 2016. Intitulée «Moral Machine», l’enquête est un jeu en ligne aux faux airs d’examen du Code de la route. Le pitch: en cas d’incident, qui la voiture autonome doit-elle préserver? Les passagers ou les piétons? Un enfant ou deux vieillards? Un homme qui traversait dans les clous ou une femme en infraction?

Quatre millions de réponses plus tard, Moral Machine devient «la plus grande enquête mondiale sur la morale», selon son concepteur Iyad Rahwan. Les résultats de l’étude devraient, selon le MIT, permettre aux concepteurs et conceptrices de programmer les voitures autonomes dans leur prise de décision, en s’appuyant sur le fameux dilemme du Tramway. «C’est un exercice de philosophie analytique qui traîne un peu partout depuis les années 1970. Il permet d’envisager les grands principes d’éthique et de morale, explique la philosophe Frédérique Leichter-Flack. Or crowdsourcer la morale me paraît problématique. Cette petite fiction manipulatoire banalise la décision de vie ou de mort et est biaisée. Il est impossible de retranscrire ce qui se joue dans notre prise de décision IRL: les émotions? les doutes? les grands principes?»

«La morale, ce sont les mœurs et par définition, elles sont géographiquement situées»

Vous vous demandez à qui les quatre millions de personnes interrogées ont donné le totem d’immunité en cas de crash avec un véhicule sans conducteur ou conductrice? Les résultats viennent tout juste d’être publiés dans la revue Nature. Globalement, les gens sont d’accord pour épargner les êtres humains plutôt que les animaux. Et les enfants plutôt que les adultes (Heal The World…). À part ça, pas de vraie tendance nette. Sauf une: la réelle disparité de réponses entre les zones géographiques. Selon le pays d’origine, la culture individualiste ou collectiviste, les réponses varient. Dans ces dernières, par exemple, on semble réfléchir à deux fois avant de dégommer une vieille ou un vieux. «La morale, ce sont les mœurs et par définition, elles sont géographiquement situées, rappelle Jean-Gabriel Ganascia. Il n’existe pas de morale universelle.»

Mais sans morale universelle, qui va se charger de la programmation (faites semblant de douter)? Eh ben, les mêmes que d’habitude. Ceux qui créent des machines: une majorité d’hommes blancs, riches, américains. «Et protestants, poursuit Édouard Kleinpeter. C’est effectivement inquiétant que seuls eux puissent décider de la morale des machines. Les transhumanistes américains sont convaincus de détenir les bonnes valeurs, que la technologie doit bénéficier aux élites avant de se démocratiser. Mais la technologie a un effet nivelant et cela sera également le cas quand il s’agira de la morale.»

Et ce n’est pas comme si c'était la première fois qu'on en parlait: les préjugés racistes existent déjà dans les intelligences artificielles, comme Google Images qui propose des images de coupes afro quand on tape «unprofessional hairstyles for work» ou Tay, le chatbot de Microsoft qui, en vingt-quatre heures à peine, fait péter le point Godwin en disant qu’Hitler n’avait rien fait de mal (drop the mic).

Accord sur l’éthique humaine

Le mérite de ce grand débat dont on n'est même pas certain de cerner les contours, c’est qu’il nous force à nous interroger sur notre éthique et nos valeurs. C’est en substance ce qu’a conclu Iyad Rahwan du MIT qui, bien obligé de concéder que la morale ne peut se réduire à une moyenne de réponses d’internautes, déclarait que «si nous voulons créer des machines qui reflètent nos valeurs, alors nous devons mieux comprendre ces valeurs, les quantifier et nous accorder pour savoir lesquelles sont les plus importantes».

En pleine troisième révolution industrielle, aussi connue sous le nom de «robolution», l’être humain délègue de plus en plus de tâches aux machines, et devient paradoxalement de plus en plus responsable d’elles, un peu comme s’il était leur N+1. En 2008, dans leur ouvrage Moral Machines: Teaching Robots Right from Wrong (Oxford University Press), Colin Allen et Wendell Wallach, dont le dernier est expert en éthique et conférencier pour le centre interdisciplinaire de bioéthique de l'université de Yale, étaient les premiers à examiner le défi de cette autonomisation des robots. Déjà, ils montraient combien il était nécessaire de comprendre la nature même de la prise de décision humaine et combien la tentative d’enseigner aux robots le bien et le mal nous obligeait à nous mettre d’accord sur l’éthique humaine.

«Un petit exercice de pensée comme Moral Machine nous pousse à nous interroger sur nos valeurs, sur l’acceptabilité sociale de telle ou telle chose, poursuit Frédérique Leichter-Flack. Mais le vrai débat est: dans quelle société a-t-on envie de vivre? Peut-on accepter de vivre dans un monde où seuls l’utilitarisme, l’efficacité, comptent?» Si on s’inquiétait encore d’être un jour dépassés par une escadrille de robots, on peut toujours se rassurer en se disant que, pour l’instant, nous, au moins, on est en capacité de se poser toutes ces questions.

Newsletters

Les études de psychologie sont-elles faussées par les profils des participants?

Les études de psychologie sont-elles faussées par les profils des participants?

Les individus souffrant de troubles de la personnalité sont plus susceptibles d'y participer.

Comment les empreintes digitales obtiennent-elles leurs tourbillons uniques?

Comment les empreintes digitales obtiennent-elles leurs tourbillons uniques?

[L'Explication #102] Une histoire de gestation, de coussinets et de taille des doigts.

Le nombre le plus ennuyeux du monde vient d'être élu

Le nombre le plus ennuyeux du monde vient d'être élu

Le suspense est entier.

Podcasts Grands Formats Séries
Slate Studio