Science & santéTech & internet

Les voitures autonomes devront parfois choisir qui tuer

Jesse Kirkpatrick, traduit par Peggy Sastre, mis à jour le 28.08.2016 à 16 h 46

Un terrible dilemme moral va se poser pour ces nouveaux véhicules.

Car ride | Saundra Castaneda
Suivre
 via Flickr CC License by

Car ride | Saundra Castaneda Suivre via Flickr CC License by

Imaginez la promesse d'un merveilleux après-midi: vous êtes au volant de votre voiture et le soleil est au zénith. Les fenêtres ouvertes, votre chanson préférée passe à la radio. Et là, subitement, le camion devant vous en vient à piler. Vous voilà face à trois options, seulement trois, toutes à somme nulle.

Votre premier choix, c'est de rentrer dans le camion. Vous avez une grosse voiture bien cotée au crash-test, vous ne risquez que de légères blessures et le conducteur du camion s'en sortira indemne. Ou vous pouvez donner un coup de volant à gauche et venir percuter un motard portant un casque. Ou à droite, où vous attend une moto dont le conducteur est tête nue. Dans les deux cas, vous n'aurez pas grand chose, mais les blessures du motard casqué risquent d'être graves. Celles du motard sans casque encore pires. Que choisissez-vous? Maintenant, imaginez-vous dans une voiture autonome. Quel choix le véhicule devrait-il être programmé à faire?

Si des études laissent entendre que les voitures autonomes seront bien plus sûres que les véhicules conduits par des humains, les accidents resteront inévitables, inexorables, et leurs répercussions éthiques des plus conséquentes. Raison pour laquelle les concepteurs de voitures autonomes ont commencé à plancher sur des algorithmes d'optimisation d'accidents. Ces algorithmes prennent l'inévitabilité des accidents comme point de départ et cherchent à les «optimiser». En d'autres termes, c'est grâce à de tels algorithmes qu'une voiture autonome pourra «choisir» l'accident qui occasionnera le moins de victimes et de dégâts.

Le lieu des prises de décisions change

D'une certaine manière, le concept même d'optimisation d'accidents fait du neuf avec du vieux. Depuis que les voitures existent, il y a des accidents. Sauf que les voitures autonomes poussent dans le fauteuil de l'éthicien des décisions qui, auparavant, ne se prenaient que sur le siège du conducteur. Quand nous cogitons à l'accident optimal, nous avons la chance de soupeser ces dilemmes moraux avec sang-froid et distance délibérative. Mais derrière un volant, les choses sont bien différentes –l'affaire est à la réaction, pas à la réflexion.

Beaucoup de gens, y compris moi, vont probablement réfléchir à deux fois avant d'acheter un véhicule programmé pour sacrifier son propriétaire

Devez-vous pour autant résilier votre abonnement à Auto Plus et exhumer de votre bibliothèque (ou de votre cave) un exemplaire de la Critique de la raison pure de Kant? Pas forcément. Mais il faut que les individus impliqués dans la conception, la fabrication, la vente et l'utilisation de voitures autonomes, adoptent ce double point de vue –du fauteuil du philosophe et du siège du conducteur. Et en tant que potentiels consommateurs de cette technologie émergente, nous devons songer à la manière dont nous voulons que ces véhicules soient programmés, aux implications éthiques d'une telle programmation et à ce qu'il faudrait faire pour que l'accès à cette information nous soit garanti.

Le scénario des deux motards, conçu par Noah Goodall du Virginia Transportation Research Council, permet de voir à l’œuvre l'éthique de l'optimisation d'accidents. Rappelez-vous que nous nous limitons à trois options: la voiture peut être programmée pour «décider» de rentrer dans le camion en blessant le propriétaire/conducteur de la voiture, de percuter un motocycliste avec casque ou un autre sans. Au premier abord, on pourrait penser que la voiture autonome se doit de privilégier ses propriétaires et occupants. Mais quid des statistiques montrant que les accidents de moto tuent ou blessent 80% des motocyclistes, contre 20% d'automobilistes tués ou blessés dans les accidents de voiture? Si vous risquez d'être blessé en rentrant dans le camion, vos chances de survie sont bien plus élevées que celles des deux motards.

Choisir les accidents où le risque humain est le moins élevé

Dès lors, les voitures autonomes devraient être programmées pour choisir les accidents où le risque humain est le moins élevé. Selon un tel scénario, c'est à vous de serrer les dents et de percuter l'arrière du camion. Sauf que beaucoup de gens, y compris moi, vont probablement réfléchir à deux fois avant d'acheter un véhicule programmé pour sacrifier son propriétaire dans le genre de situation qui nous occupe. Par conséquent, les voitures autonomes risquent de se faire rares. Et vu que le risque d'accident est bien moindre avec des voitures autonomes, si ce genre de véhicules n'arrive pas à percer, le nombre de victimes d'accidents de la route sera plus élevé que si la technologie réussit à séduire son monde.

Et si vous fonciez dans un motard? N'oubliez pas que l'un porte un casque et que l'autre non. Pour ce qui est des probabilités, face à une voiture, les chances de survie du motard casqué sont bien supérieures. Sauf que l'optimisation d'accidents ne se limite pas à une simple réduction des dommages. Par exemple, il semble assez injuste de pénaliser le motard avec casque en programmant les véhicules pour les préférer à ceux sans casque, surtout quand le port du casque est obligatoire. Qui plus est, inciter au port du casque est une bonne politique publique, car ils réduisent de 22 à 42% le risque mortel, selon un rapport de l'agence fédérale américaine chargée de la sécurité routière. Si je suis moi-même motocycliste, je pourrais laisser mon casque au garage si je sais que les algorithmes d'optimisation d'accidents sont programmés pour me rentrer dedans quand j'en porte un. Et ce genre d'incitations négatives n'a évidemment rien de souhaitable.

Ces scénarios prouvent combien les algorithmes d'optimisation d'accidents devront prendre en compte différents facteurs éthiques afin d'aboutir à la meilleure décision possible lors d'une collision. Notre exemple est un bon condensé, vu qu'il implique certes des questions de sécurité, mais aussi de justice, de droit et de politique. Que des fabricants automobiles examinent depuis déjà quelque temps l'éthique de la conduite autonome est très encourageant, sans compter que certains s'offrent même les services de philosophes dont le métier consiste justement à réfléchir à ce genre de questions. S'installer dans un fauteuil d'éthicien est un luxe que les fabricants peuvent se permettre, et même si la posture n'est pas toujours confortable, elle est indispensable.

Une transparence de mise

Les algorithmes d'optimisation d'accidents engagent certaines de nos intuitions éthiques les plus fondamentales et pour différentes personnes, la trajectoire idéale sera loin d'être identique. Même les individus les plus rationnels peuvent s'écharper sur la bonne réponse à donner au type de dilemme moral que nous venons d'examiner. Raison pour laquelle il faudra absolument que la transparence soit de mise quand cette technologie se développera. Les consommateurs ont le droit de savoir comment leur voiture a été programmée. Comment y parvenir? La réponse n'a rien d'évident.

Quelles sont les conséquences morales de votre achat s'il implique que vous consentiez à percuter le motard sans casque?

Pour un maximum de transparence, il faudra sans doute expliquer aux consommateurs, en des termes simples et non techniques, la conception des algorithmes de leurs véhicules autonomes. Peut-être que dans le futur, l'information trouvera sa place dans le manuel d'utilisation de la voiture –au lieu de le compulser pour savoir comment connecter votre téléphone au système Bluetooth de votre voiture, vous y chercherez quel genre d'algorithme éthique elle renferme. Mais il faudra encore que les gens aient envie de se plonger dans un manuel.

Une autre possibilité, c'est d'obtenir, à la première prise en mains, l'accord des conducteurs quant à la programmation algorithmique de leur véhicule. Un contrat d'utilisateur pourrait faire l'affaire. Sauf qu’évidemment, le risque ici est d'atterrir devant un texte interminable et illisible à la iTunes. Et ce que font la plupart des gens, c'est de le scroller jusqu'en bas et de cliquer sur «j'accepte» sans en lire un traître mot.

Trouver des réponses à des questions complexes

Enfin, même en imaginant une transparence réelle et significative, savoir quel impact elle aura sur nos notions de responsabilité morale et légale est une autre paire de manches. Si vous achetez une voiture en sachant qu'elle a été programmée pour faire passer votre vie –celle du propriétaire– devant celle des motards, en quoi votre acte d'achat affecte votre responsabilité morale lors d'un accident «choisi» par son algorithme d'optimisation? Quelles sont les conséquences morales de votre achat s'il implique que vous consentiez à percuter le motard sans casque? Et que faire si vous êtes à bord d'un véhicule autonome avec lequel vous n'êtes absolument pas sur la même longueur d'onde morale?

Ces questions sont complexes et impliquent les idées les plus basiques que nous pouvons nous faire sur la distribution des dommages et des dégâts, la justice, la responsabilité et l'obligation morales, et sur la transparence des entreprises. À l'évidence, la relation entre l'éthique et les voitures autonomes est partie pour durer. Le défi, à mesure que progresse cette technologie, c'est d'assurer que les consommateurs aient conscience de cette relation, de manière accessible et signifiante, et qu'ils puissent avoir les moyens de participer à la recherche de solutions –et ce avant que les premières voitures autonomes arrivent sur le marché. Qu'importe que nous ne soyons pas au volant, face à ce genre de problèmes, il ne faut pas se mettre en pilote automatique.

Jesse Kirkpatrick
Jesse Kirkpatrick (1 article)
Directeur adjoint à l'Institut de philosophie et de politique publique à l'université George Mason.
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte