LifeTech & internet

Votre voiture autonome pourra vous tuer. Et vous n'y pourrez rien. C'est mathématique

Aude Deraedt, mis à jour le 13.05.2014 à 14 h 06

Un accident de voiture à Beverly Hillsure Graham via Flickr CC License by

Un accident de voiture à Beverly Hillsure Graham via Flickr CC License by

A un carrefour, vous êtes au volant d'une voiture autonome alors qu’un accident est sur le point de se produire. Deux choix s’offrent à vous: tuer une, ou deux personnes. Le véhicule que vous conduisez est programmé pour limiter le nombre de morts sur les routes. Quitte à ce que l'unique tué, ce soit vous. Et tant pis si vous aviez investi dans cette voiture pour vous sentir en sécurité.

«Achetez cette voiture, mais sachez qu’elle pourrait vous conduire au-dessus d’une falaise plutôt que de foncer dans une voiture transportant deux personnes.»

Tels sont les propos de Michael Cahill, un professeur de droit à la faculté de Brooklyn, repris par le site Popsci pour illustrer les dangers des véhicules autonomes. Car finalement, c'est bien ça le souci avec les voitures sans chauffeur: pour éviter de tuer plusieurs personnes, elles préférerons vous faire tomber dans un ravin.

Mais le fait est qu'au volant d'une voiture ordinaire, personne (ou presque) n'aurait tendance à se suicider pour éviter l'accident. D'ailleurs, rares sont ceux qui ont le temps de réfléchir au lieu ou à la personne qu'ils iront percuter. Encore moins à calculer le nombre de morts qu'il y aura dans l'accident.

Dans une tribune publiée sur Wired, Patrick Lin, le directeur du département d’éthique et de sciences émergentes à l’université polytechnique de Californie, s'insurge contre les algorithmes d’optimisation d’accidents, qui enverraient de manière quasi-systématique les voitures robotisées dans le véhicule le plus gros afin de minimiser le nombre de victimes en cas de collision. Patrick Lin s'interroge:

«Les propriétaires ou conducteurs de ces voitures cibles devraient porter ce fardeau même s’ils n’ont commis aucune faute, hormis le fait qu’ils se sentent concernés par la sécurité ou qu’ils ont besoin d’une voiture plus grande pour transporter leur famille. Est-ce que cela est juste?»

A l'instar du professeur d'éthique, l'auteur de l'article publié sur Popsci remarque:

«Si les robots ont pour but de devenir des surhommes, n'est-ce pas leur devoir de se comporter comme des super-héros, et d'utiliser leurs pouvoirs pour sauver un maximum de vies?»

Il s’agit là d’un véritable problème d’éthique. D’autant plus que Google a annoncé que les voitures autonomes allaient être testées en ville, où les risques de collision sont beaucoup plus élevés qu’ailleurs.

Dès lors, on peut s'interroger sur l'intérêt d'insérer ces algortithmes dans les programmes des voitures autonomes. Pour Patrick Lin, le doute persiste. Il propose d’ailleurs de se contenter «d’une décision aléatoire» pour ce type de choix, qui «imite mieux la conduite humaine».

Mais même à cette solution, l’auteur oppose plusieurs arguments:

«L’une des raisons principales à la création des voitures autonomes est qu’elles devaient être capables de prendre des meilleurs décisions que nous.»

Par ailleurs, un choix aléatoire obligerait les conducteurs à percuter des voitures moins sécurisées, réaction qu’ils n’auraient pas forcément eue s’ils étaient au volant d’une voiture ordinaire.

Aude Deraedt
Aude Deraedt (37 articles)
Journaliste
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte