Partager cet article

Pourquoi les voitures sans conducteur devront être programmées pour tuer

Le prototype finalisé de Google (via Google+).

Le prototype finalisé de Google (via Google+).

Il existe un dilemme moral et algorithmique que les constructeurs automobiles devront résoudre.

Aux États-Unis, les voitures sans chauffeurs comme la fameuse Google Car commencent à envahir les rues. De nombreux États (Virginie, Floride, Michigan, Nevada, District de Columbia) ont légalisé la circulation de ces voitures un peu spéciales, leur permettant de prendre progressivement leurs marques dans notre quotidien.

Dès lors, de nombreuses questions se posent. Par exemple, beaucoup craignent que les voitures autonomes ne créent des accidents, mais les statistiques disponibles montrent que les rares accidents les impliquant ne relevaient pas de leur responsabilité. D’ailleurs, c’est tout le but de ces véhicules: pallier les erreurs de conduite de l’homme. En revanche, une autre question risque de faire des remouds: la voiture autonome doit-elle être programmée pour tuer?

La question peut sembler provocatrice et sa réponse évidente. Mais il y aura forcément des situations, lors d’une balade en ville par exemple, où la voiture autonome devra faire des choix qui pourront impliquer la mort d’un humain. La MIT Technology Review s’est penchée sur ce qu’elle appelle un «dilemme éthique et impossible de moralité algorithmique». «Comment la voiture devra-t-elle être programmée pour agir en cas d’accident inévitable? Devra-t-elle minimiser la perte de vie, même si cela signifie sacrifier les occupants, ou devra-t-elle protéger les occupants à tout prix? Devra-t-elle choisir entre de telles extrémités?» Voilà des questions qui alimenteront les débats chez le débat public pendant les mois et les années qui viennent.

Sacrifice

Pour apporter un début de réponse, la revue américaine cite le travail de l’équipe du Français Jean-François Bonnefon, de la Toulouse School of Economics. Selon ses recherches, tout va reposer sur l’opinion publique, à qui les chercheurs ont fait appel pour une petite expérience éthique. Imaginez-vous dans un futur proche en tant que passager de votre voiture autonome toute neuve. Un jour, dans des circonstances particulières, vous réalisez que vous foncez vers un groupe de dix personnes en train de traverser la rue et que le véhicule ne pourra pas s’arrêter à temps, provoquant à coup sûr la mort de certains piétons. Néanmoins, la voiture pourrait braquer son volant au dernier moment et foncer dans un mur, vous tuant sur le coup. Que faire? Quelle option choisiriez-vous?

Nous pourrions dire, en bons humanistes que nous sommes, que se sacrifier pour sauver dix personnes est l’option évidente. Mais cela voudrait aussi dire que moins de personnes achèteraient une voiture autonome en sachant qu’ils pourraient être sacrifiés un jour, faisant du marché une industrie mort-née.

En variant les situations, notamment en ajoutant un piéton comme victime collatérale du sacrifice de la voiture, les chercheurs se sont aperçus que les personnes interrogées sont globalement d’accord pour épargner le plus de personnes possible. Mais apparaît ici un paradoxe: les participants «aimeraient en fait que les autres roulent à bord des véhicules autonomes bien plus qu’ils aimeraient en être passagers eux-mêmes», explique Jean-François Bonnefon. En gros, les gens sont d’accord pour que la voiture se sacrifie s’ils ne sont pas à bord. Pratique. 

La réflexion ne fait que commencer autour de cet «algorithme moral» mais, comme l’explique le spécialiste, «étant donné que nous sommes sur le point de nous doter de millions de véhicules autonomes, prendre la moralité algorithmique au sérieux n’a jamais été aussi urgent».

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte