La voiture autonome sera vraiment facile à troller

JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / AFP

JUSTIN SULLIVAN / GETTY IMAGES NORTH AMERICA / AFP

Sur la route, les humains réussissent assez bien à deviner les actions des autres usagers. Ce n'est pas le cas des voitures autonomes. Un défaut qui peut être exploité avec plus ou moins de malveillance.

Le 14 février, sur une route de Mountain View, en Californie, une voiture autonome de Google a voulu passer devant un bus municipal. Le bus ne s'est pas comporté comme elle l'avait prévu et la voiture l'a percuté en tentant de changer de file. La Google Car roulant à son train de sénateur –3 km/h–, personne n'a été blessé. Google allait ensuite publier un communiqué dans lequel l'entreprise reconnaissait ses torts et annonçait qu'elle travaillait à un amendement de ses logiciels, histoire d'éviter ce genre de collisions à l’avenir.

Mais tout porte à penser que des corrections logicielles ne suffiront pas. Ce qui a envoyé la Google Car dans le décor, c'est son incapacité à deviner les intentions du chauffeur de bus et à régir en fonction. Pour citer le communiqué de Google:

«Notre conducteur de secours, qui regardait l'autocar dans le rétroviseur, s'attendait aussi à ce que l'autocar ralentisse ou s'arrête. Et nous pouvons imaginer que le chauffeur du bus a pensé que nous allions rester immobiles. Malheureusement, toutes ces suppositions nous ont placés au même endroit au même moment. Ce type d’incompréhension a lieu tous les jours sur la route entre des conducteurs humains.»

Oui, il arrive que les gens se trompent sur les intentions d'autres usagers de la route. Reste que les humains possèdent une expertise intuitive sur ce genre de négociation sociale. Les voitures autonomes n'ont pas cette expertise, et il sera extrêmement difficile de le leur apprendre.

L'humain n'est pas réductible à une machine

Depuis cinq ans, avec mes collaborateurs du Vision Sciences Lab d'Harvard, nous travaillons sur les différences d'aptitude entre les humains et l'intelligence artificielle la plus sophistiquée possible. Nos études se focalisent sur des tâches simples, comme la détection d'un visage dans une image fixe –domaine où les robots n'ont cessé de gagner en habileté pour devenir assez bons à l'heure actuelle. Par contre, en ce qui concerne des tâches complexes, ces études m'ont rendu de plus en plus perplexe. En l'espèce, la conduite d'une voiture –tâche complexe s'il en est– représente un énorme défi pour l'intelligence artificielle.

Dès leur plus jeune âge, les enfants savent très subtilement deviner les intentions et les objectifs des gens qui les entourent

Les promesses des voitures autonomes sont elles aussi énormes, que ce soit en termes d'amélioration de la circulation, de la sécurité routière ou encore de gains de mobilité pour les personnes âgées. Mais pour dire les choses en deux mots: qu'importe les performances de l'intelligence artificielle, les humains ne se comportent pas de la même façon.

En février, la National Highway and Traffic Safety Administration (NHTSA) statuait que le logiciel d'une voiture autonome équivalait à un conducteur, une mesure facilitant les expérimentations en conditions réelles de circulation de ce type de véhicule. Mais cette décision a été prise, comme le soulignait Mudge sur Twitter, sans que la NHTSA possède la méthodologie adéquate lui permettant de savoir si ce logiciel fonctionne ou non correctement. Ce qui n'empêche pas le gouvernement fédéral de manifester son enthousiasme face aux voitures autonomes. 

Le secrétaire aux Transports, Anthony Foxx, a ainsi proposé une enveloppe de 4 milliards de dollars pour accélérer leur arrivée sur le marché. Et du côté du secteur privé, les investissements massifs vont aussi bon train. Si Google et Tesla Motors sont les plus visibles, des constructeurs classiques comme Toyota (qui consacre 1 milliard de dollars à la création d'un laboratoire d'IA) ou General Motors (qui s'est engagé à investir 500 millions dans une joint-venture avec Lyft pour concevoir des voitures autonomes urbaines) ne regardent pas non plus à la dépense pour développer cette nouvelle technologie. Des milliards de dollars qui pourraient générer autant de problèmes que de solutions.

Intuitions et émotion

La plus grande différence d'aptitude entre une voiture autonome et un humain relève de la théorie de l'esprit. Des scientifiques, à l'instar du Pr. Felix Warneken de Harvard, ont montré que, dès leur plus jeune âge, les enfants savent très subtilement deviner les intentions et les objectifs des gens qui les entourent. Pour Warneken, et d'autres, cette capacité serait même fondamentale pour expliquer la spécificité de l'intelligence humaine.

Des chercheurs œuvrent à la conception de robots capables d'imiter notre intelligence sociale. Des entreprises, comme Emotient et Affectiva, proposent aujourd'hui des logiciels permettant de lire certaines émotions sur un visage. Mais, à l'heure actuelle, aucun logiciel n'arrive à la cheville des humains, capables spontanément et constamment de deviner les actions de leurs congénères. Un conducteur humain qui s'engage sur une autoroute chargée peut facilement se dire «aucune voiture ne me laissera passer si je n'insiste pas un peu» et agir en fonction de cette intuition. Faire en sorte qu'un robot se comporte de cette manière représente l'un des plus grands défis de l'intelligence artificielle qui cherche à imiter l'humaine.

L'aptitude à jauger les intentions d'autrui et à agir en conséquence est un processus mental fondamental à la conduite. Que nous ralentissions lorsque nous voyons un piéton s'apprêtant visiblement à traverser en dehors des clous, ou doublions une voiture dont le conducteur a l'air saoul ou somnolent, nous y avons tout le temps recours lorsque nous prenons le volant. Aujourd'hui, les voitures autonomes en sont incapables. Et il est bien probable qu'elles le soient encore pendant de longues années. Un problème qui ne se limite pas aux erreurs d'appréciation, comme celle qui a pu causer l'accident entre la Google Car et le bus de Mountain View.

Mettre un pied sur la route ou agiter un bout de tissu pourrait suffire à activer un freinage d'urgence

Un simple bout de tissu

Même les robots les plus sophistiqués sont faciles à berner. Facile, par exemple, de faire croire à un système de reconnaissance d'objet parmi les plus performants du marché qu'une orange est en réalité une autruche. Idem pour les voitures autonomes. Elles feront des erreurs –ce qui, a priori, n'a rien de gravissime, tant qu'elles en font moins que les humains. Mais elles feront des erreurs qu'aucun humain ne fera jamais. Elles pourront prendre un sac poubelle pour un piéton qui court. Elles pourront prendre un nuage pour un camion.

Ce qui signifie que les voitures autonomes seront extrêmement faciles à troller. Mettre un pied sur la route ou agiter un bout de tissu pourrait suffire à activer un freinage d'urgence. Et frôler votre pédale de frein pourrait suffire à déclencher une réaction en chaîne faite de manœuvres d'évitement. Une bande de gamins de 12 ans pourrait bloquer toutes les autoroutes de Los Angeles en dessinant des smileys sur des ballons.

Des erreurs d'un nouveau type

Je viens d'inventer ces exemples. Reste que des chercheurs en sécurité ont d'ores et déjà prouvé combien des systèmes de télémétrie laser pouvaient être très facilement être dupés et croire à tort qu'une collision était imminente. Une voiture autonome est un système encore plus complexe (c'est même l'un des systèmes informatiques les plus complexes jamais inventés) et à mesure que leurs capteurs gagneront en complexité, leurs risques d'erreur augmenteront eux aussi. Et les erreurs des voitures autonomes n'auront rien à voir avec les erreurs humaines.

Les routes sont des ressources partagées. Les bus, les piétons, les vélos, les taxis, les livreurs et les ambulances partagent tous le même espace. Les voitures autonomes pourraient représenter une toute nouvelle catégorie d'usager de la route. Un usager dénué d'un entendement que tous les autres ont en commun.

Partager cet article