Fin juillet, Elon Musk, créateur de Paypal et patron de SpaceX, Stephen Hawking, astrophysicien, Steve Wozniak, cofondateur d'Apple, et plus de 16.000 chercheurs signaient une lettre ouverte pour mettre en garde contre les dangers des armes autonomes. Dotés d'une intelligence artificielle (IA), les robots pourraient décider eux-mêmes de tirer ou non sur une cible, avec toutes les dérives que cela fait craindre.
Sauf que, pour prendre la décision de nous tuer, les robots n'ont pas forcément besoin d'avoir conscience d'eux-mêmes. Stuart Russel, informaticien et fondateur du centre des systèmes intelligents de l'université de Californie (qui fait également partie des signataires), a répondu aux questions des journalistes de Tech Insider sur le fonctionnement des intelligences artificielles.
La conscience spontanée? Peu probable
Que vous preniez 2001, l'Odyssée de l'espace, Ex Machina, ou encore Blade Runner, les scénarios catastrophes sont toujours les mêmes: des machines intelligentes et dotées d'une conscience finissent par se retourner contre les hommes et à faire beaucoup de dégâts autour d'elles.
Pour commencer, il est très peu probable que des machines se découvrent spontanément, et sans raison, conscientes d'elles-mêmes (comme dans Ex Machina): lorsqu'un robot est construit, c'est en vue d'accomplir des objectifs précis. Et, même si la machine, mal programmée, se révèle finalement incapable de les accomplir, elle ne va pas se révolter pour éviter d'être éteinte et mener à bien sa mission première.
Imaginons que je sois un joueur d'échec qui joue contre un ordinateur, et il gagne. Je peux vous assurer qu'il n'est pas conscient mais ça ne change rien: je perds à chaque fois
Stuart Russel, fondateur du centre des systèmes intelligents de l'université de Californie
Aucun chercheur en IA ne travaille sur la conscience
Quant à volontairement doter un robot d'une conscience, la science n'en est pas encore là:
«Nous sommes plus proches de savoir comment construire un vaisseau qui va plus vite que la lumière que de savoir comment le cerveau produit la conscience.»
Selon Stuart Russel, la science a d'abord un long chemin à parcourir pour découvrir comment l'intelligence est générée par l'homme, avant d'aborder la question de la conscience. Un très long chemin:
«D'après ce que j'en sais, aucun chercheur en IA ne travaille sur la conscience. Il doit y avoir des neuroscientifiques qui essaient de la comprendre mais je ne crois pas qu'ils aient fait de réels progrès.»
Ne pas confondre conscience et autonomie
Est-on pour autant à l'abri des robots tueurs ou d'une intelligence artificielle qui signerait la fin de l'humanité? Rien n'est moins sûr. Car il ne faut pas confondre conscience et autonomie. Or cette capacité à prendre des décisions commence déjà à être maîtrisée par les machines:
«Imaginons que je sois un joueur d'échec qui joue contre un ordinateur, et il gagne. Je peux vous assurer qu'il n'est pas conscient mais ça ne change rien: je perds à chaque fois. Si on extrapole et que l'on compare le monde à un immense jeu d'échec, ça n'a aucune importance que l'on soit battu par des machines conscientes ou non.»