Science & santé

Peut-on, mais surtout, doit-on faire la guerre avec des robots?

Nonfiction et Amélie Ferey, mis à jour le 05.06.2014 à 18 h 14

C'est la question que pose le directeur du centre pour la sécurité et le renseignement au XXIe siècle de la Brookings Institution Peter W. Singer, dans un ouvrage majeur proposant un voyage déroutant à bien des égards dans le monde de la recherche sur la robotique aux Etats-Unis.

 Terminator / Artur Andrzej via Wikimedia CC

 Terminator / Artur Andrzej via Wikimedia CC

Wired for war

P. W. Singer

Acheter

 

Wired for war, dont le sous-titre est The robotics revolution and conflit in the 21st century, s'ouvre par une référence au film Matrix des frères Wachowski. Peter Singer choisit de placer en exergue de son livre la ligne de dialogue par laquelle Morphéüs propose à Néo de choisir entre la pilule rouge ou bleue, entre la vérité ou l'aveuglement.

Le récit tient en effet du voyage d'Alice au pays des merveilles: les roboticiens sont décrits comme partagés entre une fascination presque enfantine pour leur travail, d'ailleurs fortement inspiré par les films de science-fiction[1], et une stupéfaction devant l'application de leurs recherches, décisives sur le champ de bataille.

Ecrit comme un roman d'espionnage, le livre de Peter Singer se démarque de la voie ouverte par les travaux de Walter Benjamin et d'Hannah Arendt sur le concept même de progrès technique. L'ouvrage ne s'envisage pas comme un ouvrage scientifique, et l'auteur s'autorise une très grande liberté dans l'utilisation de concepts complexes, ce qui peut laisser la place à des contre-sens. Dans un mélange des genres donnant une écriture baroque, Peter W. Singer délaisse le champ de la réflexion théorique pour adopter une démarche plus sociologique. Le livre se présente en effet comme un recueil d'entretiens, ce qui rend la lecture extrêmement facile et agréable, accessible même au lecteur peu anglophone. Avec un certain art de l'anecdote, dans la ligne droite du story telling américain, le mérite de Peter W. Singer revient surtout à l'agencement des catégories, qui donne un bon panorama des questions ouvertes par ce sujet.

Une actualité brulante

Si l'ouvrage a été publié en 2009, son actualité ne fait aucun doute: le moratoire sur l'utilisation de robots autonomes dans le cadre de conflits armés, proposé par Human Right Watch en 2013, et repris par Christopher Heyns[2], spécialiste des exécutions extrajudiciaires à l'ONU, l'atteste. Ce moratoire a conduit à mobiliser l'opinion internationale, et, au nom d'une éthique de la guerre dont il reste à définir les contours, la question d'une prohibition de ce que l'on appelle les «robots-tueurs» ou R.L.A, les robots létaux autonomes, a été discutée du 13 au 16 mai dernier à Genève, à l'ONU, par les 117 pays membres de la CCA, la convention sur les armes classiques.

Outre les intérêts militaires évidents à l'utilisation de ce type de robots, qui réduisent drastiquement le coût humain des opérations militaires, le débat sur l'autonomisation des robots se place sur deux champs. Juridique d’abord: l'utilisation de robots létaux dits autonomes serait-elle compatible avec le droit en vigueur? Ethique ensuite: peut-on moralement autoriser les robots à prendre de manière autonome la décision de tuer un homme?

Dans le champ scientifique, le débat fait rage aux Etats-Unis, avec d'un côté les partisans de l'utilisation des robots fédérés autour de Ronald Arkin, et leurs farouches opposants, portés par la voix de Noel Sharkey. Dans ce contexte, la lecture de l’ouvrage de Peter Singer permet de jeter les bases d'une réflexion. L'enjeu est de taille, à l'heure où la question posée à l'ONU est précisément celle de savoir si l'on doit arrêter la recherche technologique au nom d'un principe de précaution, afin de laisser aux décideurs internationaux le temps de réfléchir à un encadrement des pratiques.

L'auteur nous rappelle tout d'abord que les robots ont été utilisés très tôt dans la guerre. Les questions liées à un potentiel changement des normes éthiques régissant celles-ci remontent au conseil de Latran, où le Pape Innocent II s'était interrogé sur l'opportunité de l'utilisation de l'arbalète contre des chrétiens. Elles se posent aujourd'hui avec une acuité renouvelée, dans le contexte de l'importance prise par le secteur technologique au sein de l'armée. Peter Singer décrit ainsi le rôle du complexe militaro-industriel américain dans la recherche sur la robotique, en faisant apparaitre le rôle crucial joué par la DARPA, l'agence pour les projets avancés de défense, qui dispose d'un budget annuel de 3,2 milliards de dollars.

Si les drones occupent aujourd’hui le devant de la scène, ils sont peut-être l'arbre qui cache la forêt: des unités de démineurs aux PackBot développés par la compagnie iRobot, l'utilisation des robots dans la guerre recouvre des emplois riches et variés. Le concept même de robot a des contours flous, et sa définition pose problème. Peter Singer, lui, définit le robot en utilisant le paradigme du «sentir-penser-agir»: «Ce sont des dispositifs artificiels avec trois composantes clés: des «capteurs», qui surveillent l'environnement et détectent ses changements, des «processeurs» ou «intelligence artificielle» qui décident comment réagir, et «les effecteurs» qui agissent sur l'environnement d'une manière qui reflète les décisions, créant une sorte de changement dans le monde autour d'un robot.»[3]

Organisé en deux parties, la structure de l'ouvrage est résolument tournée vers un défi : penser la nouveauté. La première partie, intitulée «Le changement que l'on crée», interroge la recherche mise en place par les hommes sur la robotique. La deuxième va déjà dans le sens d’un renversement de cette relation, et interroge les conséquences potentielles de cet inversement de la priorité. Dans la structure grammaticale même, «Quel changement est créé pour nous», l'homme est relégué d'un statut actif à passif, relégation dont il s'agit ici de prendre la mesure. Ce livre se présente donc comme une manière d'aborder les problématiques de l'incertitude et de la modernité dans le champ de l'armement.  

Vers la fin du monopole de l'humain dans la guerre? L'homme hors de la boucle de décision.

Mais la principale question posée par la réunion à Genève, et celle qui agite la communauté scientifique, est celle de l'autonomie possible des robots. Doit-on encourager les recherches qui sont déjà menées dans ce domaine?

L'autonomie des robots est analysée en fonction de trois catégories, human in the loop, on the loop, out the loop. Une arme appartenant à la première catégorie peut sélectionner des cibles, mais ne peut recourir à la force qu'après une autorisation. Une arme de type human on the loop peut sélectionner et tuer des cibles, mais reste sous la supervision d’un homme. Enfin, une arme de type human out the loop est capable de sélectionner des cibles et d'utiliser la force de manière autonome, sans supervision humaine.

Toutefois, la valeur normative de ce triptyque se trouve être questionnée par la pratique même. Peter Singer relate ainsi une situation où un navire américain patrouillant dans le golfe, le USS Vincennes, détecte un avion sur son radar. Or, ce navire est précisément le premier à expérimenter un nouveau système de détection de radar intitulé Aegis, capable de détecter avec une plus grande précision des appareils ennemis. Le USS Vincennes bénéficie donc d'une procédure de décision plus restreinte concernant l'autorisation de l'emploi de la force. Le système détecte un avion, qui se trouve être un avion de ligne iranien, donc civil, mais le classe dans la catégorie «assumed enemy». L'équipage, et ce malgré les autres données indiquant le contraire, abandonne son autonomie morale au profit d'une foi en la rationalité supérieure de l'ordinateur: il est plus intelligent, il a donc raison. Ils tirent sur l’avion de ligne, faisant 290 morts. Outre la dimension tragique de l'évènement, la réaction humaine interpelle: même si, dans ce cas, l'homme est in the loop, il a tendance à se situer déjà on the loop et son pouvoir tend à se réduire à l'exercice d'un simple véto, et non à la formulation d'une décision. Cet exemple illustre les imbrications importantes entre technologie et humanité. La technologie n'est pas neutre, et elle modifie notre manière d'agir, de concevoir le monde, et de le penser, ce que Singer souligne avec force.

Aujourd'hui, les recherches menées dans le domaine de la robotique consistent à formaliser en algorithmes des logiques éthiques, telles que la déontologie, le conséquentialisme ou l'utilitarisme, afin de programmer les robots à agir éthiquement dans un théâtre d'opération.

Pour Ronald Arkin, ces recherches sont fondées éthiquement par le fait qu'elles conduiraient à un plus strict respect des normes régissant l'éthique de la guerre. Les robots respecteraient strictement ces droits, et pourraient donc se conduire de manière «plus humaine» que les humains eux-mêmes, puisqu'ils ne sont pas soumis au stress, ou ne ressentent pas le besoin de se venger par exemple. La prévisibilité de la conduite des agents artificiels autonomes serait donc garante d'un plus grand respect des normes internationales. Est-elle pourtant synonyme d'efficacité ou de deshumanisation, et va-t-elle à l'encontre de toute règle éthique?

Un détour par Tolstoï peut éclairer ce problème. Dans son fameux roman Guerre et  Paix, le comte Pierre Bezoukhov, à Moscou, est capturé par le général Davout. Tolstoï nous raconte le jugement de ce dernier, où la vie de Pierre, en passe de se faire exécuter, est entre les mains de Davout.

«Davout leva les yeux et considéra attentivement Pierre. Ils se regardèrent quelques secondes, et ce regard sauva Pierre. A travers ce regard, par-delà la guerre et la justice des tribunaux, des rapports humains s'établirent entre ces deux hommes. L'un et l'autre vécurent obscurément en cette minute mille choses et comprirent qu'ils étaient tous deux enfants de l'humanité, qu'ils étaient frères. Pour le premier regard de Davout, quand il avait la tête de la liste où les hommes et leur vie figuraient sous forme de numéros, Pierre n'était que l'un deux, et Davout aurait pu le faire fusiller sans se charger la conscience d’une mauvaise action. Mais à présent, il voyait en Pierre un homme. Il réfléchit un moment.»[4]

C'est précisément ce moment de réflexion dont le robot se passe, et Peter Singer nous invite à nous interroger sur les conséquences de ce changement.

Quel est l'impact des robots sur la théorie de la guerre juste?

Plus généralement, l'utilisation des robots dans la guerre pose la question d'une possible démonopolisation de l'humain dans la guerre, ce qui suppose d'en interroger les conséquences en termes de jus in bello et de jus ad bellum. Le robot renforce t-il l'aspect asymétrique des guerres, jusqu'à accoler l'adjectif au nom?

Le robot bouscule les principes fondamentaux de la guerre et notamment celui de la proportionnalité. L'utilisation croissante des robots sur les champs de bataille a pour conséquence de réduire les risques pour les femmes et les hommes engagés dans le conflit. Evidemment, cette réduction des risques pris par les humains n'a lieu que d'un seul coté des belligérants, celui le plus équipé.

Or, ce renforcement de l'aspect asymétrique de la guerre conduit à la remise en cause de ce que les théoriciens de la guerre juste, autour de Michael Walzer, appellent l'égalité morale des combattants. Cette égalité morale des combattants peut-être résumée par l'idée que c'est parce que je prends le risque de mourir que j'ai le droit de tuer. C'est la vulnérabilité du soldat qui l'autorise à outrepasser le premier commandement biblique. Pour faire la guerre justement, le combattant doit-il être vulnérable? Or, les robots conduisent à protéger l'homme de la possibilité de mourir sur le champ de bataille. L'utilisation des drones est critiquée surtout par l'asymétrie posée entre l'opérateur de drone dans le Nevada, qui ne prend aucun risque pour sa vie, et la «cible», au Pakistan, qui ne peut se défendre. Un exemple parlant des répercussions de cette asymétrie est celui des critiques faite à la «distinguished medal of warfare». En 2013, Léon Panetta décide de créer une médaille pour récompenser les opérateurs et les combattants du cyberwarfare. En effet, précisément parce qu'ils ne mettent pas leur vie en danger, ces opérateurs ne sont pas éligibles aux distinctions traditionnelles. Il rencontre une forte opposition des anciens combattants, et notamment des purple hearts qui lui demandent dans un communiqué: Comment peuvent-ils avoir une médaille, alors qu’ils ne risquent pas leurs vies?

Ce livre illustre également la vitalité de l'édition dans le domaine de l'armement outre- Atlantique. Peter W. Singer fait en effet partie d'une communauté de recherche qui n'hésite pas à rendre ses travaux accessibles au grand public. Pour toutes ses raisons, Wired for war gagnerait à être traduit en français.

1 —Le chapitre 8I de l'ouvrage, intitulé "What inspires Them : Science Fiction's Impact on Science Reality" est passionnant et témoigne d'un réel intérêt de l'auteur pour la culture SF Retourner à l'article

2 — Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns, Human rights Council, UN Doc. A/HRC/23/47, 9 avril 2013 Retourner à l'article

3 — Peter Singer, Wired for war, p.67, ma traduction. Retourner à l'article

4 — Léon Tosltoï, La guerre et la paix, Livre IV, 1ère partie, Paris, Gallimard, 2013, p.576. Retourner à l'article

 

Nonfiction
Nonfiction (386 articles)
Le portail des livres et des idées
Amélie Ferey
Amélie Ferey (3 articles)
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte