Sciences

Votre cerveau va se transformer en arme

Les neurotechnologies vont nous servir à résoudre des problèmes médicaux, mais elles pourraient aussi être utilisées, ou détournées, à des fins militaires.

<a href="https://www.flickr.com/photos/dierkschaefer/2961565820/in/photolist-5vGNkE-4YKKw4-64zrPn-h8UhV-7XtJNd-o3EVhm-9UwYi-kdiB-815VWu-a3vLfi-off1YR-2vfT-bpydp-5MjkCE-5MfXVM-bPbME2-4HwWMS-7APj3z-nXLBAv-bJa77V-763uLi-5Nrged-e4CcRp-2GD3A-qdqqts-o3KF16-62srhZ-acg5vF-p9hCJ4-8Kik7-bPewqD-cdeNh-ihD6Dc-gayZDq-6J7EYR-5MfXWP-2v1uWb-5pms8T-74fi5b-yEqgm-6MaCW8-6EoSxo-quC2pw-awzdr4-bgpTJp-2shyzK-yEqfr-aDdYbB-doVQPX-3MYT">Brain</a> | dierk schaefer via Flickr CC <a href="https://creativecommons.org/licenses/by/2.0/">License by</a>
Brain | dierk schaefer via Flickr CC License by

Temps de lecture: 18 minutes

C'était un jour de juillet parfaitement normal, à ceci près qu'au sein d'un laboratoire de l'université Duke, deux macaques rhésus allaient s'asseoir dans des pièces séparées et regarder un écran d'ordinateur sur lequel s'afficherait un bras virtuel en deux dimensions. La tâche demandée aux singes était la suivante: guider le bras jusqu'à une cible située au centre de l'écran. Dès qu'ils réussissaient, les chercheurs les récompensaient par une rasade de jus de fruit.

Mais il y avait une astuce. Pour effectuer l'exercice et faire bouger le bras, les singes ne devaient pas actionner une manette ou un autre objet similaire. Le mouvement était généré par des électrodes implantées dans des zones de leur cerveau régissant l'activité motrice. Des électrodes capables de capter une activité neuronale et de la transmettre à des ordinateurs.

Pour rendre les choses encore plus intéressantes, les primates pouvaient contrôler à deux le membre numérique. Par exemple, dans une expérience, un singe ne dirigeait que les actions horizontales tandis que l'autre s'occupait des mouvements verticaux. Au bout d'un moment, les singes allaient comprendre, par association, qu'un certain type de pensée faisait bouger le bras. Et après avoir saisi la relation de cause à effet, continuer dans cette voie –de pensée collaborative– qui leur permettait de faire avancer le bras vers la cible et de gagner du jus.

Miguel Nicolelis, neuroscientifique et auteur principal de l'étude, publiée cet été, a un nom pour cette extraordinaire collaboration: le «brainet» (contraction de brain et network, «cerveau en réseau»). À terme, il espère que cette coopération cérébrale pourra servir à accélérer la rééducation des individus souffrant de dommages neurologiques –plus précisément, que le cerveau d'une personne saine pourra interagir avec celui d'une autre, lésé à la suite d'un AVC, et lui permettre de réapprendre plus rapidement à parler ou à bouger une partie paralysée de son corps.

Ses recherches s'intègrent dans une longue et récente série d'innovations réalisées dans le domaine des neurotechnologies: les interfaces cerveau/ordinateur, les algorithmes servant à décoder ou stimuler les neurones, les cartographies du cerveau permettant une meilleure compréhension globale de cet organe et de ses circuits complexes régissant la cognition, l'émotion ou l'action. D'un point de vue médical, nous avons énormément à y gagner, notamment en termes de dextérité prosthétique et de prothèses susceptibles de transmettre des sensations à ceux qui les portent, de connaissances nouvelles et plus poussées sur des maladies comme Parkinson et même de traitements plus efficaces contre la dépression et autres troubles psychiatriques. Ce qui explique pourquoi, dans le monde entier, les chercheurs et les recherches se bousculent pour faire progresser ce champ scientifique.

Double usage

Mais ces innovations ont peut-être un côté obscur. Les neurotechnologies sont des outils à «double usage», ce qui signifie qu'en plus de servir à la résolution de problèmes médicaux, elles peuvent aussi être appliquées (ou déviées) à des fins militaires.

Les mêmes machines conçues pour diagnostiquer un autisme ou une maladie d'Alzheimer pourraient lire dans les pensées les plus intimes des individus. Des systèmes informatiques reliés à du tissu cérébral et permettant à des patients paralysés de contrôler par la pensée des appendices robotiques pourraient être utilisés par des États commandant des soldats bioniques ou des avions de chasse. Et des appareils conçus pour aider un esprit détérioré pourraient servir à implanter ou supprimer des souvenirs dans les cerveaux d'ennemis comme d'alliés.

Prenez le «brainet» de Nicolelis. Poussée à son extrémité logique, selon le bioéthicien Jonathan Moreno, professeur à l'université de Pennsylvanie, l'idée de fusionner les signaux cérébraux de deux personnes, ou plus, pourrait créer le super-soldat ultime:

«Que se passerait-il si vous mélangiez l'expertise intellectuelle d'un Henry Kissinger, qui sait à peu près tout de l'histoire de la diplomatie et de la politique, le savoir d'un expert en stratégie militaire, celui d'un ingénieur de la DARPA, et ainsi de suite?»

Pour Moreno, ce genre de «brainet» pourrait créer une entité militaire quasi-omnisciente, synthétisant des dispositions stratégiques très sophistiquées et des compétences humaines et politiques.

Que se passerait-il
si vous mélangiez l'expertise intellectuelle d'un Kissinger, le savoir d'un expert en stratégie militaire, celui d'un ingénieur de la DARPA?

Jonathan Moreno,
professeur à l'université de Pennsylvanie

Que les choses soient claires, de telles idées ne relèvent aujourd'hui que de la science-fiction. Mais, selon des experts, il ne faudra sans doute pas attendre longtemps avant qu'elles deviennent réalité. Les neurotechnologies progressent très rapidement, ce qui signifie que des innovations révolutionnaires et leur commercialisation sont inévitables, et des gouvernements sont d'ores et déjà sur le coup. La DARPA, responsable de la recherche et du développement scientifiques pour le département américain de la Défense, a lourdement investi dans les technologies cérébrales. En 2014, par exemple, l'agence avait commencé à travailler sur des implants capables de détecter et de moduler les envies.

Officiellement, l'objectif est de pouvoir soigner des anciens combattants toxicomanes ou dépressifs. Mais on peut tout à fait concevoir que cette technologie puisse être transformée en arme –ou que sa prolifération la fasse tomber entre de mauvaises mains. «La question n'est pas de savoir si des acteurs non-gouvernementaux useront de techniques et de technologies neuroscientifiques», déclare James Giordano, neuroéthicien au sein du centre médical universitaire de Georgetown, «mais de savoir lesquelles ils utiliseront et quand».

«Le cerveau est notre prochain champ de bataille»

Depuis des lustres, les gens ont été fascinés et terrifiés par l'idée d'un contrôle de l'esprit. Il est peut-être encore trop tôt pour craindre le pire –des cerveaux piratés par le gouvernement, par exemple– mais le double-usage des neurotechnologies se dessine bel et bien à l'horizon. Certains bioéthiciens craignent qu'à défaut d'un strict encadrement législatif de ces outils, les progrès réalisés dans les laboratoires puissent s'appliquer bien trop facilement dans le monde réel. Pour le meilleur ou pour le pire, estime Giordano, «le cerveau est notre prochain champ de bataille».

Poussées par un désir de mieux connaître le cerveau, à l'évidence l'organe humain le plus inconnaissable de tous, les innovations neurotechnologiques auront connu une véritable explosion ces dix dernières années. En 2005, une équipe de scientifiques annonçait avoir réussi à lire la pensée d'un humain grâce à l'imagerie par résonance magnétique fonctionnelle (IRMf), une technique mesurant le flux sanguin généré par l'activité cérébrale. Un sujet de recherche, allongé et immobile dans un scanner, devait observer un petit écran sur lequel étaient projetés des signaux visuels simples –une séquence aléatoire de lignes orientées dans diverses directions, certaines à l'horizontale, certaines à la verticale, d'autres en diagonale. Chaque orientation de ligne provoquait une effervescence cérébrale d'un type légèrement différent. Au final, en n'observant que cette activité, les chercheurs allaient pouvoir déterminer quel type de ligne le sujet était en train de regarder

Il n'allait falloir que six ans pour assister à une extension spectaculaire de cette technologie de décodage cérébral –avec un petit goût de Silicon Valley– dans une série d'expériences menées à l'université de Californie à Berkeley. Dans une étude publiée en 2011, des sujets devaient regarder des bandes-annonces de films hollywoodiens allongés dans un tube d'IRMf. Grâce à des données générées par un flux de réactions cérébrales, les chercheurs allaient concevoir des algorithmes spécifiques à chaque individu.

Ensuite, les scientifiques enregistrèrent l'activité neuronale des participants pendant le visionnage des bandes-annonces –par exemple, une séquence dans laquelle Steve Martin marchait dans une pièce. Avec les algorithmes, et sur la seule base de l'activité cérébrale enregistrée, les chercheurs ont pu reconstituer a posteriori les scènes visionnées. Si les résultats sont impressionnants, leur rendu n'est pas d'un réalisme photographique, mais tend davantage vers l'impressionnisme: le clip d'un Steve Martin évanescent flottant dans une pièce estompée, le tout dans une ambiance surréaliste

Ce qui allait faire dire à Thomas Naselaris, neuroscientifique œuvrant à la faculté de médecine de Caroline du Sud et coauteur de l'étude de 2011, qu'«il sera tôt ou tard possible de lire dans les pensées». «Ce sera possible de notre vivant», allait-il même préciser.

Un processus d'autant plus accéléré par le développement exponentiel des technologies sous-jacentes aux interfaces cerveau-machine (ICM) –des implants neuronaux et des ordinateurs capables de lire l'activité cérébrale et de la traduire en actions. Ou l'inverse: stimuler des neurones afin de créer des perceptions ou des mouvements physiques. La première interface sophistiquée à avoir atterri sur une table d'opération date de 2006, lorsque le neuroscientifique John Donoghue et son équipe de l'université de Brown ont implanté une puce carrée –mesurant moins d'un demi-centimètre de large et renfermant une centaine d'électrodes– dans le cerveau de Matthew Nagle, 26 ans à l'époque et ancienne star de l'équipe de football américain de son lycée. Nagle avait été poignardé dans le cou et était paralysé à partir des épaules. Les électrodes ont été positionnées sur son cortex moteur. Une zone qui, entre autres, contrôle le mouvement des bras. Quelques jours seulement après l'opération, Nagle, grâce à son dispositif relié à un ordinateur, a été capable de bouger un curseur et même d'ouvrir ses mails par la seule force de sa pensée.

Huit ans plus tard, les ICM sont désormais profondément plus complexes, comme a pu le démontrer la Coupe du Monde 2014 au Brésil. Juliano Pinto, un paraplégique de 29 ans, a revêtu un exosquelette robotique contrôlé par la pensée –développé par l'équipe de Nicolelis– et donné le coup d'envoi de la compétition à São Paulo. Posée sur la tête de Pinto, une calotte détectait les signaux de son cerveau indiquant son intention de shooter. Un ordinateur, accroché dans son dos, recevait ces signaux et allait ordonner à la combinaison robotique d'exécuter l'action.

Version réelle de Inception

En ce qui concerne la complexité de la mémoire, les neurotechnologies vont encore plus loin. Des études ont montré qu'une personne pourrait être capable d'implanter des pensées dans l'esprit d'une autre, soit une version réelle du film Inception. Dans une expérience de 2013 menée par le Prix Nobel Susumu Tonegawa, du MIT, des chercheurs ont implanté des «faux souvenirs» dans une souris. Tout en observant l'activité cérébrale du rongeur, les scientifiques ont placé l'animal dans une cage et l'ont regardé se familiariser avec son environnement. Parmi des millions de cellules, les scientifiques ont été capables d'isoler le réseau neuronal précis stimulé dans l'hippocampe de la souris tandis qu'elle se créait un souvenir de la pièce. Le lendemain, les chercheurs ont placé la souris dans une nouvelle cage, qu'elle n'avait encore jamais arpentée et, tout en lui donnant une décharge électrique, ont activé les neurones qu'elle avait utilisés la veille pour se souvenir de l'agencement de la première cage. Ce qui a formé l'association: lorsque les chercheurs ont replacé la souris dans la première cage, elle s'est figée de peur, et ce même si elle n'y avait jamais subi d’électrocution.

Deux ans seulement après la découverte de Tonegawa, une équipe de l'Institut de recherche Scripps a injecté dans le cerveau d'une souris un produit permettant d'effacer un souvenir précis tout en laissant les autres intacts. Ce genre de technologie d'effacement pourrait servir à soigner le stress post-traumatique, en éliminant des pensées douloureuses et en améliorant par la même occasion la qualité de vie des personnes concernées.

Cette dynamique de recherche ne va probablement pas se démentir, car la révolution de la science de l'esprit croule sous les subventions. En 2013, les États-Unis ont lancé la BRAIN Initiative, avec des centaines de millions de dollars réservés pour ses seules trois premières années de mise en œuvre; les financements ultérieurs restent à déterminer. (Les NIH, soit l'une des cinq agences fédérales impliquées dans le projet, ont pour leur seule part demandé 4,5 milliards de dollars, étalés sur douze ans). Du côté de l'Union européenne, on estime à 1,34 milliard de dollars les fonds alloués au «Projet du Cerveau Humain», courant sur dix ans et débuté en 2013. Ces deux programmes ont comme objectif la conception d'outils innovants permettant de cartographier la structure cérébrale et d'espionner l'activité électrique de ses milliards de cellules. En 2014, le Japon a inauguré un projet similaire, le Brain/MINDS, axé sur les pathologies cérébrales. Et même Paul Allen, co-fondateur de Microsoft, a son propre institut de recherche scientifique, l'Allen Institute for Brain Science, dans lequel il injecte des millions de dollars. Les principaux objectifs de cet institut sont la création d'atlas cérébraux et le décryptage du fonctionnement de la vision.

Bien évidemment, si de telles inventions sont incroyables, la plupart des neurotechnologies actuelles en sont encore à un stade rudimentaire. Elles ne durent pas très longtemps dans le cerveau, ne peuvent lire ou stimuler qu'un nombre limité de neurones ou nécessitent une connexion filaire. Les machines de «télépathie», par exemple, nécessitent des équipements très onéreux, uniquement accessibles à des hôpitaux ou des laboratoires de recherche, et pour des résultats des plus sommaires. Pour autant, l'enthousiasme des chercheurs et de leurs financiers, et leur engagement très fort en faveur des neurosciences, laissent entendre que les futurs dispositifs ne feront que gagner en sophistication, performance et accessibilité à mesure que les années passeront.

De la recherche fondamentale à une menace planétaire

A chaque nouvelle technologie, il y aura des applications diverses et créatives. Mais des éthiciens craignent l'une d'entre elles en particulier: la militarisation.

A l'heure actuelle, semble-t-il, aucun outil cérébral n'a été employé comme arme, ce qui ne veut pas dire que leur valeur militaire n'est pas d'ores et déjà envisagée: cette année, par exemple, une femme tétraplégique a piloté un simulateur de F-35, un avion de chasse, grâce à sa pensée et un implant cérébral dont la conception s'est vue financée par la DARPA. Il ne faudra peut-être pas attendre très longtemps avant d'assister à une telle militarisation –et les précédents d'une transition technologique rapide, de la recherche fondamentale à une menace planétaire et disruptive, ne manquent pas. Après tout, treize ans se seront seulement écoulés entre la découverte du neutron et les champignons atomiques s'étalant dans le ciel d'Hiroshima et de  Nagasaki.

La manipulation mentale par des gouvernements pourrait sagement rester dans l'univers des théoriciens du complot et des auteurs de thrillers technologiques, si les puissances mondiales n'avaient pas un passif si hasardeux en matière de neuroscience. Dans une série très étrange d'expériences menées entre 1981 et 1990, des scientifiques soviétiques ont conçu des équipements visant à perturber le fonctionnement des neurones dans le corps et le cerveau d'individus en les exposant à de fortes doses de rayonnements électro-magnétiques. (Les résultats de ces recherches demeurent inconnus). Pendant plusieurs décennies, l'Union Soviétique a ainsi déboursé plus d'un milliard de dollars pour des dispositifs de contrôle mental.

Un document du projet MK-Ultra relatif aux expérimentations sur le LSD (via Wikimédia Commons).

Aux États-Unis, il faut sans doute remonter aux années 1950 et 1960 pour trouver les cas les plus célèbres d'abus neuroscientifiques, et voir Washington mener divers programmes de recherche visant à surveiller et influencer les pensées humaines. Un projet de la CIA, au nom de code MK-
Ultra, a ainsi promu «la recherche et le développement d'agents chimiques, biologiques et radiologiques capables d'être utilisés dans des opérations clandestines de contrôle du comportement humain», pouvait-on lire dans un rapport de l'inspecteur général de la CIA publié en 1963. Quelque 80 institutions, dont 44 facultés et universités, étaient impliquées, mais leur financement s'effectua sous couvert d'autres objectifs scientifiques, et leurs participants n'eurent pas la moindre idée d'être sous la férule de Langley. Dans un des épisodes les plus tristement célèbres de ce programme, des individus –souvent sans en avoir connaissance– se virent administrer du LSD. Un habitant du Kentucky fut ainsi drogué pendant 174 jours consécutifs. Tout aussi atroces, les projets MK-
Ultra ciblant des mécanismes de perception extra-sensorielle et de manipulation cérébrale électronique, et autres tentatives visant à collecter, interpréter et influencer les pensées d'autrui grâce à l'hypnose ou la psychothérapie.

Aujourd'hui, rien ne prouve que les États-Unis puissent abuser des neurotechnologies à des fins de sécurité nationale. Reste que les forces armées sont très présentes dans ce domaine et très enclines à le voir progresser. En 2011, selon des chiffres rassemblés par Margaret Kosal, professeur à l'Institut de technologie de Géorgie, l'Armée de terre américaine avait provisionné 55 millions de dollars pour la recherche neuroscientifique, la Marine 34 millions et l'Armée de l'air 24 millions. (Il convient de souligner que, dans plusieurs domaines de recherche, l'armée américaine est le premier bailleur de fonds: c'est par exemple le cas de l'ingénierie et de l'informatique.) En 2014, la IARPA, un organisme de recherche développant des technologies de pointe pour les agences de renseignement américaines, a investi 12 millions de dollars dans des techniques d'amélioration des performances, y compris des stimulations électriques du cerveau visant à «optimiser le raisonnement adaptatif humain» –en d'autres termes, rendre les analystes plus intelligents.

Course spatiale neurologique

Mais le gros de l'énergie est généré par la DARPA, une agence suscitant jalousie et méfiance dans le monde entier. A tout moment, elle finance environ 250 projets, recrute et dirige des équipes d'experts issus du monde universitaire et industriel, qu'elle fait travailler sur des missions ambitieuses et pointues. Le penchant de la DARPA pour s'impliquer dans des projets visionnaires et susceptibles de changer le monde –Internet, le GPS, les avions furtifs, pour ne donner que quelques exemples– ne connaît pas d'équivalent. En 2011, sur son modeste (selon les critères de la défense) budget de 3 milliards de dollars, la DARPA a réservé 240 millions à la recherche neuroscientifique. Pour les cinq premières années de la BRAIN Initiative, elle s'est engagée à verser 225 millions de dollars, soit à peine 50 millions de moins que son principal bailleur de fonds, les NIH. 

Avec sa propension à changer la donne et son cachet international, la DARPA a tout pour faire des émules. De fait, en janvier, l'Inde annonçait qu'elle voulait restructurer son organisme de recherche et de développement militaires sur le modèle de la DARPA. L'an dernier, l'armée russe a annoncé la levée de 100 millions de dollars pour une toute nouvelle Fondation de la recherche avancée. En 2013, le Japon a rendu publique la création d'une agence prenant comme modèle «la DARPA des États-Unis», pour reprendre la formule du ministre de la Science et de la Yechnologie, Ichita Yamamoto. (D'aucuns parlent d'ores et déjà de «JARPA».) L'Agence européenne de défense, établie en 2001, répondait au besoin d'une «DARPA européenne». Et le secteur privé n'est pas en reste: Google compte bien importer le modèle DARPA dans ses bureaux.

Le rôle que joueront les neurosciences dans ces centres de recherche reste encore à déterminer. Pour autant, vu les progrès récents des technologies cérébrales, l'intérêt qu'elles suscitent auprès de la DARPA et le désir de nouvelles plateformes de suivre la voie tracée par le Pentagone, il est probable qu'elles recevront une certaine attention –si ce n'est substantielle. Robert McCreight, ancien haut fonctionnaire du Département américain de la défense et spécialiste pendant plus de deux décennies du contrôle des armes, entre autres missions sécuritaires, estime que cet «environnement concurrentiel» pourrait engendrer une sorte de course spatiale neurologique, soit une course au contrôle et à la marchandisation des neurones. Le risque corollaire serait de voir la recherche s'orienter vers la militarisation –et vers un cerveau devenant outil de combat et de guerre.

Les neurotechnologies pourraient devenir des outils pour laver, littéralement, le cerveau de meurtriers ou voler des informations personnelles

Imaginer à quoi de tels outils pourraient ressembler n'a rien de difficile. Aujourd'hui, un casque équipé d'électrodes et posé sur le cuir chevelu d'un individu est capable de capter les signaux cérébraux électroencéphalographiques (EEG) relatifs à une seule fonction –par exemple, shooter dans un ballon. Demain, ces électrodes pourraient subrepticement détecter les codes d'accès d'un système d'armement. De même, une ICM pourrait servir d'aspirateur à données –pour, par exemple, deviner les pensées d'un espion ennemi. Et la perspective est d'autant plus effrayante si on imagine des terroristes, des hackers et autres criminels mettre la main sur ces neurotechnologies. Elles pourraient devenir des outils pour laver, littéralement, le cerveau de meurtriers ou voler des informations personnelles –mots de passe ou codes de cartes de crédit. 

Toujours plus perturbant: il faut savoir qu'à peu près aucune précaution ne semble aujourd'hui prise pour empêcher la concrétisation de ce genre de scénarios. Très peu d'accords internationaux, et même de législations nationales, protègent efficacement la vie privée des individus, et rien ne concerne directement les technologies cérébrales. En termes de double usage et de militarisation, très peu de barrières existent, ce qui expose le cerveau à un large territoire de non-droit.

En matière de droit international, les neurosciences tombent dans un puits sans fond. Une neuro-arme capable de siphonner un cerveau n'est «pas biologique, ni chimique, elle est électronique», explique Marie Chevrier, professeur de politiques publiques à l'université Rutgers. La distinction est essentielle, car au sein des Nations unies, les deux traités existants –la Convention sur les armes biologiques (BWC) et la Convention sur les armes chimiques (CWC)– qui pourraient, en théorie, servir à limiter les abus des technologies cérébrales, ne contiennent aucune disposition sur les armes électroniques. De fait, ces documents n'ont pas été rédigés pour s'adapter aux tendances émergentes, ce qui signifie qu'une arme ne peut être régulée qu'après avoir été créée.

Selon Chevrier, parce que les neuro-armes pourraient affecter le cerveau, soit un système biologique, la BWC, qui interdit l'usage d'organismes biologiques mortels ou nuisibles, ou leurs toxines, pourrait être amendée afin de les prendre en compte. Elle n'est pas la seule à le penser. De nombreux éthiciens en appellent à l'implication plus étroite des chercheurs durant les révisions de cette convention, quand les États membres discutent des modifications à apporter au traité. Mais ce qui manque aujourd'hui à un tel processus, explique Chevrier, c'est un conseil scientifique. (Lors d'une réunion portant sur le traité et organisée en août, l'une des propositions majeures concernait la création d'une telle entité accueillant des neuroscientifiques en son sein. Au moment de la publication de cet article, ses conclusions n'étaient pas connues). Une contribution scientifique pourrait inciter les acteurs étatiques à agir. «Les politiques ne comprennent pas quels dangers représentent ces technologies», avance Chevrier.

Reste que même si un tel conseil scientifique en vient à être instauré, la lourdeur glaciaire de la bureaucratie onusienne pourrait être un autre problème. Les conférences de révision de la BWC, où les États mentionnent les nouvelles technologies susceptibles d'être intégrées à la liste des armes biologiques, surviennent tous les cinq ans –une garantie que les changements apportés au traité soient envisagés bien après l'apparition des innovations scientifiques. «La tendance générale veut toujours que la science et la technologie avancent à pas de géant, et que l'éthique et la politique rampent derrière», déclare Giordano, le neuroéthicien de Georgetown. «Elles sont généralement bien plus réactives que proactives» (Les éthiciens ont déjà un nom pour ce phénomène, «le dilemme de Collingridge», du nom de David Collingridge, qui, dans son livre de 1980, Le contrôle social de la technologie, arguait de la difficulté de prédire l'impact potentiel d'une nouvelle technologie, rendant impossible une avance relative de la politique).

Mais pour Moreno, le bioéthicien de l'université de Pennsylvanie, cela ne justifie en rien l'inaction. Les experts en éthique doivent s'assurer que les développements scientifiques et leurs risques potentiels soient bien compris des politiques. Selon Moreno, les NIH devraient mettre en œuvre un programme permanent de recherche en neuroéthique. Au Royaume-Uni, il y a cinq ans, la Royal Society s'est engagée dans une telle direction, avec la création d'un comité de pilotage rassemblant neuroscientifiques et éthiciens. Depuis, le groupe a publié quatre rapports sur les avancées en neurosciences, dont un concerne les conséquences de ces avancées sur le terrain de la sécurité nationale et des conflits. Selon ce document, la BWC devrait se focaliser sur les neurosciences, et des institutions internationales, comme l'Association médicale mondiale, devraient mener des études sur le risque de militarisation de toute technologique affectant le système nerveux, y compris celles, comme les ICM, qui ne sont pas explicitement couvertes par les législations internationales.

Reste que la neuroéthique est un domaine de recherche relativement nouveau. En réalité, sa dénomination n'aura été proprement fixée qu'en 2002. Depuis, elle s'est considérablement développée, avec des programmes à Stanford, Oxford ou encore celui du Réseau européen pour les neurosciences et la société, des programmes subventionnés notamment par la Fondation MacArthur et la Fondation Dana. Quoi qu'il en soit, l'influence de ces institutions est encore débutante. «Elles délimitent l'espace de travail», déclare Giordano. «Maintenant, il faut se mettre à travailler.»

Déconnexion entre science et éthique

Un autre élément perturbant est à trouver du côté des scientifiques et de leur méconnaissance du double usage des neurotechnologies –soit, littéralement, la déconnexion entre science et éthique. Malcolm Dando, qui enseigne la sécurité internationale à l'université de Bradford, en Angleterre, se rappelle avoir organisé divers séminaires scientifiques dans tout le Royaume-Uni en 2005, soit l'année précédant une conférence de révision de la BWC, visant à éduquer les experts sur les potentiels mésusages des agents biologiques et des outils neurologiques. Se rendre compte qu'ils «ne savaient pas grand chose» l'a profondément choqué. Par exemple, il se souvient d'un scientifique niant qu'un microbe qu'il gardait dans son réfrigérateur puisse avoir un double usage. Dando parle d'un «dialogue de sourds». Depuis, les choses n'ont pas vraiment changé. Cette inconscience, explique-t-il, «est certainement toujours répandue» parmi les neuroscientifiques.

Mais Dando tient à préciser que les dilemmes moraux des neurosciences ne sont pas pour autant totalement inconnus, et qu'on peut y voir un motif d'optimisme. Par exemple, Barack Obama a chargé la Commission présidentielle pour l'étude des questions bioéthiques de préparer un rapport sur les éventuels problème éthiques et juridiques posés par les technologies de la BRAIN Initiative et, en Europe, le Projet du cerveau humain s'est doté d'un programme de gouvernance éthique et sociale.

Reste que de telles initiatives pourraient contourner la question spécifique des neuro-armes. Par exemple, le rapport de 200 pages portant sur les implications éthiques de la BRAIN Initiative, rendu public dans son intégralité en mars, ne parle jamais de «double usage», ni de «militarisation». Selon Dando, cette lacune –même dans la littérature neuroscientifique, où on pourrait s'attendre à voir émerger ce genre de questions– est la règle, pas l'exception.

Miguel Nicolelis, en mai 2014. REUTERS/Paulo Whitaker.

En 1999, quand Nicolelis avait créé sa première interface cerveau-machine –un rat, par la seule force de la pensée, actionnait un levier pour avoir à boire–, jamais il n'aurait imaginé qu'un tel dispositif serve d'outil de rééducation pour des individus paralysés. Mais aujourd'hui, ses patients sont capables de donner le coup d'envoi d'une Coupe du Monde de football grâce à des exosquelettes contrôlés par le cerveau.

Et les applications de ses recherches ne cessent de se multiplier. A l'heure actuelle, Nicolelis travaille sur une version non-invasive du «brainet» –des casques EEG– dans des cliniques où des physiothérapeutes pourraient utiliser leurs propres ondes cérébrales pour aider des blessés à remarcher. «Le physiothérapeute prête son cerveau 90% du temps, et le patient 10% du temps, ce qui pourra permettre à ce dernier un apprentissage plus rapide», explique-t-il. 

Mais Nicolelis admet craindre qu'un développement trop important de ces innovations puisse représenter un risque d'utilisation malveillante. Après un dernier projet réalisé au milieu des années 2000, avec des ICM permettant à des anciens combattants blessés de gagner en mobilité, il refuse désormais tout subside de la DARPA. Selon lui, du moins aux États-Unis, il est minoritaire dans son choix. «A mon avis, des neuroscientifiques sont assez idiots pour fanfaronner lors de nos assemblées sur tout l'argent que la DARPA leur donne pour faire leurs recherches, sans même réfléchir à ce que la DARPA pourrait en vouloir», dit-il.  

L'idée que les ICM, l’œuvre de sa vie, deviennent des armes, le peine profondément:

«Ces vingt dernières années, j'ai cherché à faire quelque chose qui, sur le plan intellectuel de la compréhension du cerveau, pouvait avoir un avantage, et peut-être aussi se révéler bénéfique sur un plan clinique.»

Mais le fait est que le développement de neuro-armes, parallèlement aux applications cliniques des technologies cérébrales, a quelque chose d'irrémédiable. Quelles seront ces armes, quand elles émergeront, dans quelles mains elles tomberont, cela reste à voir. A l'heure actuelle, les gens n'ont évidemment pas besoin de se faire un sang d'encre à imaginer leur cerveau sur le point d'être exposé au tout venant. Mais si ce scénario catastrophe d'un cerveau humain devenu outil –plus sensible qu'un chien renifleur, aussi maniable qu'un drone et bien plus vulnérable qu'un coffre-fort éventré– a tout de la dystopie, une question mérite d'être posée: en faisons-nous assez pour contrôler une nouvelle génération d'armes létales avant qu'il ne soit trop tard?

cover
-
/
cover

Liste de lecture