Life

On ne peut pas contrôler une intelligence artificielle

Slate.fr, mis à jour le 13.05.2011 à 14 h 20

untitled (Robot Cylon), Marcin Wichary via Flickr, CC-Licence-by

untitled (Robot Cylon), Marcin Wichary via Flickr, CC-Licence-by

Les robots deviennent chaque jour plus précis et plus agiles, et les robots du futur le seront d'autant plus, comme ce robot nommé Frida (Friendly robot for industrial dual-arm assembly, robot sympa pour de l'assemblage industriel à deux bras), souligne Singularity Hub. Les développements en termes d'intelligence artificielle les rendent capables d'évoluer et de s'entraider, rappelle Wired.

Les «Trois lois de la robotique», qu'Isaac Asimov avait édicté en 1942, sont-elles devenues un mythe? C'est l'avis d'Aaron Saenz, de Singularity Hub.

La première loi («un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger») est selon lui caduque. D'une part, les drones et autres robots sophistiqués sont aujourd'hui principalement développés par des militaires, précisément à des fins de guerre (de surveillance ou d'attaque sur des humains). D'autre part, les robots capables d'effectuer une opération de chirurgie brisent déjà cette loi.

La seconde loi («un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la première loi»)?

«Nous ne voulons pas que les robots obéissent à n'importe qui, nous voulons qu'ils obéissent à leur propriétaire. Achèteriez-vous une caméra de sécurité qui se couperait chaque fois que quelqu'un le lui demanderait?»

Enfin, la troisième loi, «un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi», resterait valide. Mais uniquement, selon lui, à cause du prix élevé des robots.

Pour autant, malgré toute la littérature —plutôt pessimiste— écrite sur le sujet, peut-on limiter l'intelligence que l'on donne aux machines?

«Nos machines sont nos outils, et l'humain avec les meilleurs outils gagne. Nous subissons de fortes pressions économiques et politiques pour construire des machines intelligentes.»

Quelques projets, comme le Blue brain project, tentent d'explorer les processus du cerveau, et de reproduire ses fonctions, afin de créer une intelligence artificielle au moins aussi puissante que nos cerveaux humains.

Mais contrôler l'intelligence «ne fonctionne pas sur les humains, ne fonctionnera certainement pas sur des machines ayant des capacités d'apprentissage supérieure aux nôtres», selon Aaron Saenz.

Enfin, nous sommes déjà, explique-t-il dans un autre article, entourés de systèmes employant une intelligence artificielle. Par exemple dans la manière dont nos appels téléphoniques sont acheminés, ou dans la manière dont nos moteurs de recherche traitent nos requêtes.

Slate.fr
Slate.fr (9125 articles)
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte