Partager cet article

Selon Stephen Hawking, nous ne sommes pas préparés à l'avènement de l'intelligence artificielle

Si la science-fiction rattrapait la réalité, serions-nous préparés? Pas vraiment, regrette le physicien britannique Stephen Hawking dans une tribune publiée par The Independent.

De 2001, l’odyssée de l’espace à Transcendance, en salles le 25 juin en France, en passant par A.I, Matrix et bien d’autres films, le cinéma envisage depuis bien longtemps de multiples scénarios sur l’intelligence artificielle. Mais ces progrès technologiques ne se cantonnent pas au grand écran, et gagnent aujourd’hui le monde réel. Hawking évoque les voitures automatisées, les ordinateurs capables de gagner contre des humains ou encore les avancées de certains smartphones.

De telles innovations peuvent être sources d’«énormes bénéfices», assure le scientifique:

«Tout ce que la civilisation a à offrir est issu de l’intelligence humaine; on ne peut prédire ce que l’on pourrait accomplir en amplifiant cette intelligence grâce aux outils de l’intelligence artificielle, mais l’éradication de la guerre, de la maladie et de la pauvreté figureraient certainement en haut de la liste de quiconque. Réussir à créer une intelligence artificielle pourrait être le plus grand événement de l’histoire de l’humanité.»

Le problème: «Cela pourrait également être le dernier, si nous n’apprenons pas à éviter les risques», ajoute Hawking.

Les films de science-fiction, une fois encore, nous donnent à voir des scénarios catastrophes. Quand la machine dépasse l’homme, qui sait ce qu’il peut arriver?

«On peut imaginer une telle technologie déjouer les marchés financiers, créer de meilleures inventions que les chercheurs eux-mêmes, réussir à manipuler les dirigeants humains et développer des armes que l’on ne pourrait même pas comprendre.»

Le physicien n'est pas le premier à avertir des potentiels dangers de l’intelligence artificielle, loin de là. James Barrat, auteur du livre Notre invention finale: l’intelligence artificielle et la fin de l’ère de l’être humain, cité par le New Yorker, reprend l’idée du chercheur Steve Omohundro selon laquelle les machines pourraient chercher à obtenir des ressources naturelles:

«Une intelligence artificielle purement rationnelle, écrit Barrat, pourrait étendre “son idée d’instinct de survie… engendrant des attaques proactives contre de potentielles menaces”, y compris, probablement, contre des êtres humains, obligés alors de laisser leurs ressources aux machines.»

A voir tous ces scénarios, on pourrait se croire au moins préparés, explique Stephen Hawking. Mais il n’en est rien, ajoute-t-il: même si la communauté scientifique semble au courant des dangers potentiels de l’intelligence artificielle, très peu de chercheurs se consacrent à en évaluer les risques et à se préparer à les éviter, ou à les combattre.

Vous devez être membre de Slate+ et connecté pour pouvoir commenter.
Pour devenir membre ou vous connecter, rendez-vous sur Slate+.
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte