Les robots tueurs de Google, programmés pour épargner Sergei Brin et Larry Page

Terminator 2 | ©

Terminator 2 | ©

Vu les investissements récents de Google dans la robotique, et les interrogations suscitées par les progrès réalisés en la matière, il y a de quoi se demander si cette blague est du meilleur goût. 

Un commentateur de Hacker news a en effet découvert que Google venait de placer un drôle de fichier texte dans ses serveurs, intitulé «killer-robots.txt». Ce dernier s'adresse aux robots T-800 et T-1000. Soit les deux versions des robots tueurs incarnés par Arnold Schwarzenegger dans la saga Terminator. 

Avec ces quelques lignes de code, explique The Verge, Google exige de ces robots tueurs qu'ils «épargnent les cofondateurs de l'entreprise –ou "rejette", pour être plus précis, leur mort».

Le fichier killer-robots.txt

Le fichier texte, sauvegardé ce 1er juillet, serait en fait un hommage au vingtième anniversaire du célèbre fichier robots.txt, «un outil créé en 1994 qui indique aux moteurs de recherche et à tout autre robot automatisé d'éviter de chercher dans certaines pages» Internet, explique encore The Verge. Un fichier sur lequel s'appuie donc évidemment Google.

Si le clin d'oeil a de quoi faire sourire, tout comme un autre fichier du genre que l'on trouve sur les serveurs de Google, human.txt, il ravive néanmoins quelques inquiétudes en ce qui concerne le futur de la robotique. Un secteur massivement investi par Google, qui vient ainsi de racheter (pour un montant tenu secret) Boston Dynamics, une société qui a notamment un contrat avec la Darpa, l'agence de recherche du ministère de la Défense américain.

Avec l'avènement des robots, notamment de combat, et les recherches autour de l'intelligence artificielle, de plus en plus de voix s'élèvent pour réclamer une réflexion plus profonde sur le rôle qu'auront à tenir les machines (éventuellement «intelligentes») dans le futur.

Le célèbrissime scientifique Stephen Hawking a même prévenu:

«Réussir à créer une intelligence artificielle pourrait être le plus grand événement de l’histoire de l’humanité. Cela pourrait également être le dernier, si nous n’apprenons pas à éviter les risques»

Partager cet article