Tech & internet / Sciences

Les bots: qui sont-ils? quels sont leurs réseaux?

La bêtise artificielle peut être tout aussi dangereuse que l’intelligence artificielle.

<a href="https://www.flickr.com/photos/jeanbaptisteparis/4563757841/in/photolist-CBNN3-4tjEND-4nQLfY-dhPcaH-8A2Ws8-eosDsg-7m77Ag-cLhQh-5KBLxs-7hwgz3-cBfnhU-4zXied-kQhdE2-4rqsY-mVAf5v-7eiMBE-4KTUpa-8KGSmu-4yXXJo-53Lf1v-9ANzCf-4KWYdS-8b5Nsn-5FLxJ1-5FdKWh-3P1Ser-pdPDZi-7Xhsd2-5VrC6f-p4RNZQ-fwJWW8-pEPPUw-6pSrHK-7E8EzC-vssBq-dNL41z-9yqN2n-aELJ9R-er2BgY-LEiSU-4ZrHz7-xeEQR">Danger: robots!</a> | jeanbaptisteparis via Flickr CC <a href="https://creativecommons.org/licenses/by-sa/2.0/">License by</a>
Danger: robots! | jeanbaptisteparis via Flickr CC License by

Temps de lecture: 10 minutes

Il est enfin là, le jour que craignaient les auteurs de science-fiction depuis si longtemps –les machines se sont soulevées. Il n’y a nulle part où aller, nulle part où se cacher. L’assaut informatique des «bots» est là et tout homo sapiens est une cible pour ces légions d’automates infatigables, innombrables et dénués d’émotions. La résistance est futile, crétins d’humains –les bots sont en marche. Pour prendre la mesure de cette armée automatisée lancée contre nous, prenez cet article datant de 2014, qui disait qu’on estime qu’un tiers du trafic sur le web est faux. Les bots font semblant d’être nous.

Tels des rats, les bots ont colonisé une impressionnante variété d’environnements. Vous jouez aux jeux vidéo? Le type qui a des réflexes apparemment surhumains et qui n’arrête pas de vous mettre la pâtée est probablement un bot. Utilisez la plateforme de rencontres Tinder et vous serez en proie à des vagues de créatures robotiques voraces lors de votre quête amoureuse. Vous voulez avoir une discussion avec des gens sur Twitter? Certains de vos interlocuteurs ne sont probablement pas humains. Vous avez le culot de vous élever contre le Kremlin voire contre le gouvernement mexicain avec un point de vue dissident? Appelez John Connor, parce que voilà les bots –des bots qui répètent sans relâche des arguments favorables au régime, des bots qui tentent de vous dissuader de manifester, ainsi que de nombreux autres instruments de répression politique automatisés. Et comme si cela ne suffisait pas, les hackers aussi peuvent utiliser des bots pour automatiser une variété de tâches sordides.

Elon Musk, de Tesla, tout comme le célèbre astrophysicien Stephen Hawking sont devenus les chefs de file de la peur croissante qui entoure l’intelligence artificielle –mais ce qu’il y a de plus fascinant en l’occurrence, c’est peut-être le fait que leurs mises en garde portent sur des automates hypothétiques et malicieux, faisant fi de ceux qui existent déjà. Musk, dans une interview récente, se demandait si nous devrions nous estimer heureux si les robots du futur faisaient de nous leurs esclaves. L’humanité est pourtant d’ores et déjà compromise par un différent type d’assaut de bot auquel elle ne peut pas échapper, et Musk n’a pas tiré la sonnette d’alarme.

Peut-être cela est-il dû au fait que la menace artificielle qui lorgne derrière la montée des machines n’est pas vraiment ce que l’on considère comme de l’«intelligence artificielle». Au contraire, quand on sonde les armées de bots sur Internet, on ne peut qu’être ébloui par le pouvoir de la bêtise artificielle. Malgré leur programmation rudimentaire et leur ressemblance à des insectes, les bots ont réussi à gâcher la vie de beaucoup de gens.

Lignes de code rudimentaire

Alors qu’est-ce qu’un bot? Malgré leur nom de bots, et contrairement aux images illustrant les articles qui parlent de technologie, ces entités non humaines présentes sur Internet ne sont pas littéralement des robots qui tapent sur des claviers avec leurs doigts métalliques.

Ce sont des programmes informatiques rudimentaires, que James Gleick a habilement définis dans un article pour le magazine New York Review of Books:

Il va désormais de soi qu’en plus de ce que nous appelons le «vrai monde» nous occupons une variété de mondes virtuels. Prenez Twitter. Ou la twittosphère. Vous vous dites peut-être qu’il est exagéré de parler de «monde», mais par de nombreux aspects c’est devenu un modèle réduit d’univers, peuplé par des millions de membres, dont la plus grande partie ressemblent à des humains et sont peut-être même des humains dans la vie de tous les jours. Mais un nombre croissant d’utilisateurs de Twitter ne font même pas semblant d’être humains. Ou alors –et c’est pire– ils font semblant, alors qu’ils sont en fait des bots.

«Bot» est évidemment l’abréviation de robot. Et les bots sont des robots lilliputiens, décharnés et parfaitement incapables –en général ils ne sont guère plus que quelques lignes de code rudimentaire. Ce qui est terrifiant, c’est la facilité avec laquelle on peut se faire embobiner.

Alors pourquoi est-ce qu’on les appelle des «bots» s’ils sont beaucoup plus simples que la plupart des vrais robots, qui ont, quant à eux, une architecture logicielle complexe? Répondre à cette question revient à se lancer dans des débats de fond à propos de ce que représente vraiment l’intelligence des machines. Dans leur traité sur l’intelligence artificielle, David Poole et Alan Mackworth décrivent différentes approches à la construction d’agents artificiels. L’une d’entre elles consiste à créer un programme informatique complexe qui fonctionne bien dans un environnement simplifié pour l’agent. Un robot d’usine est par exemple capable d’être performant dans son cadre industriel mais il est tout à fait possible qu’il soit perdu une fois sorti de ce contexte. L’autre approche, c’est de créer un agent simple, semblable à une bestiole, avec des capacités de raisonnement et d’action limitées mais la capacité à fonctionner dans un environnement complexe et interactif. De nombreux robots inspirés par la nature correspondent à ce paradigme conceptuel.

Les cafards et les termites de l’écosystème artificiel: dégoûtants mais néanmoins sortis victorieux de l’évolution

Pour comprendre ce qu’est un bot, le plus facile est d’imaginer un «agent qui travaille pour le compte d’un utilisateur ou d’un autre programme», comme l’écrit le chercheur en sécurité informatique David Geer. Bien que les bots aient beaucoup en commun avec le deuxième paradigme de conception d’agent de David Poole et Alan Mackworth, on peut dire qu’ils échappent largement à l’intelligence artificielle et à ses débats. Alors que les intelligences artificielles sont étonnamment primitives et fragiles, difficiles à introduire dans de nouveaux environnements et basées sur une série contradictoire d’hypothèses scientifiques, les bots quant à eux n’ont pas ces problèmes-là. Si les programmes d’intelligence artificielle sont les lions et les aigles de l’écosystème artificiel, alors les bots en sont les cafards et les termites, dégoûtants mais néanmoins sortis victorieux de l’évolution.

De nombreux bots ne sont guère plus que des programmes de contrôle automatique qui sont à peu près aussi sophistiqués que des thermostats. Les lecteurs qui pourraient être intéressés à se fabriquer un bot pour les aider à lire et à répondre aux fils de discussion sur Reddit, par exemple, peuvent consulter ce guide pratique du langage de programmation Python. Mais tous les bots ne sont pas même programmés dans ce langage avancé. Prenez de nombreux bots de jeux, par exemple. Ceux de Counter-Strike: Global Offensive ne sont rien de plus que des fichiers de configuration qui personnalisent les opposants de jeu existants, et vous pouvez programmer des bots pour de nombreux jeux avec le programme Windows AutoHotkey.

Capacité à duper

Les bots sont faciles à créer, requièrent un minimum d’expérience de programmation et de connaissances en informatique, et ils peuvent rapporter énormément. Et c’est surtout cela qui fait que le botting est une affaire sérieuse. Cela peut sembler exagéré, vu le côté apparemment léger des bots de Tinder, des trolls automatiques de Twitter et des bots de jeux vidéo. Moi-même, j’aime m’évader de la monotonie de l’université en trollant des bots sur Twitter: je leur dis d’être plus performants à leur test de Turing. J’ai même proposé pour rire à Miles Brundage, mon collègue de Future Tense sur Slate.com, de mettre en place une école pour bots pour aider ceux-ci à devenir plus «intelligents».

Malgré tout, les dégâts occasionnés par les bots ne font pas rire tout le monde. Le botnet Gameover Zeus a notamment fait perdre une centaine de millions de dollars aux petites entreprises qu’il a ciblées aux États-Unis et a infecté près d’un million d’ordinateurs dans le monde. Et quand le but est d’utiliser les bots pour étouffer l’expression politique, les dégâts sont difficiles à quantifier mais n’en sont pas moins sérieux. Le problème avec les bots, ce sont les conséquences de leur capacité à duper, ne serait-ce que par leur nombre.

Quand les réalisateurs d’Ex Machina, le nouveau film qui évoque l’intelligence artificielle, se sont mis à réfléchir à une campagne publicitaire sauvage qui pourrait capter l’attention des gens pour faire la promotion de leur film, ce n’est pas un robot qu’ils ont décidé de construire. Ils ont créé un bot pour Tinder. Sur la plateforme de rencontres en ligne, les festivaliers solitaires de l’événement SXSW ont interagi avec une femme séduisante qui leur demandait ce que cela signifiait d’être humain… pour ensuite se rendre compte qu’«elle» était en fait un programme informatique qui suivait un scénario, sous les traits de l’actrice principale d’Ex Machina. Tandis que les bots de conversation qui collent à un scénario sont aussi vieux que l’intelligence artificielle elle-même, cette fausse tentatrice du SXSW est emblématique d’une tendance plus vaste et plus inquiétante.

D’habiles programmateurs de bots sur Tinder peuvent par exemple duper des utilisateurs naïfs en concevant et en programmant leurs bots pour imiter mademoiselle tout-le-monde. Les bots ont des photos évocatrices de filles lambda sur lesquelles tomberait un utilisateur mâle de Tinder, ils répondent aux messages relativement lentement de façon à imiter une véritable interaction en ligne dans ce contexte et ils incorporent des éléments de conversations de sites de rencontres qui sont troublants de réalisme, tels que des compliments et de la drague, pour inciter les soupirants potentiels à leur envoyer des textos. Les bots réussissent ou échouent selon que leurs créateurs maîtrisent l’art de créer l’«illusion d’intelligence», une sorte de jeu de dupes informatique qui utilise le moins «intelligent» des agents artificiels pour donner l’impression d’humanité à des gens qui surfent sur Internet.

Des photos évocatrices de filles lambda sur lesquelles tomberait un utilisateur mâle de Tinder

Où est le mal, si ce n’est de faire quelques cœurs brisés? Les escrocs qui utilisent des bots sur les sites de rencontres cherchent à s’enrichir directement auprès de leurs cibles en manque d’amour, ou à les utiliser pour qu’elles installent des logiciels malveillants sur les ordinateurs d’utilisateurs qui ne se doutent de rien. Les spammeurs se sont révélés remarquablement créatifs et dotés de talents d’adaptation. La forme de botting la plus perverse sur Tinder est sans doute celle qu’on appelle «sextorsion». Il s’agit d’une pratique qui consiste à embarquer des utilisateurs qui ne se doutent de rien dans des séances via webcam avec de jolies jeunes filles apparemment innocentes, pour pouvoir les filmer et les faire chanter ensuite. Si ceux-ci ne paient pas, le fraudeur fait en sorte de publier la vidéo en ligne ou de l’envoyer aux proches de sa victime.

Déploiement de hordes

En revanche, l’utilisation de bots à des fins criminelles va bien plus loin que les sites de rencontres en ligne; les bots sont un outil de piratage qui a fait ses preuves. Vous avez probablement entendu parler des botnets, ces groupes de bots organisés en réseaux qui exécutent simultanément une attaque de déni de service distribué en envoyant une grande quantité de messages à un système cible. Mais c’est seulement la pointe de l’iceberg en matière de stratagèmes malveillants dont disposent les programmateurs de bots.

Les bots sont capables de générer un nouveau chiffrement pour duper les programmes de sécurité et ils peuvent être équipés de mécanismes d’attaque programmables et coopérer les uns avec les autres dans le cadre d’un système distribué pour générer des attaques complexes. Les bots peuvent même être combinés avec des vers informatiques afin de créer des menaces hybrides. Si les bots ne se reproduisent pas et ne se propagent pas tous seuls, ils peuvent donner l’impulsion de le faire à des vers. On pense que le Witty worm, qui a infecté et fait crasher des dizaines de milliers de serveurs en 2004, a probablement été lancé par un botnet.

Mais les effets néfastes des bots ne se limitent pas au domaine criminel. Depuis l’élection de l’actuel président du Mexique, Enrique Peña Nieto, le gouvernement mexicain a par exemple utilisé des hordes de bots dans le but de censurer l’expression politique. Au cours de l’année qui vient de s’écouler en particulier, les campagnes de mobilisation en ligne contre le président mal aimé ont disparu après le lancement par le gouvernement mexicain de bots, qui ont réussi à enterrer le hashtag très populaire #YaSeQueNoAplauden. Si les campagnes en ligne reposent sur la masse critique, alors celles-ci peuvent être annihilées par un déploiement judicieux d’importants groupes de bots.

Récemment, là aussi, des utilisateurs ukrainiens de Facebook ont demandé à son PDG Mark Zuckerberg d’intervenir; une «armée de bots» contrôlée par le Kremlin s’est en effet mise à spammer Facebook, émettant des plaintes liées aux pages de militants pro-Ukrainiens en grande quantité, ce qui a eu pour effet de faire bannir les pages des militants, même quand celles-ci ne contrevenaient pas aux règles d’utilisation de Facebook. De manière générale, la Russie s’est révélée particulièrement friande d’alliances entre l’humanité illusoire de bots spammeurs et la force brutale des attaques de hordes de bots dans ses campagnes de propagande. Une récente analyse de l’écologie des bots du Kremlin sur les réseaux sociaux a révélé une panoplie étendue de bots déguisés en vrais utilisateurs qui ont pris Twitter d’assaut pour essayer de faire pencher l’histoire de leur côté quelques heures à peine après l’assassinat du dissident russe Boris Nemtsov dans des circonstances suspectes.

Tous les bots ne sont pas mauvais; il y a un aspect ludique et une saine curiosité à l’art de créer des bots

Le travail de ceux qui étudient les conséquences liées à l’intelligence artificielle à court et à long terme, qu’il s’agisse de Nick Bostrom ou de l’Institut Future of Life, est certes important. Mais que des scénarios saugrenus et alambiqués au possible, tels que celui de Roko’s Basilisk, éclipsent l’offensive de bots qui a réellement lieu en dit long. Tous les bots ne sont pas mauvais; il y a un aspect ludique et une saine curiosité à l’art de créer des bots, comme on a pu le voir lors de piratages ingénieux tels que Twitch Plays Pokémon et dans le cadre d’expériences qui étudient des scénarios hypothétiques, comme les combats de bots dans Civilization. Côté humour, des bots ont aussi été intégrés à la bataille ancestrale visant à réserver une table dans de grands restaurants de San Francisco. Il est également possible d’utiliser des bots militants préprogrammés pour manifester contre le pouvoir en place. Mais il ne faut pas sous-estimer la capacité des bots à faire du mal, qu’il s’agisse d’escroquerie, de répression politique ou de piratage criminel.

Ne lésinons pas sur les termes, nous sommes assiégés par des hordes de bots. Qui peut sauver l’humanité de la menace des bots? Tout n’est pas perdu; le défi de la détection des bots a donné lieu à ce qui se fait de plus intéressant comme recherche dans le domaine informatique. Cela a fait apparaître des outils comme le détecteur de bots BotOrNot de l’université d’Indiana. Mais la détection des bots est l’équivalent d’une course à l’armement; quand les entreprises pensent qu’elles ont été plus malignes que les créateurs de bots, alors les bots s’adaptent. Malheureusement, il est fort probable que notre combat contre les bots sera long.

Cet article a été rédigé dans le cadre de Future Tense, une collaboration entre l’université de l’État d’Arizona, New America et Slate.com. Future Tense explore la façon dont les technologies affectent la société, la politique et la culture.

Pour retrouver d’autres articles, rendez-vous sur le blog de Future Tense et sur la page d’accueil de Future Tense (en anglais). Vous pouvez aussi suivre Future Tense sur Twitter.

cover
-
/
cover

Liste de lecture