Partager cet article

Comment l'intelligence artificielle pourrait flouer les recruteurs de Daech

Des membres de l'État islamique | Karl-Ludwig Poggemann via Flickr CC License by CC

Des membres de l'État islamique | Karl-Ludwig Poggemann via Flickr CC License by CC

Le recrutement de l'État islamique passe beaucoup par internet. Un process que pourraient facilement enrayer des bots un peu sophistiqués.

Et si on vous disait que lutter contre l’État islamique pouvait se faire relativement facilement, sans débourser trop d'argent, risquer de dégénérer ni mettre quiconque en danger? Trop beau pour être vrai? En fait, pas vraiment. Une des choses que nous savons de Daech, c'est combien le recrutement est essentiel à ses succès et au renouvellement de ses effectifs. Ce recrutement, nous dit-on, est sophistiqué. Il se sert à la fois de propagande et d'interactions directes avec ses cibles et met à profit divers réseaux sociaux. 

Ce recrutement peut nécessiter des milliers d'heures de travail: messages instantanés, tweets, appels Skype, etc. En bref, l'entreprise exige énormément de temps. Et on sait pertinemment que le temps (et l’expertise) n'ont rien d'infini en tant que ressources –sauf que cette affirmation n'est vraie que lorsqu'elle concerne des humains. D'où la prochaine étape du combat contre Daech: l'intelligence artificielle.

Faites du «bruit»

L'un des moyens de rogner sur l'aptitude à combattre de n'importe quel groupe consiste à contrecarrer sa capacité à conquérir de nouveaux combattants et adeptes. Un autre, c'est d'injecter du «bruit» dans les systèmes d'information des décideurs de ce groupe, de telle sorte qu'il soit incapable d'atteindre ses objectifs. De telles tactiques ne sont pas nouvelles, mais ce que nous proposons aujourd'hui pour y parvenir, si. Comment pourrait-on entamer la capacité de Daech à combler ses rangs et perturber leur boucle OODA (Observer-s'Orienter-Décider-Agir)? En mobilisant notre propre aptitude technologique à créer des chatterbots afin de monopoliser le temps et l'attention de ses recruteurs.

De nombreuses technologies sont disponibles, mais un robot-recrue de Daech devrait être bien plus complexe qu'un Elbot

Un chatbot, ou agent conversationnel, est une entité de dialogue artificielle: en gros, un robot qui parle avec des gens. Cette conversation peut prendre la forme de texte écrit ou même de voix. Aujourd'hui, de nombreuses technologies sont disponibles, mais un robot-recrue de Daech devrait être bien plus complexe qu'un Elbot. Un tel chatbot devrait être suffisamment sophistiqué pour flouer un recruteur de l’État islamique –une personne aux ressources limitées– et lui faire croire que l'entité qui lui parle est bien «réelle». C'est un minimum, ou le recruteur ne perdra pas de temps ni de bande passante à traquer des menteurs numériques. 

S'adapter à plusieurs langues

Qui plus est, ce chatbot devra être couplé avec de l'apprentissage automatique, et ce de deux manières. Premièrement, le robot devra patrouiller plusieurs réseaux sociaux à la recherche de recruteurs potentiels et s'afficher comme cible possible. Ensuite, il devra être capable d'adapter sa manière de parler en cours de conversation, dans le fond comme dans la forme, afin de pouvoir «s'adresser» au recruteur. Et on pourrait aussi faire en sorte qu'il «réalise», à partir d'indices verbaux, si le recruteur cherche à quitter la conversation d'une manière ou d'une autre.

Le deuxième problème –le linguistique– est le plus complexe. Des chatbots sophistiquées devront nécessairement être dotés d'un haut niveau de compréhension du langage dont se servent ces groupes sur les réseaux sociaux et les forums de discussion. Vu que Daech a des adeptes partout dans le monde, les robots devront pouvoir parler diverses langues et différents dialectes –être capables de faire la différence entre de l'anglais britannique et américain, par exemple, quand le recrutement cible des Occidentaux. Mais le plus important, pour s'adresser aux arabophones, c'est que le robot puisse avoir un degré de compréhension minimale des dialectes arabes parlés au sein de l’État islamique. Une gageure, vu l'énorme diversité dialectale de l'arabe courant. En outre, il faudrait aussi y ajouter quelques-uns des 2100 langues et dialectes parlés en Afrique –par exemple, le haoussa, qui se parle chez Boko Haram.

Nous avons besoin de chatbots capables de «parler» couramment divers idiomes et dialectes

L'effet «chocolatine»

Ce problème de cohérence dialectale pourrait être désigné comme le «syndrome du pain au chocolat». Si vous cherchez à recruter des gens du sud-ouest de la France en prétendant que vous en êtes vous-même originaire, vous ne pouvez pas faire l'erreur de parler d'une célèbre viennoiserie fourrée en la désignant comme «pain au chocolat», il vous faudra parler de «chocolatine». En bref, nous avons besoin de chatbots capables de «parler» couramment divers idiomes et dialectes en les modulant selon une gamme diverse de classes sociales, d'origines géographiques et de niveaux d'éducation et de sophistication.

Ce qui pourrait sembler bien trop difficile, compte tenu de la diversité des langues disponibles, mais la chose ne l'est pas forcément. Si les chatbots et les logiciels d'apprentissage linguistique devront être continuellement amendés, et ce dès le départ, des robots basiques pourraient quand même faire perdre suffisamment de temps et générer suffisamment de bruit pour avoir une utilité. Des interactions limitées avec un recruteur de l’État islamique, ne serait-ce que quelques échanges, pourraient toujours être suffisantes pour forcer des cadres de Daech à investir un peu de temps et d'énergie, histoire de trier les requêtes valables des fausses. De tels chatbots n'ont pas besoin d'un niveau de sophistication nécessaire pour passer le test de Turing, mais suffisant pour que le recruteur de l’État islamique veuille lui répondre.

Un acte éthique

En outre, des robots basiques pourraient se faire passer pour des recrues locales et régionales, dont bon nombre n'ont en arabe qu'un niveau d'apprentissage scolaire ou familial limité. Vu la variabilité et l'imprévisibilité linguistique de ces locuteurs, les recruteurs de l’État islamique ont probablement déjà observé qu'un grand nombre de recrues potentielles ont un niveau d'arabe médiocre. De la sorte, un chatbot ostensiblement illettré pourrait se faire passer pour une tête à chasser.

Elle pourrait perturber les opérations de l’État islamique par des moyens non-létaux

Une telle proposition ne nécessitera ni nouvelles innovations technologiques majeures, ni de colossaux investissements en temps et en personnel préalables à la conception de l'intelligence artificielle. Et elle est, par ailleurs, tout à fait éthique, car elle pourrait perturber les opérations de l’État islamique par des moyens non-létaux et qui ne bouleverseront pas non plus d'autres réseaux, contrairement aux cyber-opérations à base de virus et autres logiciels malveillants. De fait, les «dégâts» ne concerneront que l’État islamique –le temps perdu, des taux de recrutement médiocres– et, qui plus est, ces dégâts seront totalement auto-infligés, vu qu'ils seront la conséquence directe de son incapacité ou de sa réticence à recruter de manière ouverte.

Une arme jugée sur sa seule efficacité 

Mais comme avec toute idée, il y a des risques ou de potentiels effets adverses. Par exemple, nous savons qu'une partie du recrutement de Daech se déroule sur Facebook ou des forums publics, et cible des individus naïfs, sans aucun intérêt a priori pour l'organisation djihadiste. Un usage aléatoire des chatterbots sur ce genre de forums pourrait perturber ces communautés en manipulant les croyances de ces naïfs, dont beaucoup sont d'ores et déjà des individus marginalisés.

On pourrait aussi craindre que, pour être réellement utile, une telle option doive être mise en œuvre par le gouvernement américain et pas seulement faire l'objet d'un article sur Slate. Mais c'est notamment ce qui rend cette proposition intéressante: son succès ou son échec ne sera pas relatif au degré de connaissance qu'aura Daech de cette tactique, et de la présence ou non en coulisses du gouvernement américain, ou de tout autre acteur.

Pour Daech, la balance coûts/bénéfices pourrait les pousser à arrêter tout recrutement en ligne

Si les chatbots sont de mauvais «parleurs», les recruteurs de Daech les ignoreront, qu'ils aient ou non conscience de converser avec une intelligence artificielle, de la même manière que nous ignorons les commentaires ou les réponses à des mails, blogs ou articles outrageusement robotiques. Par contre, si les chatbots «parlent» à peu près comme des humains et réagissent de manière adéquate, s'ils «comprennent» les dialectes, et ainsi de suite, même si les recruteurs de l’État islamique savent qu'ils peuvent avoir affaire à des robots, ils devront suivre ces pistes ou abandonner totalement internet pour se trouver de nouvelles recrues.

Internet, la source principale de nouveaux adeptes

Bien évidemment, Daech pourrait changer ses stratégies de recrutement, mais une telle évolution pourrait être un succès pour le reste d'entre nous. En cessant d'utiliser des réseaux sociaux ou des forums, l’État islamique les améliorerait et protégerait de fait leurs usagers légitimes. Daech pourrait se mettre à utiliser des «mots clés», à la fois pour se signaler à des recrues potentielles et permettre à ces dernières de se signaler à eux, et dans ce cas, les chatterbots ne feraient que s'ajouter au bruit de fond. 

Mais une telle éventualité ignore le fait que les chatterbots pourraient eux aussi s'adapter (si les mots-clés sont connus) ou que la masse de recrues potentielles pourrait en venir à diminuer (si les mots-clés sont difficiles à trouver). Globalement, pour Daech, la balance coûts/bénéfices pourrait les pousser à arrêter tout recrutement en ligne, soit une victoire écrasante pour nous, vu qu'internet est leur source principale de nouveaux adeptes.

Les chatterbots, des agents neutres

Même si, au départ, les chatbots ne sont pas bien conçus, il ne faut que quelques jours à une intelligence artificielle pour apprendre rapidement. Et les données formatrices acquises en cours de route par les chatterbots pourraient se révéler quasiment inestimables. Qui plus est, les robots peuvent être omniprésents. Ils n'ont pas besoin de dormir, ils n'ont pas besoin de mutuelle ni de frais de fonctionnement, et personne n'est en danger s'ils se font «capter». Impossible pour Daech de révéler les adresses des chatbots, de leur famille ou de leurs amis.

Dans son usage des réseaux sociaux et des forums à des fins de recrutement, de propagande et de communication, l’État islamique est l'un des groupes radicaux les plus sophistiqués au monde. De tels outils lui ont permis de recruter à peu près n'importe qui, n'importe où, très rapidement et très efficacement. Pour autant, grâce à des chatbots linguistiquement sophistiqués capables d'imiter de potentielles recrues et d'injecter du bruit dans la machine à recrutement, le flux des conscrits pourrait se tarir et la machine finir par se gripper.

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte