Temps de lecture: 2 minutes - Repéré sur Scientific American
Depuis que ChatGPT existe, un proverbe dit à peu près: soyez gentil avec le chatbot, ou vous ne survivrez pas à l'inévitable rébellion des intelligences artificielles (IA). Sans verser dans la théorie du Basilic de Roko, y a-t-il réellement un intérêt à être poli avec ChatGPT? Cela ne nous viendrait pas à l'esprit, par exemple, de dire «s'il te plaît» et «merci» à un distributeur automatique de billets.
La réponse est oui, selon une étude récente de chercheurs de l'université Waseda et du centre de recherche sur l'intelligence artificielle de l'institut Riken, tous les deux à Tokyo. Ils ont constaté qu'en ajoutant des formules de politesse aux requêtes, la technologie des «Large Language Models» (LLM) comme celle qu'utilise ChatGPT fournit des réponses de meilleure qualité.
Il y a tout de même une limite. Flattez trop ChatGPT, et ses performances commenceront à diminuer, toujours d'après l'étude. En fait, il est comme chacun de nous: «Les LLM reflètent le désir humain d'être un minimum respectés», écrivent les chercheurs. Ils recommandent donc un degré «modéré» de politesse, similaire à la plupart des interactions entre êtres humains.
Nathan Bos dit souvent «s'il te plaît» et «merci» aux chatbots. Pour ce chercheur spécialiste du relationnel entre humains et IA (qui n'a pas participé à l'étude susmentionnée), «c'est une bonne manière de poser des questions à l'IA». Ne serait-ce que d'un point de vue pragmatique, «“s'il te plaît” indique que ce qui précède est une requête, ce qui facilite la réponse du LLM».
Le ton de la question incite aussi ChatGPT à aller chercher des réponses dans des textes à l'expression similaire. En d'autres termes, l'IA vous rend ce que vous lui donnez. Selon Nathan Bos, les questions polies dirigent le chatbot vers les endroits les plus civilisés, et donc souvent les plus fiables, d'internet. Un ton plus acerbe risque au contraire d'envoyer ChatGPT chercher la réponse dans des forums moins recommandables.
Rendre les robots plus humains, ou les humains moins robotiques
Cette bienveillance peut même s'étendre jusqu'à un soutien semblable à celui d'un maître envers son élève. Des encouragements comme «respire un grand coup et travaille étape par étape» boostent la capacité d'un LLM à résoudre des problèmes mathématiques, a trouvé une étude publiée en 2023 par des chercheurs de Google DeepMind. Là aussi, l'explication repose sur la manière dont est entraîné ChatGPT: de telles phrases l'orientent probablement plus vers des sites de cours de mathématiques qui incitent les élèves à traiter les problèmes étape par étape.
Être poli avec une IA peut donc améliorer ses performances techniques, mais ce n'est pas le seul intérêt. Si, dans les interactions entre humains et robots, le comportement de ces derniers doit encore s'affiner, c'est peut-être aussi le cas de l'autre côté du clavier. La politesse envers un chatbot est en effet «un signe de respect» non pas pour la machine mais pour nous-même, d'après Sherry Turkle, psychologue spécialiste de la technologie au MIT. Pour elle, le danger est que nous nous habituions à utiliser un langage irrespectueux et tyrannique avec les IA, et que nous répercutions sans le vouloir, à terme, cette routine sur autrui.
C'était d'ailleurs pour pallier cette inquiétude grandissante que Google avait lancé, en 2018, la fonctionnalité «Pretty Please» qui encourage les enfants à employer des formules de politesse avec l'assistant Google. Certains parents s'étaient émus de voir leurs enfants aboyer leurs consignes à des assistants virtuels tels que Siri ou Alexa, et craignaient que les vendeurs ou les instituteurs en fassent les frais. «Ne devons nous protéger, confirme Sherry Turkle, car nous sommes ceux qui devrons toujours entretenir des relations avec des vrais personnes.»