En mars 2023, Elon Musk, Steve Wozniak, cofondateur d'Apple, et 1.300 autres personnalités ont appelé à mettre en pause la recherche sur l'intelligence artificielle (IA). Ils ne sont pas les seuls à s'inquiéter du développement de cette technologie.
Dans une enquête menée par l'Université Stanford et relayée par Al Jazeera, 36% d'un panel de 327 spécialistes en traitement automatique des langues craignent que dans le futur, l'IA puisse prendre des décisions qui mènent vers une «catastrophe de niveau nucléaire». Au contraire, 73% des experts estiment que l'IA peut conduire à des «changements sociétaux révolutionnaires».
Ces chercheurs interrogés jouent notamment un rôle clé dans le développement des chatbots, et ont été sondés entre mai et juin 2022, juste avant que la firme OpenAI ne sorte ChatGPT en novembre de la même année.
Des «défis éthiques»
«Ces systèmes possèdent une capacité à répondre à des questions, mais aussi à générer du texte, des images et du code, qui était inimaginable il y a dix ans. Ils surpassent de nombreux points de référence, anciens et récents», pointent les auteurs du rapport.
La puissance des systèmes d'IA vient toutefois avec un coût. «Ils sont sujets aux hallucinations, sont biaisés et peuvent être amenés à servir à des fins néfastes, soulignant là les défis éthiques complexes liés à leur déploiement», souligne l'enquête.
La parution de cette étude intervient dans un contexte où les polémiques autour de l'utilisation de l'intelligence artificielle se multiplient, comme lorsqu'un Belge s'est suicidé en mars 2023 après y avoir été poussé par un chatbot, ou lorsqu'une vidéo deepfake de Volodymyr Zelensky capitulant auprès de la Russie a été diffusée.
Régulations
Le grand public s'inquiète lui aussi quant à cette IA. Dans un sondage Ipsos, qui a également été relevé par l'étude de Stanford, il apparaît que seuls 35% des Américains pensent que «les produits et les services utilisant l'intelligence artificielle possèdent plus d'avantages que d'inconvénients». Les Chinois, eux, y sont favorables à 78%, tout comme 76% des Saoudiens ou 71% des Indiens.
L'enquête de Stanford note par ailleurs que les «incidents et controverses» liés à l'IA ont été multipliés par 26 au cours de la dernière décennie. Face à ces développements, certains États ont pris des mesures. C'est le cas de la Chine, qui souhaite réguler des outils tels que GPT-4, afin que cette technologie soit conforme avec «les valeurs fondamentales du socialisme».
L'Union européenne, quant à elle, planche sur une loi sur l'intelligence artificielle afin de pouvoir contrôler l'autorisation, ou non, de certaines IA. Si un jour les robots tout-puissants veulent prendre le contrôle de la planète, ils devront d'abord défaire ces législations.