Alors que la menace plane d'ores et déjà sur le travail des artistes, des traducteurs, ou encore des journalistes, l'intelligence artificielle (IA) pourrait-elle également supplanter celui des scientifiques? C'est en tout cas ce que redoutent certains après la publication d'une étude à ce sujet dans la revue Patterns, le 10 mars dernier. Ces nouvelles recherches révèlent que ChatGPT, le prototype d'agent conversationnel qui n'a de cesse de faire parler de lui ces derniers temps, peut en effet «fabriquer des données médicales convaincantes», rapporte Interesting Engineering.
Les chercheurs sont parvenus à cette conclusion après avoir demandé à ChatGPT de générer le résumé d'un article scientifique portant sur les effets de deux médicaments sur la polyarthrite rhumatoïde. Pour ce faire, ils ont invité l'outil conversationnel à utiliser des données médicales de 2012 à 2020. Tâche accomplie pour ChatGPT qui a produit un article scientifique réaliste et qui est allé jusqu'à affirmer qu'un médicament était plus efficace qu'un autre.
Si certaines des données exploitées par l'outil étaient bel et bien réelles, les scientifiques à l'origine de l'étude doutent cependant que ce soit le cas de chacune d'entre elles puisque «ChatGPT ne prend en compte les données que jusqu'à 2019», souligne Interesting Engineering. Surtout, il leur paraît dangereux qu'une IA puisse tirer des conclusions quant à la plus grande efficacité d'un médicament par rapport à un autre.
Des données difficilement détectable
Les auteurs de cette étude s'inquiètent ainsi qu'il soit dorénavant bien plus facile de publier des recherches frauduleuses «susceptibles de jeter le doute sur tous les travaux légitimes» et que certaines personnes malintentionées en profitent.
«En un après-midi, on peut se retrouver avec des dizaines de résumés d'articles scientifiques qui peuvent être soumis à diverses conférences pour publication», déplorent les chercheurs. «Lorsqu'un résumé est accepté pour publication, il est également possible d'utiliser cette même technologie d'intelligence artificielle pour rédiger son manuscrit.»
Mais pour les chercheurs, l'inquiétude principale est que ChatGPT puisse proposer d'utiliser des données qui n'existent pas afin de rédiger des travaux de recherche. Ces derniers pourraient ainsi «facilement échapper à la détection humaine et finalement, se retrouver dans une publication.»