Tech & internet

Votre chat est plus intelligent qu'une IA

Temps de lecture : 4 min

Si l'intelligence artificielle peut nous émerveiller de ses prouesses, il existe des domaines où elle fait pâle figure comparée à l'intelligence humaine et animale.

Qui est vraiment le plus futé, l'animal ou la machine? | Catherine Heath via Unsplash
Qui est vraiment le plus futé, l'animal ou la machine? | Catherine Heath via Unsplash

Si vous possédez un animal domestique, par exemple un chien ou un chat, regardez-le attentivement et vous aurez alors un bon aperçu de tout ce qu'on ne sait pas faire en intelligence artificielle.

«Mais mon chat ne fait rien de la journée à part dormir, manger et se laver», pourriez-vous me répondre. Pourtant, votre chat sait marcher, courir, sauter (et retomber sur ses pattes), entendre, voir, guetter, apprendre, se cacher, être heureux, être triste, avoir peur, rêver, chasser, se nourrir, se battre, s'enfuir, se reproduire, éduquer ses chatons –et la liste est encore très longue.

Chacune de ces actions met en œuvre des processus qui ne sont pas directement de l'intelligence au sens le plus commun, mais qui relèvent de la cognition et de l'intelligence animale.

Tous les animaux ont une cognition qui leur est propre, de l'araignée qui tisse sa toile jusqu'aux chiens guides qui viennent en aide aux personnes. Pour certains, ils peuvent même communiquer avec nous –pas par la parole, bien entendu, mais en utilisant le langage du corps et la vocalisation (des miaulements, des aboiements).

En ce qui concerne votre chat, lorsqu'il vient négligemment se frotter contre vous ou bien qu'il reste assis devant sa gamelle ou une porte, le message est assez clair. Il veut une caresse, a faim ou veut sortir, puis rentrer, puis sortir, puis rentrer… Il a appris à interagir avec vous pour arriver à ses fins.

Robots boiteux

Parmi toutes ces aptitudes cognitives, il n'y en a aujourd'hui qu'une toute petite poignée que l'on commence un peu à savoir reproduire artificiellement, et notamment la marche bipède.

Ça n'a l'air rien de rien et c'est pourtant quelque chose d'extrêmement compliqué à réaliser pour la robotique. Il aura fallu de nombreuses décennies de recherche avant de savoir construire et programmer un robot marchant convenablement sur deux jambes, c'est-à-dire sans tomber à cause d'un petit caillou sous son pied ou lorsqu'une personne l'a simplement effleuré d'un peu trop près.

Cette complexité existe aussi chez l'homme, puisque si vous vous rappelez bien, il nous faut en moyenne une année pour apprendre à marcher –c'est dire la complexité du problème. Et je n'évoque que la marche, je ne vous parle même pas de la marelle ou du foot. Ou bien si: aujourd'hui, l'un des plus gros défis en robotique autonome est de faire jouer des robots au football!

La RoboCup 2020 réunissant près de 3.500 scientifiques et 3.000 robots aura lieu en juin prochain à Bordeaux. Vous pourrez y observer des robots jouer au football, encore un peu maladroitement, il faut bien le reconnaître.

Et la reconnaissance des objets, alors? On sait le faire ça aujourd'hui, non? S'il est vrai que l'on a vu apparaître ces dernières années des algorithmes capables de nommer le contenu de pratiquement n'importe quelle image, on ne parle pas pour autant d'intelligence ou de cognition.

Pour le comprendre, il faut regarder comment ces algorithmes fonctionnent. L'apprentissage supervisé, qui reste aujourd'hui la méthode la plus populaire, consiste à présenter au programme des images ainsi qu'un mot décrivant le contenu de chaque image.

Le nombre total d'images est généralement bien supérieur au nombre de mots utilisés, car pour un même mot, on va associer un très grand nombre d'images représentant l'objet dans différentes situations, sous différents angles de vue, sous différentes lumières, etc. Par exemple, pour reconnaître un chat, on peut présenter jusqu'à un million d'images.

En faisant cela, le programme va se constituer une représentation visuelle interne de ce qu'est cet objet, en calculant une sorte de moyenne de l'ensemble des images. Mais cette représentation n'est in fine qu'une simple description qui n'est pas ancrée dans la réalité du monde.

Expérience sensible

Pour que cela soit le cas, il faudrait que l'algorithme possède un corps lui permettant de faire l'expérience de l'objet. Mais quand bien même, pourrait-il comprendre ce qu'est un verre, s'il n'a jamais soif? Pourrait-il comprendre le feu, s'il ne ressent jamais la douleur? Pourrait-il comprendre le froid, s'il ne frissonne jamais?

Ce qu'il faut comprendre lorsqu'un algorithme reconnaît un objet dans une image, c'est que ce même algorithme ne comprend pas du tout (mais alors vraiment pas du tout) la nature de cet objet. Il ne procède que par recoupement avec des exemples qu'on lui aura présentés auparavant.

Cela explique d'ailleurs pourquoi qu'il y a eu des accidents avec les voitures autonomes: des éléments du paysage ont été pris pour d'autres (un camion pour un panneau), amenant à des collisions parfois mortelles.

Quid de l'être humain? Faites l'expérience de montrer une seule fois un vrai chiot à un enfant et il saura reconnaître n'importe quel autre chiot, même s'il ne connaît pas encore le mot. Les parents, en désignant et en nommant les choses, vont permettre à l'enfant de développer le langage sur des concepts dont il aura fait lui-même l'expérience. Cet apprentissage qui nous paraît facile, voire évident, ne l'est pourtant pas.

«J'ai su que “eau” signifiait la merveilleuse chose fraîche qui ruisselait sur ma main.»
Helen Keller

Cela est très bien illustré par la vie d'Helen Keller, devenue sourde, aveugle et muette à l'âge de 2 ans. Son éducatrice, Anne Sullivan, a pendant longtemps essayé de lui apprendre les mots en lui dessinant des signes sur la paume de la main, puis en lui faisant toucher l'objet correspondant. Dans un premier temps, les efforts d'Anne Sullivan ont été infructueux: Helen ne possédait pas les points d'entrée de cet étrange dictionnaire.

Jusqu'au jour où Anne amena Helen à un puits pour lui faire ruisseler de l'eau sur les mains, et… «Soudain, j'ai eu une conscience vague de quelque chose d'oublié –le frisson d'une pensée qui me revenait– et le mystère du langage m'a alors été révélé. J'ai su que “eau” signifiait la merveilleuse chose fraîche qui ruisselait sur ma main. Cette parole vivante a réveillé mon âme, lui a donné la lumière, l'espoir, la joie, l'a libéré! Il y avait encore des obstacles, c'est vrai, mais des obstacles qui pourraient être éliminés avec le temps.»

C'est Helen Keller elle-même qui écrira ces phrases quelques années plus tard, dans son livre The Story of My Life (1905). Pour elle, ce jour-là, les symboles ont été ancrés à jamais dans la réalité.

Si des progrès spectaculaires ont été accomplis ces dernières années dans le domaine de l'apprentissage automatique (IA, pour faire court), le problème de l'ancrage du symbole demeure quant à lui entier.

Sans la résolution de ce problème, qui est une condition nécessaire mais vraisemblablement pas suffisante, il n'y aura pas d'intelligence artificielle générale. Subsistent encore énormément de choses qu'on est très loin de savoir faire avec l'IA.

Cet article est publié dans le cadre de l'évènement «Le procès de l'IA», un projet arts & science de l'université de Bordeaux, en partenariat avec Primesautier Théâtre.

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l'article original.

The Conversation

Newsletters

Êtes-vous «l'enfant mot de passe»?

Êtes-vous «l'enfant mot de passe»?

Un test lancé sur TikTok montrerait qui est le préféré de la fratrie aux yeux des parents.

Santé mentale: attention à l'autodiagnostic sur les réseaux sociaux

Santé mentale: attention à l'autodiagnostic sur les réseaux sociaux

La démarche présente certains risques et n'empêche surtout pas de consulter.

Panique bancaire: la faute aux réseaux sociaux?

Panique bancaire: la faute aux réseaux sociaux?

La crise de confiance et la viralité des réseaux expliquent les récentes secousses bancaires.

Podcasts Grands Formats Séries
Slate Studio