L'intelligence artificielle a un problème de bêtise

Alligators dans le parc des Everglades, en 2004, via Wikimedia Commons

Alligators dans le parc des Everglades, en 2004, via Wikimedia Commons

L'intelligence artificielle a un gros problème, résumable en une question: «un alligator peut-il courir un 100 mètres haies?».

Vous, tout minable humain que vous soyez, vous vous dites assez rapidement que non, vu les courtes pattes d'un alligator, il ne peut sans doute pas courir un 100 mètres haies.

Mais Google et ses copains ne peuvent pas y répondre (enfin maintenant qu'on a écrit la réponse, ils peuvent faire ressortir cet article si vous entrez cette requête).

Le New Yorker rapporte l'étude passionnante d'Hector Levesque [PDF], un chercheur en sciences informatiques de l'université de Toronto, qui estime en gros que ses collègues ont oublié le mot «intelligence» dans «intelligence artificielle».

Il critique entre autres le test de Turing: un humain doit distinguer des machines d'autres humains grâce à des questions et leurs réponses. On pourrait donc croire que si une machine se fait passer pour un humain, elle est intelligente.

Mais pour Levesque, le test ne sert presque à rien parce qu'il est trop facile à duper. Au final, les scientifiques et ingénieurs construisent des programmes dont le but est de passer ce test, plutôt que des programmes réellement intelligents.

Hector Levesque estime que ses congénères devraient se concentrer sur un test plus difficile à tromper, les Schémas Winograd. Une recherche google ou dans une base de données énorme ne suffira pas à répondre à des questions comme:

Les conseillers municipaux ont refusé de donner un permis aux manifestants énervés parce qu'ils avaient peur de la violence. Qui avait peur de la violence?

a) les conseillers municipaux

b) les manifestants énervés

Le chercheur encourage ses collègues à se pencher sur la question du type de système qui aurait les connaissances et le contexte nécessaire pour se comporter de la même manière que les humains.

Ce n'est pas la première fois que des chercheurs en intelligence artificielle remettent en cause leur propre milieu. En 2012, Yann LeCun et Josh Tenenbaum expliquaient lors du festival mondial de la science que Google et les ordinateurs les plus puissants seraient même moins intelligents qu'un rat.

Ils disaient alors que les animaux continuent d'avoir un avantage sur l'apprentissage de Google, peu importe le degré d'avancement des méthodes du géant de la recherche et des algorithmes qu'il utilise.