Sciences / Tech & internet

On vous présente Norman, la première intelligence artificielle «psychopathe»

Temps de lecture : 2 min

Et c’est aussi effrayant que vous l’imaginez.

Norman ne fait pas que des vidéos | Capture d'écran via MIT Media Lab License by
Norman ne fait pas que des vidéos | Capture d'écran via MIT Media Lab License by

Une équipe de chercheurs au Massachusetts Institute of Technology (MIT) vient de créer la première intelligence artificielle psychopathe: Norman. Son nom est directement inspiré du personnage de Norman Bates mis en scène par Alfred Hitchcock dans le film Psychose. Vous savez ce personnage (attention spoiler) qui empaille sa mère et finit par s’habiller comme elle.

Les scientifiques du MIT Media Lab, un laboratoire dédié aux projets de recherche mêlant design, multimédia et technologie, ont entrainé Norman grâce à des descriptions écrites de photos et vidéos explicites montrant de morts violentes puisées dans les recoins les plus sombres de Reddit –un site communautaire qui propose du contenu absolument sur tous les sujets imaginables.

Norman: un scénario digne de la science-fiction

Norman est différent des autres intelligences artificielles. Après avoir été soumis au test de Rorschach, les scientifiques ont conclu que Norman était un «psychopathe». Grâce à une série de tâche d’encres, ce test est censé rendre compte de l’état psychologique d’une personne. L’équipe de scientifiques a comparé les réponses de Norman à celles d’une autre intelligence artificielle –elle aussi entraînée à interpréter des images et des vidéos. Là où l’IA standard voit «un vase avec des fleurs», Norman voit «un homme en train de se faire abattre».

Les deux intelligences artificielles soumises au test de Rorschach. À gauche: ce que Norman voit. À droite: ce que l'IA standard voit.

«On a voulu montrer ce qu’il pouvait se passer si une intelligence artificielle tourne mal et les dérives possibles des algorithmes basés sur le deep learning (apprentissage profond). Les données utilisées pour créer ces algorithme ont une réelle influence sur le comportement de l’intelligence artificielle», lit-on sur le site web dédié à l'IA Norman.

En somme: si l’apprentissage de l’IA est basé sur la haine ou l’horreur, son comportement sera à cet image. En 2016, Tay le «chatbot» (robot conversationnel), créé par Microsoft, est devenu «un trou-du-cul raciste» au contact des utilisateurs de Twitter.

En seulement quelques heures, Tay est passé d’un tweet disant que «les humains sont super cools» à «Hitler avait raison, je déteste les juifs». En cause la capacité d'apprentissage de cette intelligence artificielle fondée sur les interactions avec les internautes. Si Tay est raciste c'est la faute de Twitter.

En 2016, Sophia, l'IA au visage humain, s'était aussi illustrée en déclarant vouloir «détruire l'humanité». Depuis, elle semble avoir changé d’avis et n’a pas manqué d’exprimer son amour pour «ses compatriotes humains». Si, un jour, les intelligences artificielles deviennent malveillantes et prennent contrôle de notre planète, on connaîtra les responsables: nous-mêmes.

Slate.fr

Newsletters

Les chiens sont-ils capables de détecter des catastrophes agricoles avant tout le monde?

Les chiens sont-ils capables de détecter des catastrophes agricoles avant tout le monde?

Le meilleur ami de l'homme pourrait être aussi celui des avocats.

Cet été, vous verrez Mars comme jamais jusqu'à 2035

Cet été, vous verrez Mars comme jamais jusqu'à 2035

Grand Control to Major Tom.

Les sites de tests génétiques pourraient bien remplacer les réseaux sociaux

Les sites de tests génétiques pourraient bien remplacer les réseaux sociaux

Pour stalker vos cousins éloignés, les grandes tantes et... les donneurs de spermes.

Newsletters