Tech & internet

Comment les machines apprennent à devenir racistes

Temps de lecture : 2 min

En suivant nos erreurs.

Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».
Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».

Il y a quelques mois, nous vous racontions comment un compte Twitter automatisé s’était un peu trop inspiré des trolls du web pour fournir des réponses abordant des thèmes comme les nazis, les complotistes, ou le 11-Septembre. Tay, c’est le nom de ce bot lancé par Microsoft, est même allé jusqu’à proférer malgré lui des insultes racistes.

Microsoft a depuis supprimé ce bot, mais ce petit exemple illustre à lui seul un problème plus large concernant les intelligences artificielles [IA], d’ores et déjà capables d’apprendre seules à développer leurs propres capacités et à prendre leurs propres décisions. Car, comme l’explique le site ProPublica «les capacités des intelligences artificielles ne dépend que de ce qu’elles reçoivent». Il cite l’exemple de Tay, mais aussi cette erreur de l’outil de reconnaissance automatique d’image de Google, qui a confondu un temps des images de personnes noires avec des images de «gorilles». Le même problème s'était posé avec Flickr.

«Le pire du comportement humain»

Pour tenter d’expliquer comment ces erreurs sont possibles, ProPublica a lui-même repris un algorithme de Google capable d’agréger des textes d’articles de différents sites d’informations (classé selon leur orientation politique notamment) pour proposer des synonymes qu’il estime liés à des mots comme Trump, Clinton, femme, homme…

Il s’est avéré que l’IA «de gauche» associait le mouvement BlackLivesMatter au mot «hashtag» alors que l’IA orientée à droite lui préférait l’expression «AllLivesMatter». La version de droite de l’IA associait le mot «avortement» à «parentalité» ou «tardifs» quand son «opposant» penchait plutôt du côté de «contraception».

«Si nous ne sommes pas intelligents dans la façon dont nous entraînons nos robots, explique la journaliste du site dans une vidéo, nous allons perpétuer le pire du comportement humain.»

Cette analyse de ProPublica sur l'intelligence artificielle –présentée dans la vidéo ci-dessus– s’inscrit dans une enquête plus large à propos des algorithmes qui gouvernent de plus en plus nos vies. Les autres parties, consacrées à Facebook, aux achats et à l’auto-apprentissage sont passionnantes.

Newsletters

Les séries pourront-elles bientôt être doublées par des intelligences artificielles?

Les séries pourront-elles bientôt être doublées par des intelligences artificielles?

C'est en tout cas le pari de plusieurs startups, qui assurent que la voix et la synchronisation seront parfaites.

YouTube est pire que Facebook ou Twitter en matière de fake news

YouTube est pire que Facebook ou Twitter en matière de fake news

Régulièrement à la traîne lorsqu'il s'agit de lutter contre la désinformation, la plateforme vidéo de Google a mis des mois à interdire le complotisme anti-vaccins.

C'est quoi, une aesthetic?

C'est quoi, une aesthetic?

Ces codes visuels sont une manière de construire son identité et d'affirmer sa personnalité.

Podcasts Grands Formats Séries
Slate Studio