Partager cet article

Comment les machines apprennent à devenir racistes

Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».

Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».

En suivant nos erreurs.

Il y a quelques mois, nous vous racontions comment un compte Twitter automatisé s’était un peu trop inspiré des trolls du web pour fournir des réponses abordant des thèmes comme les nazis, les complotistes, ou le 11-Septembre. Tay, c’est le nom de ce bot lancé par Microsoft, est même allé jusqu’à proférer malgré lui des insultes racistes.

Microsoft a depuis supprimé ce bot, mais ce petit exemple illustre à lui seul un problème plus large concernant les intelligences artificielles [IA], d’ores et déjà capables d’apprendre seules à développer leurs propres capacités et à prendre leurs propres décisions. Car, comme l’explique le site ProPublica «les capacités des intelligences artificielles ne dépend que de ce qu’elles reçoivent». Il cite l’exemple de Tay, mais aussi cette erreur de l’outil de reconnaissance automatique d’image de Google, qui a confondu un temps des images de personnes noires avec des images de «gorilles». Le même problème s'était posé avec Flickr.

«Le pire du comportement humain»

Pour tenter d’expliquer comment ces erreurs sont possibles, ProPublica a lui-même repris un algorithme de Google capable d’agréger des textes d’articles de différents sites d’informations (classé selon leur orientation politique notamment) pour proposer des synonymes qu’il estime liés à des mots comme Trump, Clinton, femme, homme… 

Il s’est avéré que l’IA «de gauche» associait le mouvement BlackLivesMatter au mot «hashtag» alors que l’IA orientée à droite lui préférait l’expression «AllLivesMatter». La version de droite de l’IA associait le mot «avortement» à «parentalité» ou «tardifs» quand son «opposant» penchait plutôt du côté de «contraception».

«Si nous ne sommes pas intelligents dans la façon dont nous entraînons nos robots, explique la journaliste du site dans une vidéo, nous allons perpétuer le pire du comportement humain.»

 

Cette analyse de ProPublica sur l'intelligence artificielle –présentée dans la vidéo ci-dessus– s’inscrit dans une enquête plus large à propos des algorithmes qui gouvernent de plus en plus nos vies. Les autres parties, consacrées à Facebook, aux achats et à l’auto-apprentissage sont passionnantes. 

Vous devez être membre de Slate+ et connecté pour pouvoir commenter.
Pour devenir membre ou vous connecter, rendez-vous sur Slate+.
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte