Tech & internet

Comment les machines apprennent à devenir racistes

Temps de lecture : 2 min

En suivant nos erreurs.

Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».
Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».

Il y a quelques mois, nous vous racontions comment un compte Twitter automatisé s’était un peu trop inspiré des trolls du web pour fournir des réponses abordant des thèmes comme les nazis, les complotistes, ou le 11-Septembre. Tay, c’est le nom de ce bot lancé par Microsoft, est même allé jusqu’à proférer malgré lui des insultes racistes.

Microsoft a depuis supprimé ce bot, mais ce petit exemple illustre à lui seul un problème plus large concernant les intelligences artificielles [IA], d’ores et déjà capables d’apprendre seules à développer leurs propres capacités et à prendre leurs propres décisions. Car, comme l’explique le site ProPublica «les capacités des intelligences artificielles ne dépend que de ce qu’elles reçoivent». Il cite l’exemple de Tay, mais aussi cette erreur de l’outil de reconnaissance automatique d’image de Google, qui a confondu un temps des images de personnes noires avec des images de «gorilles». Le même problème s'était posé avec Flickr.

«Le pire du comportement humain»

Pour tenter d’expliquer comment ces erreurs sont possibles, ProPublica a lui-même repris un algorithme de Google capable d’agréger des textes d’articles de différents sites d’informations (classé selon leur orientation politique notamment) pour proposer des synonymes qu’il estime liés à des mots comme Trump, Clinton, femme, homme…

Il s’est avéré que l’IA «de gauche» associait le mouvement BlackLivesMatter au mot «hashtag» alors que l’IA orientée à droite lui préférait l’expression «AllLivesMatter». La version de droite de l’IA associait le mot «avortement» à «parentalité» ou «tardifs» quand son «opposant» penchait plutôt du côté de «contraception».

«Si nous ne sommes pas intelligents dans la façon dont nous entraînons nos robots, explique la journaliste du site dans une vidéo, nous allons perpétuer le pire du comportement humain.»

Cette analyse de ProPublica sur l'intelligence artificielle –présentée dans la vidéo ci-dessus– s’inscrit dans une enquête plus large à propos des algorithmes qui gouvernent de plus en plus nos vies. Les autres parties, consacrées à Facebook, aux achats et à l’auto-apprentissage sont passionnantes.

Newsletters

 Facebook et la «harga», les réseaux sociaux alimentent le rêve européen des migrants

Facebook et la «harga», les réseaux sociaux alimentent le rêve européen des migrants

Influencés par les récits et photos idylliques de connaissances installées en Europe, des milliers de jeunes Maghrébins prennent chaque année le risque de l'émigration, parfois au péril de leur vie.

Pinterest bloque les recherches liées au coronavirus

Pinterest bloque les recherches liées au coronavirus

Si le Covid-19 vous angoisse, il est peut-être temps de vous créer un compte.

Comment Pokémon Go s'adapte au coronavirus

Comment Pokémon Go s'adapte au coronavirus

La société éditrice du jeu vient d'annoncer qu'elle allait modifier temporairement certaines règles afin de limiter au maximum les déplacements de ses utilisateurs et utilisatrices.

Newsletters