Tech & internet

Comment les machines apprennent à devenir racistes

Temps de lecture : 2 min

En suivant nos erreurs.

Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».
Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».

Il y a quelques mois, nous vous racontions comment un compte Twitter automatisé s’était un peu trop inspiré des trolls du web pour fournir des réponses abordant des thèmes comme les nazis, les complotistes, ou le 11-Septembre. Tay, c’est le nom de ce bot lancé par Microsoft, est même allé jusqu’à proférer malgré lui des insultes racistes.

Microsoft a depuis supprimé ce bot, mais ce petit exemple illustre à lui seul un problème plus large concernant les intelligences artificielles [IA], d’ores et déjà capables d’apprendre seules à développer leurs propres capacités et à prendre leurs propres décisions. Car, comme l’explique le site ProPublica «les capacités des intelligences artificielles ne dépend que de ce qu’elles reçoivent». Il cite l’exemple de Tay, mais aussi cette erreur de l’outil de reconnaissance automatique d’image de Google, qui a confondu un temps des images de personnes noires avec des images de «gorilles». Le même problème s'était posé avec Flickr.

«Le pire du comportement humain»

Pour tenter d’expliquer comment ces erreurs sont possibles, ProPublica a lui-même repris un algorithme de Google capable d’agréger des textes d’articles de différents sites d’informations (classé selon leur orientation politique notamment) pour proposer des synonymes qu’il estime liés à des mots comme Trump, Clinton, femme, homme…

Il s’est avéré que l’IA «de gauche» associait le mouvement BlackLivesMatter au mot «hashtag» alors que l’IA orientée à droite lui préférait l’expression «AllLivesMatter». La version de droite de l’IA associait le mot «avortement» à «parentalité» ou «tardifs» quand son «opposant» penchait plutôt du côté de «contraception».

«Si nous ne sommes pas intelligents dans la façon dont nous entraînons nos robots, explique la journaliste du site dans une vidéo, nous allons perpétuer le pire du comportement humain.»

Cette analyse de ProPublica sur l'intelligence artificielle –présentée dans la vidéo ci-dessus– s’inscrit dans une enquête plus large à propos des algorithmes qui gouvernent de plus en plus nos vies. Les autres parties, consacrées à Facebook, aux achats et à l’auto-apprentissage sont passionnantes.

Slate.fr

Newsletters

Souriez, Facebook regarde votre famille

Souriez, Facebook regarde votre famille

Le réseau social veux scanner vos profils pour mieux connaître votre foyer.

Va-t-il falloir économiser les données comme l’énergie?

Va-t-il falloir économiser les données comme l’énergie?

La quantité de données produite à l’ère du numérique croit de façon exponentielle. L’humanité produit ainsi en deux jours autant de données qu’au cours des deux derniers millions d’années. Les études révèlent des chiffres astronomiques: en 2020, l...

Les vidéos virales de recettes accentuent le phénomène de simplification de la cuisine

Les vidéos virales de recettes accentuent le phénomène de simplification de la cuisine

Les produits utilisés dans ces séquences, inoffensives en apparence, sont très souvent trop gras, sucrés et salés.

Newsletters