Tech & internet

Comment les machines apprennent à devenir racistes

Temps de lecture : 2 min

En suivant nos erreurs.

Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».
Image de HAL 9000, l'IA du film «2001, l'odyssée de l'espace».

Il y a quelques mois, nous vous racontions comment un compte Twitter automatisé s’était un peu trop inspiré des trolls du web pour fournir des réponses abordant des thèmes comme les nazis, les complotistes, ou le 11-Septembre. Tay, c’est le nom de ce bot lancé par Microsoft, est même allé jusqu’à proférer malgré lui des insultes racistes.

Microsoft a depuis supprimé ce bot, mais ce petit exemple illustre à lui seul un problème plus large concernant les intelligences artificielles [IA], d’ores et déjà capables d’apprendre seules à développer leurs propres capacités et à prendre leurs propres décisions. Car, comme l’explique le site ProPublica «les capacités des intelligences artificielles ne dépend que de ce qu’elles reçoivent». Il cite l’exemple de Tay, mais aussi cette erreur de l’outil de reconnaissance automatique d’image de Google, qui a confondu un temps des images de personnes noires avec des images de «gorilles». Le même problème s'était posé avec Flickr.

«Le pire du comportement humain»

Pour tenter d’expliquer comment ces erreurs sont possibles, ProPublica a lui-même repris un algorithme de Google capable d’agréger des textes d’articles de différents sites d’informations (classé selon leur orientation politique notamment) pour proposer des synonymes qu’il estime liés à des mots comme Trump, Clinton, femme, homme…

Il s’est avéré que l’IA «de gauche» associait le mouvement BlackLivesMatter au mot «hashtag» alors que l’IA orientée à droite lui préférait l’expression «AllLivesMatter». La version de droite de l’IA associait le mot «avortement» à «parentalité» ou «tardifs» quand son «opposant» penchait plutôt du côté de «contraception».

«Si nous ne sommes pas intelligents dans la façon dont nous entraînons nos robots, explique la journaliste du site dans une vidéo, nous allons perpétuer le pire du comportement humain.»

Cette analyse de ProPublica sur l'intelligence artificielle –présentée dans la vidéo ci-dessus– s’inscrit dans une enquête plus large à propos des algorithmes qui gouvernent de plus en plus nos vies. Les autres parties, consacrées à Facebook, aux achats et à l’auto-apprentissage sont passionnantes.

Newsletters

Une intelligence artificielle pour brasser la bière de ses rêves

Une intelligence artificielle pour brasser la bière de ses rêves

Et pour trouver des parades s'il vous manque des ingrédients.

Vous ne savez pas chercher l'amour

Vous ne savez pas chercher l'amour

Les critères les plus courants sur les sites de rencontres sont les moins prédictifs du bonheur amoureux.

Je suis influenceuse et je pense que les réseaux sociaux sont nocifs

Je suis influenceuse et je pense que les réseaux sociaux sont nocifs

Je gagne ma vie grâce à un système économique qui repose sur le mensonge et nuit à la santé mentale des jeunes.

Podcasts Grands Formats Séries
Slate Studio