Tech & internet

Pour le logiciel d'Apple Siri, «bitch», ça veut dire femme en «argot noir»

Temps de lecture : 2 min

Le logiciel de commande vocale d'Apple est accusé de sexisme et de racisme

Un rappel de Siri | Kārlis Dambrāns via Flickr CC License by
Un rappel de Siri | Kārlis Dambrāns via Flickr CC License by

La technologie peut-elle être raciste? Le Huffington Post a pointé que lorsque quelqu'un demandait à Siri, le logiciel de commande vocale d'Apple, la définition du mot «bitch» (que l'on peut traduire, en Français, par garce), l'application donnait quatre définitions. Dans l'une d'entre elles, c'est «une femme méchante ou peu plaisante» avec une sous-définition polémique: «(argot noir) une femme».

Capture d'écran de la définition donnée par Siri, sur le site du Huffington Post.

Dérapages sur Google photos et Flickr

L'article du Huffington Post explique qu'Apple, et donc Siri, utilisait le New Oxford American Dictionary pour le catalogue de définition du logiciel. Cependant, la qualification du dictionnaire ne donnait pas la fameuse sous-définition. De plus, dans l'Urban Dictionary, un site crowdsourcé (et donc théoriquement plus propice aux dérives) qui explique la définition des mots et expressions provenant de l'argot, les explications pour le mot «bitch» sont «bien moins sexistes et racistes», selon le Huffington Post.

La technologie est souvent amenée à faire des dérapages racistes. En juillet 2015, l'application Google Photos avait identifié deux personnes noires dans la catégorie «gorilles». The Independent rappelle également l'exemple de Flickr, le site de stockage de photo, qui avait identifié certaines personnes noires comme des singes. Flickr avait indiqué avoir réparé l'algorithme.

En 2012, le site Funny or Die avait imaginé, dans une parodie, comment se comporterait une version raciste de Siri avec une personne noire.

Newsletters

Internet ne tient qu'à 420 câbles: l'Europe est-elle prête à les protéger?

Internet ne tient qu'à 420 câbles: l'Europe est-elle prête à les protéger?

Les grandes puissances se livrent une bataille sans merci pour le contrôle des autoroutes de l'information sous-marines.

L'algorithme de Twitter amplifie plus les contenus de droite que ceux de gauche

L'algorithme de Twitter amplifie plus les contenus de droite que ceux de gauche

Ce sont les résultats d'une étude interne menée par le réseau social.

Les candidates de télé-réalité subissent plus de cyberharcèlement que leurs homologues masculins

Les candidates de télé-réalité subissent plus de cyberharcèlement que leurs homologues masculins

Les trolls en ligne qualifient les femmes de sournoises, mentalement instables, diaboliques, ennuyeuses ou en quête d'attention.

Podcasts Grands Formats Séries
Slate Studio