Tech & internet / Monde

Le logiciel anti-pédopornographie de la police de Londres confond les dunes avec des photos de nus

Temps de lecture : 2 min

La Metropolitan Police espère améliorer l'efficacité de son intelligence artificielle détectrice d'images pornographiques d'ici deux à trois ans.

Dunes | JAMES MARVIN PHELPS via Flickr CC License by
Dunes | JAMES MARVIN PHELPS via Flickr CC License by

La police de Londres utilise une intelligence artificielle pour repérer des images de drogue, d'armes et d'argent dans les appareils électroniques qu'ils saisissent. Mais quand il s'agit de détecter des images pédopornographiques, le logiciel ne marche pas bien. Pour l'instant, le système ne fait pas la différence entre un corps nu et des dunes.

«Parfois, quand il y a un désert, le logiciel pense que c'est une image indécente ou de la pornographie, explique Mark Stokes, un directeur de la police scientifique de Londres au Telegraph. Pour une raison que j'ignore, de nombreuses personnes ont des fonds d'écrans de déserts et le système les détecte, pensant que c'est la couleur de la peau.»

Pour l'instant, ce sont surtout des policiers qui passent des heures à évaluer des images indécentes trouvées dans des smartphones et des ordinateurs, mais la Metropolitan Police espère que les machines pourront bientôt s'en charger afin d'éviter ce travail pénible à ses employés.

Un donut?

En partenariat avec la Silicon Valley, la police de Londres raffine son intelligence artificielle anti-pédopornographie, qui pourrait être prête dans deux à trois ans.

Pourtant, comme le note Gizmodo, les géants de la Silicon Valley ne sont pour l'instant pas très doués en matière de détection de la nudité problématique, même lorsque des humains sont payés pour superviser les algorithmes. L'année dernière, la célèbre photo d'une fillette nue fuyant un bombardement au napalm pendant la guerre du Vietnam avait été censurée par Facebook, qui avait ensuite dû s'excuser de l'erreur.

Plus récemment, des journalistes de Gizmodo avaient testé une nouvelle application censée identifier des images de nudité, et le système avait signalé un donut, un chien et une photo de Grace Kelly toute habillée.

Newsletters

Cinquante-deux ans plus tard, IBM présente ses excuses pour avoir licencié une femme trans

Cinquante-deux ans plus tard, IBM présente ses excuses pour avoir licencié une femme trans

En août 1968, l'ingénieure en informatique Lynn Conway était virée en dépit de son travail prometteur et reconnu.

Nos métiers, quand internet et le télétravail n'existaient pas

Nos métiers, quand internet et le télétravail n'existaient pas

Avec la généralisation du télétravail, on oublie encore un peu plus à quoi ressemblaient nos métiers avant internet.

Facebook certifie supprimer 95% des discours de haine avant qu’ils ne soient visibles

Facebook certifie supprimer 95% des discours de haine avant qu’ils ne soient visibles

L'entreprise s'est beaucoup améliorée pour empêcher la haine de se manifester. Mais les modérateurs sont mécontents d'être poussés à retourner au bureau.

Newsletters