Partager cet article

Cher Bernard Cazeneuve, les taux d'échecs des algorithmes de surveillance sont très élevés

Bernard Cazeneuve n'a visiblement pas apprécié l'article de notre consoeur de Rue89 Andréa Fradin (que vous avez pu lire sur Slate) sur l'algorithme du gouvernement que le site d'information présente comme «intrusif et inefficace».

Alors que la députée Isabelle Attard qui posait une question sur le sujet reprenait l'article, le ministre de l'Intérieur a expliqué qu'on lui avait appris à l'école «à ne pas croire ce qu'il y a dans les journaux ou dans les livres».

Pourtant, Andréa Fradin et ses sources sont loin d'être les seuls à pointer les faiblesses des algorithmes.

Le lendemain des premières révélations de Glenn Greenwald dans le Guardian à propos du programme Prism de la NSA, Quartz reprenait un article du biologiste Corey Chivers qui publiait sur son blog un post sur l'efficacité du programme de surveillance Prism.

Il en concluait alors que selon ses estimations –qui prenaient en compte une précision de 99% de l'algorithme– sur 10.102 cas positifs, seul un serait vraiment un «bad guy». Les 10.101 restants seraient des faux positifs. William Binney, un ancien de la NSA devenu lanceur d'alerte, avait confirmé à Quartz que ces estimations lui semblaient correctes.

C'est d'ailleurs ce qu'expliquaient des chercheurs de l’Institut national de recherche en informatique et en automatique, contactés par Rue89:

«Supposons un algorithme d’une super-qualité qui n’a qu’une chance sur 100 de se tromper. Sur 60 millions de personnes, ça fait 600.000 personnes détectées à tort, plus les 1.000 “vrais positifs” qu’on a bien détectés. Donc l’algorithme détecte 601.000 personnes, parmi lesquelles en réalité 1.000 seulement sont de vrais terroristes. L’algorithme détecte alors les terroristes avec une probabilité de 1.000/601.000, soit 1/600, soit 0,02%... Tout ça pour ça?»

En 2006, alors que le programme de la NSA de surveillance de masse n'avait pas encore été mis au jour, Counterpunch expliquait déjà son inutilité pour trouver les terroristes. Floyd Rudmin s'appuyait alors sur le théorème de Bayes pour estimer la probabilité d'identifier correctement un terroriste et avait calculé qu'elle était de 0,0132 et que dans le meilleur des cas, elle atteindrait 0,2308, soit «moins que si l'on jetait une pièce en l'air».

«La surveillance intérieure de la NSA de tous les emails et des appels téléphoniques est donc inutile pour trouver des terroristes.»

Dans un article publié en décembre 2006 dans Policy Analysis intitulé «Effective Counterterrorism and the Limited Role of Predictive Data Mining», Jeff Jones et Jim Harper arrivaient également à la même conclusion:

«La question à se poser en matière de data-mining prédictif est de savoir quand il produit des informations concrètes en connaissance de cause. [...] Comme nous le verrons un peu plus loin, il y a beaucoup de cas où c'est effectivement ce qui se produit. Mais pas pour le terrorisme. Tenter d'utiliser le data-mining prédictif pour trouver des terroristes avant qu'ils n'attaquent serait un subtil mais très mauvais choix pour les ressources de sécurité nationale. 

Les possibles bénéfices du data-mining prédictif pour trouver des préparations d'actes terroristes sont minimaux. Les coûts, les efforts et les menaces contre la vie privée et les libertés civiles sont potentiellement vastes. Les coûts dépassent largement tout bénéfice concevable.»

En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte