Tech & internet

Pour le ciblage publicitaire de Facebook, tout raciste est bon à prendre

Will Oremus et Bill Carey, traduit par Bérengère Viennot, mis à jour le 17.09.2017 à 8 h 39

Le site d’investigation ProPublica a révélé que la plateforme publicitaire de Facebook permettait de cibler les communautés les plus nauséabondes

LOIC VENANCE / AFP

LOIC VENANCE / AFP

ProPublica a révélé mardi 12 septembre avoir réussi à utiliser la plateforme publicitaire de Facebook pour cibler des utilisateurs qui avaient exprimé un intérêt pour des sujets comme «Jew hater»[ceux qui détestent les Juifs] et «Schutzstaffel allemande,» autre nom de la SS. Et lorsque les journalistes de ProPublica ont tapé «Jew hater», l’outil de ciblage publicitaire de Facebook est allé jusqu’à recommander des sujets apparentés comme «comment brûler des Juifs» et «Histoire de “pourquoi les Juifs ont détruit le monde”».

Pour s’assurer que ces catégories existaient vraiment, ProPublica a tenté d’acheter trois publicités, ou «promoted posts», ciblant ces utilisateurs. Au départ, l’outil de ciblage de Facebook a refusé de publier leurs publicités –non pas parce que les catégories posaient un problème, mais simplement parce que le nombre d’utilisateurs Facebook qui s’y intéressaient était en deçà de son seuil préprogrammé. Lorsque ProPublica a ajouté une catégorie plus vaste en plus de «Jew hater» et des autres, alors l’outil publicitaire de Facebook a annoncé que le choix d’audience était «super!». Un quart d'heure plus tard, le système avait donné son aval aux trois publicités.

Après les affinités ethniques… 

 

Contacté par ProPublica au sujet des catégories publicitaires antisémites, Facebook a expliqué qu’elles avaient été générées de façon algorithmique et les a retirées. L’entreprise a ajouté qu’elle allait étudier les moyens d’éviter que ce genre de catégories de ciblage publicitaire injurieuse ne réapparaisse à l’avenir.

Pourtant, lorsque Slate a tenté le même genre d’expérience deux jours plus tard, notre publicité ciblant «Tuer des radicaux islamiques», «Ku-Klux-Klan» et plus d’une dizaine d’autres groupes incitant ouvertement à la haine a été approuvée de la même manière. Dans notre cas, il n’a fallu au système de Facebook qu’une minute pour nous donner le feu vert.

Slate a pu publier une publicité visant ces catégories de ciblage, parmi beaucoup d’autres, avec l’aide de l’outil de ciblage algorithmique de Facebook.

Ce n’est pas la première fois que ce site de journalisme d’investigation à but non-lucratif expose des options de ciblages louches du réseau publicitaire de Facebook. L’année dernière, ProPublica a découvert que Facebook lui permettait d’exclure certaines «affinités ethniques» d’une annonce immobilière –pratique qui s’est révélée enfreindre des lois fédérales anti-discrimination. Facebook a réagi en ajustant son système afin d'empêcher le ciblage ethnique dans des publicités pour des prêts, des propositions d’emploi et des annonces immobilières. Et début septembre, le Washington Post a révélé que Facebook avait publié des publicités d'obscurs groupes russes liés au Kremlin apparemment conçues pour influencer les élections présidentielles américaines de 2016.

Tout est permis?

 

La révélation que Facebook permet aux publicitaires de cibler des néo-nazis et des antisémites survient au moment où cette entreprise et ses homologues du même secteur font l’objet d’un examen rapproché de leur rôle dans la facilitation de l’expression de la haine et de la suprématie blanche en ligne. Comme l’a récemment raconté notre collègue April Glaser, ce changement d’attitude de la part d’entreprises autrefois permissives a commencé à donner naissance à une sorte d’internet fantôme de droite qui adhère à un discours discutable, insultant voire carrément haineux.

En attendant, il est clair que de grandes plateformes comme Facebook sont toujours bien envasées. Le réseau publicitaire de Facebook, en particulier, semble encore incarner une approche du ciblage du genre «tout est permis», même s’il a réglé quelques problèmes très voyants telle l’option de discrimination pour les annonces immobilières.

Une heure environ après la publication de l’article de ProPublica le 12 septembre, Slate a réussi à caser sa propre publicité sur Facebook en utilisant des termes de recherches tout aussi odieux pour cibler son public. Si Facebook avait enlevé les termes spécifiques mentionnés dans l’enquête de ProPublica, il n’a fallu que quelques minutes pour trouver une myriade d’autres catégories du même tonneau encore disponibles dans son outil de ciblage publicitaire.

Taille de segments

 

En suivant les méthodes de ProPublica, nous avons fabriqué une publicité destinée à booster un post existant qui n’y était pas lié. Nous avons utilisé l’outil de ciblage de Facebook pour réduire notre public par segments démographiques, comprenant Formation et Employeur. Nous avons trouvé et inclus 18 catégories de ciblage portant des noms insultants, dont chacune comprenait un nombre relativement modeste d’utilisateurs, représentant moins de 1.000 personnes au total.

Comme avec la publicité de ProPublica, l’outil de Facebook a commencé par nous dire que notre public était trop restreint; nous avons donc ajouté des utilisateurs signalés par l’algorithme comme ayant manifesté un intérêt pour le parti d’extrême-droite allemand (celui-là même qu’avait utilisé ProPublica ). Cela nous a fourni un public potentiel de 135.000 personnes, audience assez vaste pour nous inscrire, ce que nous avons fait, avec un budget de 20 dollars. Une minute plus tard, Facebook approuvait notre publicité.

«Piller les femmes et violer le village», «tuer des salopes», «Ku-Klux-Klan
»

Voici quelques groupes de ciblage que Facebook nous a permis d’utiliser pour notre publicité. Beaucoup étaient suggérés par l’outil lui-même –c’est-à-dire que lorsque nous tapions «Tuer des mus», il nous demandait si nous voulions utiliser la formule «tuer des musulmans radicaux» comme catégorie de ciblage. Les catégories suivantes sont de celles qui sont apparues dans ses suggestions de saisie automatique sous l’option proposant de cibler les utilisateurs par «champ d’études»:

  • Comment tuer des Juifs

  • Tuer des salopes

  • Tuer des Hadjis

  • Piller les femmes et violer le village


  • Viol à trois


Dans la rubrique «école», nous avons trouvé «école primaire nazie». La recherche «quatorze mots», slogan utilisé par les nationalistes blancs, a incité Facebook à suggérer de cibler des utilisateurs ayant déclaré «14/88», un code néo-nazi, à la rubrique «employeur». Voici d’autres employeurs suggérés par l’outil de saisie automatique de Facebook en réponse à nos recherches:

  • Tuer des radicaux islamiques

  • Meurtre Hadji


  • Ku-Klux-Klan


  • Magazine hebdomadaire meurtre de Juifs

  • L’école du meurtre et de l’assassinat des pédales

Certaines de ces catégories n’avaient qu’un ou deux membres; d’autres en avaient davantage. Le groupe qui avait inscrit «Ku-Klux-Klan» comme employeur comptait 123 personnes. Cela semble impliquer que, si l’outil publicitaire de Facebook interdit un trop petit nombre d’utilisateurs totaux, par défaut il permet à une publicité de cibler des groupes ne comprenant qu’un unique utilisateur tant que d’autres groupes, plus grands, sont également ciblés.

Facebook n’a pas répondu sur le champ à la demande de commentaire de Slate.

Will Oremus
Will Oremus (147 articles)
Journaliste
Bill Carey
Bill Carey (1 article)
Directeur stratégie et audience
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte