Le site d'investigation ProPublica a enquêté sur la façon dont Facebook forme ses modérateurs chargés de censurer les contenus racistes, et plus généralement tous les discours de haine, postés sur le réseau social.
Pour un test de formation, Facebook demande à ses modérateurs d'identifier la catégorie de personnes que le réseau social se doit de protéger en censurant certaines insultes à leur encontre. Les trois choix sont: les femmes au volant, les hommes blancs ou les enfants noirs. Etonnamment, la bonne réponse selon Facebook est «les hommes blancs», seule catégorie protégée parmi les trois.
From internal Facebook training docs obtained by ProPublica. This is... something else. https://t.co/ZDDy07vn3D pic.twitter.com/y4aX12AgG6
— Christopher Ingraham (@_cingraham) June 28, 2017
Le raisonnement derrière ce choix est assez étrange. Facebook a en effet décidé que devaient être effacées toutes les attaques basées sur la race, le genre, l'identité de genre, la religion, l'origine nationale, l'ethinicité, l'orientation sexuelle, le handicap et la maladie.
Donc des insultes contre les blancs, les noirs, les chinois ou les homosexuels seront censurées. Mais les choses se compliquent. Facebook a aussi une liste de catégories non protégées: on peut insulter les gens en fonction de leur âge, de leur apparence, de leur classe sociale, de leur emploi, de leur origine géographique. Les pays, les idéologies politiques et les religions peuvent aussi être insultées sans censure.
Or, selon les règles Facebook en vigueur, si un groupe de personnes appartient à la fois à une catégorie protégée et à une catégorie non protégée, alors ce groupe n'a pas à être protégé. C'est donc selon cette logique que les enfants noirs ne sont pas considérés comme à protéger contre les discours de haine.
Défendre le monde
Cette charte a été créée pour défendre tout le monde de manière égale, sans distinction particulière pour les minorités qui seraient plus à risque. L'idée est que les mêmes règles puissent être appliquées partout dans le monde.
Ces règles permettent de comprendre certaines décisions de Facebook en matière de censure. Après l'attaque terroriste de Londres en juin, un représentant au Congrès américain a appelé au meurtre des musulmans «radicalisés». Son post n'a pas été censuré. En mai, une poète afro-américaine a écrit que «tous les blancs étaient racistes» et son texte a été effacé.
Selon la logique de Facebook, des musulmans radicalisés ne sont pas protégés car ils font partie du sous-groupe «radicalisés» alors que les blancs sont protégés car c'est un groupe plus large.
Dans Slate.com, Jacob Brogan résume ainsi le problème:
«Facebook ne comprend pas comment fonctionnent les discours de haine. Le potentiel blessant d'un discours dépend du niveau de marginalité de ceux qu'il vise. S'il est certainement possible, par exemple, de dire des choses horribles sur les hommes blancs, ces insultes auront rarement le même poids que celles faites contre des groupes qui sont déjà menacés».