Temps de lecture: 4 minutes
Il y a quelques mois, un de mes amis a demandé sur Facebook:
«Vous croyez que Facebook traque les choses que les gens tapent puis effacent avant d'appuyer sur "entrée" ou sur le bouton "poster ce statut"?»
Bonne question.
On passe beaucoup de temps à penser à ce que l'on poste sur Facebook. Est-ce que je devrais contredire l'argument politique de cet ami de lycée?
Est-ce que mes amis veulent vraiment voir une autre photo de mon chat ou de mon bébé? La plupart d'entre nous a, à un moment ou un autre, commencé à écrire quelque chose avant –probablement sagement– de changer d'avis.
Malheureusement, le code qui alimente Facebook sait quand même ce que vous avez tapé –même si vous décidez de ne pas le publier. Il s'avère que les choses que l'on choisit explicitement de ne pas partager ne sont pas entièrement privées.
Facebook considère ces pensées non-postées comme de «l'autocensure», et on trouve des révélations sur la façon dont l'entreprise collecte ces non-statuts dans une récente étude écrite par deux Facebookers.
Sauvik Das, un étudiant-chercheur à Carnegie Mellon qui a fait un stage d'été d'ingénieur en logiciel chez Facebook, et Adam Kramer, un data-scientifique de Facebook, ont mis en ligne un article présentant leur étude du comportement d'autocensure sur cinq millions d'utilisateurs du réseau parlant anglais (l'étude a aussi été publiée à la International Conference on Weblogs and Social Media).
Elle révèle beaucoup de la façon dont Facebook surveille nos pensées non-partagées, et ce que l'entreprise en pense.
L'étude a examiné les non-statuts, les non-posts sur les fils d'actualités d'autrui et les commentaires sur les statuts d'autres personnes. Pour collecter le texte que vous tapez, Facebook envoie du code à votre navigateur. Ce code analyse automatiquement ce que vous tapez dans un champ texte et renvoie les métadonnées à Facebook.
Conserver du texte au fur et à mesure qu'on le tape n'est pas rare sur d'autres sites. Par exemple, si vous utilisez Gmail, vos mails sont automatiquement sauvegardés en brouillons au moment où vous les tapez.
Même si vous fermez votre navigateur sans sauvegarder votre mail, vous trouverez généralement une copie (presque) complète du message dans votre dossier «Brouillons».
Facebook utilise essentiellement la même technologie ici. La différence, c'est que Google sauvegarde vos messages pour vous aider. Les utilisateurs de Facebook ne s'attendent pas à ce que leurs réflexions non-postées soient collectées, et ils n'en tirent aucun intérêt.
Dans la politique d'utilisation de nos données de Facebook, dans la section appelée «Informations que nous recevons et leur utilisation», il est clairement indiqué que l'entreprise collecte les informations que vous choisissez de partager ou quand vous «regardez ou interagissez d'une autre manière avec des choses» sur le site.
Mais rien ne suggère qu'elle collecte du contenu que vous ne partagez pas. Taper du texte dans un champ et l'effacer pourrait être considéré comme une forme d'interaction, mais je soupçonne que très peu d'entre nous s'attendrait à ce que ces données soient sauvegardées.
Quand j'ai contacté Facebook, un porte-parole m'a dit que l'entreprise estime que cette autocensure est un type d'interaction pris en compte par ses conditions d'utilisation.
Dans leur article, Das et Kramer affirment ne renvoyer à Facebook que des informations qui indiquent si vous vous êtes autocensuré, et pas ce que vous avez tapé. Le porte-parole a confirmé que l'entreprise ne collecte pas le texte des statuts autocensurés. Mais c'est sans aucun doute possible technologiquement parlant, et il est clair que Facebook s'intéresse au contenu de vos statuts.
L'article de Das et Kramer se finit ainsi:
«Nous avons réussi à mieux comprendre comment et où l'autocensure se manifeste sur le réseau social; ensuite, nous devrons mieux comprendre le quoi et le pourquoi [de cette autocensure].»
Ceci sous-entend que Facebook veut savoir ce que vous tapez pour le comprendre. Le code qu'utilise Facebook pour vérifier si vous vous êtes autocensuré peut dire à l'entreprise ce que vous avez tapé, donc la technologie nécessaire pour collecter ces données existe déjà.
Il est facile de lier toutes ces révélations au scandale de la NSA, et à premier abord, les deux se ressemblent. Une organisation collecte des métadonnées –c'est-à-dire tout sauf le contenu d'une communication– et les analyse pour comprendre le comportement des gens. Cependant il y a des différences. Il est désagréable que la NSA ait accès à nos communications privées, mais l'agence surveille des choses que nous avons publiées. Facebook analyse des pensées que nous avons intentionnellement décidé de ne pas partager.
Cela ressemble en fait plus aux récentes révélations selon lesquelles le FBI peut allumer la webcam d'un ordinateur sans activer la lumière qui indique qu'elle fonctionne. Les gens surveillés via leur webcam ne choisissent pas de partager une vidéo d'eux-mêmes, tout comme les gens qui s'autocensurent sur Facebook ne choisissent pas de partager leurs pensées. La différence, c'est que le FBI a besoin d'une autorisation judiciaire, alors que Facebook peut continuer sans permission de quiconque.
Pourquoi est-ce que Facebook se préoccupe de nos non-statuts? Das et Kramer assurent que l'autocensure peut être mauvaise parce qu'elle retient des informations précieuses. Si quelqu'un choisit de ne pas poster, Facebook «perd de la valeur par ce manque de génération de contenu».
Après tout, Facebook vous montre des publicités fondées sur ce que vous publiez. En plus, ils estiment que ça ne serait pas juste que quelqu'un décide de ne pas poster parce qu'il ou elle ne veut pas spammer sa centaine d'amis –quelques personnes pourraient être intéressées par son message.
«Imaginez, par exemple, un étudiant à la fac qui veut promouvoir un évènement pour un groupe politique ou autre, mais qui ne le fait pas par peur de spammer ses autres amis –alors que certains pourraient bien, en fait, apprécier ses efforts.»
Cette vision paternaliste des choses n'est pas abstraite. Facebook étudie ce problème parce que plus ses ingénieurs comprennent l'autocensure, plus ils seront capables d'améliorer leur système pour minimiser notre recours à l'autocensure. Cet objectif –designer Facebook pour diminuer l'autocensure– est explicite dans leur article.
Jennifer Golbeck
Traduit et adapté par Cécile Dehesdin
Jennifer Golbeck est la directrice du Human-Computer Interaction Lab, et une professeure associée de l'université du Maryland.