Facebook vous a encore plus arnaqué que vous ne le pensiez, avec ses recherches sur vos émotions

Message d'erreur Facebook, 2014. REUTERS/Thomas White

Message d'erreur Facebook, 2014. REUTERS/Thomas White

Comme nous vous l'expliquions sur Slate il y a quelques jours, Facebook a, durant une semaine en janvier 2012, mené une expérience sur près de 700.000 de ses utilisateurs, à leur insu. Les chercheurs affiliés à Facebook pour conduire cette étude, qui devait déterminer si les réseaux sociaux numériques ont bien un impact sur notre humeur (oui), ont manipulé l’algorithme du réseau social pour réduire le nombre de messages positifs que les abonnés recevaient dans leur newsfeed (fil d'actualités) ou au contraire l'augmenter, puis étudier le type d’émotions exprimées.

Cette manipulation des émotions des utilisateurs a été vivement critiquée, mais, comme le souligne Forbes, «les détracteurs comme les défendeurs faisaient tous remarquer que la "permission" que s'arrogeait Facebook venait de sa Politique d'utilisation des données qui, parmi ses milliers de mots, informait les gens que leurs informations pouvaient être utilisées pour des "opérations internes" notamment "des recherches"».

Mais le magazine économique remarque que même cette excuse-là n'est plus valable.

En évoquant cette politique d'utilisation, «nous nous reposions tous sur ce que dit la politique d'utilisation aujourd'hui. Mais en janvier 2012, cette politique ne disait rien du tout sur les utilisateurs comme cobayes potentiels, auxquels on pourrait faire passer des journées maussades au nom de la science, ni que "des recherches" pouvaient être menées sur le site».

Ce n'est en réalité que quatre mois après l'étude sur les émotions des utilisateurs, en mai 2012, que Facebook a changé ses conditions d'utilisation et inséré cette mention des recherches possibles.

Partager cet article