Partager cet article

Facebook a manipulé les émotions d’utilisateurs dans le cadre d’une expérience… sans leur demander leur avis

Un rat connecté à des capteurs dans un laboratoire de l'université de Shanghai en avril 2005. Reuters

Un rat connecté à des capteurs dans un laboratoire de l'université de Shanghai en avril 2005. Reuters

Si vous doutiez du fait que vous étiez un cobaye sur Facebook, en voici la preuve

Voici une étude récemment publiée dont les résultats ne sont pas franchement révolutionnaires: les réseaux sociaux numériques ont bien un impact sur votre humeur et peuvent propager des émotions positives ou négatives contagieuses.

Mais ce qui soulève des questions éthiques dans cette expérience, c’est la manière dont elle a été réalisée: la méthode employée et ce qu’elle révèle du peu de cas que font certains géants du web social de leurs «communautés». 

Les chercheurs affiliés à Facebook à l’origine de l’étude ont manipulé l’algorithme du réseau social afin de réduire le nombre de messages positifs que les abonnés recevaient dans leur «feed», leur fil d’actualités Facebook. Un autre échantillon de personnes a en revanche été exposé à plus de messages positifs. Les chercheurs étudiaient ensuite si ces modifications entraînaient chez les utlisateurs des modifications du type d’émotions exprimées –ce qui était bien le cas.

L'expérience a été menée pendant une semaine en janvier 2012 sur près de 700.000 abonnés à Facebook.

L’hypothèse à vérifier était que les émotions exprimées sur les réseaux, identifiées grâce à la tonalité de certains mots, pouvaient se transmettre d’une personne à l’autre et se propager à grande échelle sur Internet telles des épidémies de joie ou de tristesse.

Problème: personne n’a jugé bon d’en informer les cobayes. Sur Slate.com, Katy Waldman estime que Facebook a franchi une ligne jaune. Le professeur de droit des technologies de l'université du Maryland James Grimmelmann explique:

«Si vous exposez des gens à quelque chose qui provoque des changements de leur état psychologique, c'est une expérience. C'est le genre de chose qui exige un consentement».

Et pourtant, personne ne devrait être vraiment surpris ou indigné que de telles expériences soient effectuées sur les cobayes-utilisateurs de services en ligne. Dans une section consacrée à la politique d’utilisation des données partagées sur sa plateforme, Facebook précise explicitement:

«Comment utilisons-nous les informations que nous recevons?

[…]

[Nous les utilisons pour] des opérations internes incluant le dépannage et la résolution de problèmes, l’analyse de données, les tests, la recherche et l’amélioration du service.»

Farhad Manjoo, chroniqueur spécialisé technologies du New York Times, apporte un bémol aux critiques qui fondent sur Facebook depuis la publication de cette étude. Comme il le note sur twitter, la plupart des grandes entreprises du web réalisent en permanence des expérimentations comme le A/B testing, qui consiste à varier un élément de présentation (comme le titre d'un article) en fonction des audiences pour déterminer quelles sont les méthodes les plus efficaces. D'autre part, le News feed de Facebook est de toute manière filtré en permanence, opérant donc une sélection des contenus affichés. 

Du côté des universités impliquées dans l’étude, The Atlantic précise que les conseils chargés de l’éthique des institutions ont validé le principe de l’expérience. La question est donc moins légale qu’éthique. Le magazine a interviewé Susan Fiske, professeur de psychologie à Princeton qui a édité l’article paru dans la revue Proceedings of the National Academy of Sciences of America (PNAS).

Elle admet avoir eu des doutes et ajoute: 

«Les gens sont supposés en toute circonstance être mis au courant du fait qu'ils vont participer à une recherche, puis donner leur accord et avoir la possibilité de ne pas le donner sans risquer de sanction».

Ces principes sont ceux de la règlementation dite de la «Common Rule», qui établit les règles fédérales de la protection des sujets humains utilisés dans un cadre scientifique pour les recherches américaines qui sont soutenues par des fonds publics fédéraux.

Or, et c'est le coeur du problème, Facebook n’a évidemment pas besoin de ce type de subvention pour effectuer toutes sortes d’expériences sur son panel permanent de plus d’un milliard d’humains, et n'a donc pas à se conformer à un cadre éthique au-delà de ses propres termes d'utilisation et du respect de la loi.

C’est une question que nous avons abordée à plusieurs reprises ici. Facebook s’est lancé aux Etats-Unis dans une opération séduction auprès des chercheurs en sciences sociales et des analystes de données. L’entreprise «a des données générées chaque jour par ses 802 millions d’utilisateurs quotidiennement actifs», et à terme la tentation de pouvoir disposer des enregistrements de ces comportements humains observés in vivo ne fera que grandir, à mesure que ces sociétés vont capter et archiver les traces numériques de chaque activité ou opinion exprimée. 

Un débat sur ce que des sociétés privées peuvent faire des données de leurs abonnés et utilisateurs ne pourra donc être évité longtemps. Comme le rappelle l'éditrice de la revue PNAS, cette étude «est éthiquement okay du point de vue des règlementations, mais [les  questions] éthiques sont des décisions sociales».

Vous devez être membre de Slate+ et connecté pour pouvoir commenter.
Pour devenir membre ou vous connecter, rendez-vous sur Slate+.
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux. > Paramétrer > J'accepte