Santé / Tech & internet

Nos données personnelles ne sont jamais anodines

Pourquoi il faut garder pour soi toutes les informations ennuyeuses qui concernent notre rythme cardiaque ou notre sommeil.

Heart Rate and Arterial Pressures Wave / <a href="https://www.flickr.com/photos/104346167@N06/26834801803/in/photolist-f5T116-6ZoYiV-q7GXLk-poMKFr-pKz2RK-DLX9EF-5H6Htc-9bQ2j5-gTXdwT-q2Lqdz-q7JqN2-bbvq62-6ZoY8p-pKz2Lz-bfs97H-665Lnp-bfsae8-q2Lq7x-6ZsYSs-ccB9WQ-eL1uNz-pKAQXj-p69yaW-psa9SW-86twBc-6ZoYhR-fWFf6M-6sNFwR-jDxwqz-6ZsYQb-pKvAA2-bViwxs-pKvAGz-ixnSbR-rbXRJw-6ZsZ3f-7jH6Yp-6ZoY3v-q7AER1-o6WbdA-CPBAJx-kp8wkt-GTinEB-i3W2kp-FhumK-9hYmDQ-eR4JVt-qZoib3-7NzPjQ-686trN">John Campbell</a> via Flickr CC <a href="https://creativecommons.org/publicdomain/zero/1.0/">License by.</a>
Heart Rate and Arterial Pressures Wave / John Campbell via Flickr CC License by.

Temps de lecture: 5 minutes

On est en 2020, un couple a rendez-vous dans un bar. Ils discutent des cocktails en flirtant. Une question très sensible les taraude tandis qu’ils jettent des regards anxieux à leurs montres intelligentes.

Quelle est sa variabilité de fréquence cardiaque?

La variabilité de fréquence cardiaque est la mesure de l’intervalle entre deux battements de coeur. C’est également un bon indicateur de dysfonctionnement sexuel chez la femme comme chez l’homme.

Quand on pense aux appareils et aux applications qui contiennent les données les plus sensibles à notre sujet, on pense généralement à nos messages, nos conversations Facebook ou notre compte Reddit. Le traqueur d’activité que vous portez peut-être au poignet ne vous vient pas tout de suite à l’esprit. Après tout, que pourrait-on vraiment apprendre sur vous à partir de votre rythme cardiaque ou de votre décompte de pas?

Plus que vous ne le croyez. D’ailleurs, de nouvelles études ont établi un lien entre des points de données apparemment bénins et différents comportements typiques ou états de santé. Ces études n’en sont encore qu’à un stade peu avancé, mais des entreprises ont déjà commencé à récolter ces données. Cette situation a entraîné une controverse au sujet de leur potentiel et des limites qu’elles devraient respecter. Comme toutes les innovations, cette orgie de données a des implications positives et négatives.

D'inoffensives à dangereuses

Prenons de nouveau l’exemple de la fréquence cardiaque. Dans une étude suédoise publiée en 2015, des chercheurs ont montré qu’un rythme cardiaque faible au repos pouvait être associée à des tendances naturelles à la violence. On ne sait pas si ces découvertes seront infirmées après des recherches plus poussées. Pour John Chuang, professeur à la School of Information de l’Université de Berkeley, si ce lien venait à être confirmé, il pourrait à l’avenir être associé à d’autres données au sein d’algorithmes complexes pour profiler ou condamner des individus. Le directeur du laboratoire BioSense ajoute que «c’est quelque chose qu’on ne peut pas anticiper. Ces nouvelles classes de données qu’on considère comme inoffensives pourraient s’avérer dangereuses». (La technologie des bio-senseurs se sert des données numériques pour étudier des systèmes vivants comme l’être humain.)

En l’absence d’études reliant la fréquence cardiaque à des problèmes de santé ou de comportement, on a tendance à se rattacher à nos interprétations sociales préétablies qui veulent qu’un rythme cardiaque plus élevé signifie que quelqu’un ment, est nerveux, ou intéressé. Les chercheurs de Berkeley ont montré que même ces associations les plus faciles pourraient avoir des implications sur les applications qui permettent aux utilisateurs de partager leurs données cardiaques avec leurs amis ou leur employeur. Dans une étude récente en cours d’évaluation, les participants ont joué à un jeu de confiance. Quand leur partenaire avait un rythme cardiaque élevé, ils avaient moins tendance à coopérer avec eux et plus tendance à les trouver d’humeur négative. Dans une autre étude qui doit être publiée prochainement, les participants ont dû imaginer un scénario: ils étaient sur le point de voir une connaissance au sujet d’un désaccord légal, et cette connaissance leur envoyait un message pour les prévenir qu’il ou elle aurait un peu de retard. En plus du message, la fréquence cardiaque de cette personne apparaissait à l’écran. Quand celle-ci était normale, de nombreux participants ont trouvé qu’elle aurait dû être haute pour montrer que cette connaissance accordait de l’importance à son retard. Les auteurs ont inclus une mise en garde sur les «dangers potentiels» d’applications qui pourraient encourager les personnes à partager leur fréquence cardiaque et à faire des liens erronés entre les signaux et les comportements. Une application, Cardiogram, pose déjà la question: «Qu’est-ce que votre fréquence cardiaque peut vous apprendre?»

Tout à coup, tous ceux qui ont accès à votre fréquence cardiaque pourraient juger (à tort ou à raison) vos émotions, vos humeurs, ou vos prouesses sexuelles. «Ces données peuvent très facilement être mal interprétées», précise Michelle De Mooy, directrice du projet Données et confidentialité au Centre pour la démocratie et la technologie. «Les gens ont tendance à prendre les données pour des faits, alors qu’elles sont en réalité gouvernées par des algorithmes créés par des êtres humains subjectifs.»

Protection des données

Il est inquiétant de penser que des entreprises, des employeurs ou des tierces personnes pourraient se servir d’informations aussi imparfaites. Aux États-Unis, la plupart des données bio-sensibles récupérées par les appareils portables ne sont pas protégées par l’Health Insurance Portability and Accountability Act, ni régulées par la Commission fédérale du commerce, ce qui montre bien que les frontières entre les données médicales et non médicales sont encore à définir. «La régulation peut être une bonne chose parfois, mais peut aussi compliquer les choses», explique De Mooy. «Mais dans ce cas précis, elle est importante parce que les traqueurs d’activité commencent à faire partie de nos vies, de différentes manières. En dehors du côté ludique des mesures approximatives d’activité, ils commencent à trouver leur place sur les lieux de travail et dans des programmes de bien-être, de différentes manières.»

Prenons l’exemple d’Aetna. Cette entreprise a voulu améliorer le bien-être de ses employés grâce à leur sommeil, à la manière d’Ariana Huffington. L’idée était de payer les salariés pour qu’ils dorment suffisamment, ce qui à première vue a l’air trop beau pour être vrai. Quand on y regarde de plus près, on découvre plusieurs dimensions perturbantes au projet: tout d’abord, les employés entraient manuellement leurs heures de sommeil dans le système en ligne d’Aetna, ce qui veut dire qu’ils pouvaient facilement tricher. Mais même si ces données étaient également récoltées par des traqueurs (ce qui est vrai pour d’autres aspects du programme bien-être d’Aetna), de tels projets pourraient finir par poser problème, selon l’utilisation que l’entreprise fait des données. Par exemple, imaginons que votre manager commence à baser les décisions qu’il prend de vous assigner ou non des projets sur la qualité de votre sommeil.

Toutes les données des programmes de bien-être ne peuvent pas être légalement communiquées à des employeurs ou des tierces personnes. Ça dépend si le programme de bien-être fait partie d’un contrat d’assurance de l’entreprise, ce qui voudrait dire qu’il serait protégé par l’HIPAA, ou s’il est administré par un fournisseur extérieur aux assurances. Dans ce second cas de figure, les données sont uniquement protégées par les politiques de confidentialité de ces fournisseurs extérieurs, «ce qui signifie qu’ils peuvent faire tout ce qu’ils veulent avec», selon De Mooy.

La plupart des entreprises qui récoltent ces informations insistent sur le fait qu’elles font tout en leur pouvoir pour protéger les données de leurs utilisateurs et qu’elles ne les revendent pas à des fournisseurs (pour l’instant). Mais quand les données passent d’un appareil, d’un téléphone, au nuage à travers une connexion Wi-fi, les algorithmes de chiffrement et de protection du monde entier ne peuvent assurer leur sécurité. La plupart de ces programmes, comme l’initiative d’Aetna sur le sommeil, sont optionnels, mais parfois les employés n’ont pas vraiment le choix. S’ils refusent de participer, ils doivent souvent payer plus cher leur assurance, même si les entreprises préfèrent dire qu’elles offrent une réduction à ceux qui décident de participer, plutôt qu’une pénalité à ceux qui refusent.

De plus, même si on refuse de participer, les entreprises pourraient à l’avenir trouver le moyen de récolter des données similaires. Par exemple, des chercheurs du MIT sont maintenant capables de détecter la fréquence cardiaque et le rythme respiratoire d’une personne à distance, grâce à la réverbération d’un signal Wi-fi sur son corps, et ce avec 99% d’exactitude. «Dans le futur, est-ce que les magasins pourront capter la fréquence cardiaque de leurs clients pour voir comment ils réagissent à un nouveau gadget?», imagine Chuang. «C’est ce genre de situation que vous, en tant que client, ne serez peut-être pas en mesure d’éviter.»

Et pourtant, tout n’est pas sombre dans cette vision de l’avenir. Votre démarche peut être aussi unique que vos empreintes digitales. Quelques études ont montré que la démarche peut contribuer à vérifier l’identité des utilisateurs de smartphones. Elle peut aussi prédire si une personne présente des risques de démence. Des données apparemment inutiles pourraient permettre aux experts de déduire ou de prédire certains comportements ou problèmes de santé. Mais les meilleurs aperçus de cette technologie arriveront dans les prochaines années, quand les entreprises et les consommateurs pourront consulter une multitude de données individuelles pour les comparer avec les données de la population entière. C’est là, selon un récent rapport du Centre pour la cybersécurité de long terme de l’Université de Berkeley, qu’on pourra réellement «avoir un aperçu des expériences émotionnelles de l’être humain».

Mais ce sont les données que l’on crée aujourd’hui qui alimenteront ces aperçus. Loin d’être anodines, elles composent les fondations de ce que vous (et le reste du monde) pourriez bientôt apprendre sur votre propre avenir.

cover
-
/
cover

Liste de lecture