Santé / Tech & internet

Facebook veut s'occuper de votre santé? Attention danger!

Temps de lecture : 10 min

Les grands acteurs du numérique veulent partager vos données personnelles avec vos médecins. C'est une très mauvaise idée.

Les courtiers qui ont joué un rôle de premier plan dans le ciblage publicitaire sur la plateforme sont les mêmes qui vendent des données relatives aux déterminants sociaux de santé. | Rawpixel via Pixabay
Les courtiers qui ont joué un rôle de premier plan dans le ciblage publicitaire sur la plateforme sont les mêmes qui vendent des données relatives aux déterminants sociaux de santé. | Rawpixel via Pixabay

Vos habitudes sur Netflix peuvent-elles prédire la survenue d'une maladie inflammatoire chronique de l'intestin? Le vocabulaire religieux des messages postés sur Facebook par des internautes américain·es pourrait-il être un signe de diabète? Alexa d'Amazon est-elle capable de détecter quand vous tombez malade et vous proposer d'acheter des médicaments?

Depuis peu, toutes les grandes entreprises technologiques se lancent dans les soins de santé, avec des investissements mobilisant leurs vastes banques de données personnelles. Amazon est en train de vendre un logiciel capable de consulter les dossiers médicaux afin d'élargir les compétences d'Alexa en matière de santé et de bien-être. Google développe un logiciel de reconnaissance vocale pour aider les médecins à remplir les dossiers de leurs patient·es. Alphabet, maison mère de Google, a mis au point un partenariat entre Verily (sa branche spécialisée dans les sciences de la vie) et Walgreens pour surveiller si les malades suivent bien leurs traitements. Apple ne cesse de développer des applications de santé et de bien-être pour ses montres connectées, qui intégrent données personnelles de suivi et dossiers médicaux électroniques de ses hôpitaux partenaires. Microsoft travaille actuellement à la conception d'un logiciel d'intelligence artificielle (IA) de gestion à distance des dossiers médicaux. Même Uber et Lyft entrent dans la danse avec un service de «transport médical non urgent».

Le pari de ces entreprises? Monétiser nos traces numériques, même si elles ne sont pas directement liées à notre santé, grâce à une nouvelle approche combinant intelligence artificielle et données personnelles de consommation afin de créer une analyse personnalisée et prédictive. Sauf qu'il y a peu de chance que toutes ces données améliorent réellement notre santé. En revanche, elles pourraient aggraver notre vulnérabilité au profilage numérique, à la surveillance et à la manipulation dans l'un des domaines les plus intimes de notre existence: nos rapports avec les professionnel·les de santé.

Déterminants sociaux de santé

Avec 3.650 milliards de dollars (3 .337 milliards d'euros) dépensés en soins de santé aux États-Unis en 2018, le marché est effectivement énorme, et les promesses de gros sous des plus alléchantes. Malades et médecins ne se satisfont pas du système actuel, et les entreprises technologiques se targuent d'un avantage concurrentiel du fait qu'elles comprennent le comportement des personnes qui consomment, comme le prouvent la data qui est en leur possession. Si on suit leur raisonnement, leurs énormes banques de données personnelles seraient les seules à pouvoir révéler certaines corrélations entre comportements et santé, eu égard au temps que passent les internautes à se dévoiler sur les plateformes.

Pour les entreprises du secteur de la santé, il s'agit d'une occasion en or pour améliorer la démarche centrée «sur le patient», en prédisant des «scores de risque» individualisés pour personnaliser le parcours de soins (tout en augmentant leurs revenus et en réduisant leurs coûts). Reste que, pour les malades, les avantages qu'il y a à transmettre autant de données personnelles sont bien moins évidents.

L'influence des déterminants sociaux sur notre santé est plus importante que celle de la génétique ou des soins.

Le type de données exploitées par les entreprises technologiques –nos achats, nos goûts, ce qui nous procure du plaisir et ce qui nous fait pester– n'ont pas grand-chose à voir avec celles que les médecins et les équipes de recherche utilisent traditionnellement pour diagnostiquer les maladies. Contrairement à un taux de glycémie ou un ECG, les données issues de sites «métacliniques» comme Facebook ou Amazon concernent des déterminants sociaux de santé.

Comme les définit l'OMS, il s'agit des «circonstances dans lesquelles les individus naissent, grandissent, vivent, travaillent et vieillissent ainsi que les systèmes mis en place pour faire face à la maladie». Leur influence sur notre santé est plus importante que celle de la génétique ou des soins médicaux. Le sujet était encore peu évoqué dans les milieux médicaux ou le secteur technologique jusqu'à très récemment. Pourquoi? Parce qu'il est difficile de quantifier, par exemple, à quel point une personne peut se sentir seule, et encore plus difficile de mettre en œuvre des mesures médicales ou pharmacologiques pour l'inciter à sortir davantage de chez elle. Les déterminants sociaux ont donc été laissés aux bons soins des parentes pauvres de la médecine, à savoir la santé publique et l'action sociale.

Votre profil à la patte

Cette situation a changé après la crise financière de 2008 et l'adoption de l'Obamacare en 2010. Les hôpitaux ont désormais intérêt à se préoccuper des déterminants sociaux de santé. Par exemple, la réforme du système de santé américain voulue par Obama faisait du «soin axé sur la valeur» une nouvelle référence pour la rémunération des professionnel·les de santé, qui faisaient passer la qualité des soins (les résultats pour les patient·es) devant la quantité (ciao la tarification à l'acte). Pour être payées, les personnes qui travaillent dans ce domaine ont dû voir plus loin que leur cabinet et prendre en considération des facteurs tels que le voisinage, le niveau d'études, l'alimentation, les revenus, les discriminations et le stress des malades qui venaient les consulter pour en mesurer les effets sur leur santé.

Pour les partisans de l'assimilation des droits à la santé aux droits humains, il en allait d'une évolution prometteuse. Pour le secteur de l'analyse des données, c'était une mine d'or.

«Avec tous les consentements que vous avez à accordé, j'ai trouvé ça plutôt marrant!»

C'est là que l'intelligence artificielle et le machine learning sont entrés en piste. Les soins de santé représentent le plus gros marché pour ce secteur émergent. Des entreprises comme Jvion combinent des données sur «des milliers de facteurs socioéconomiques et comportementaux» avec le dossier médical d'un·e patient·e pour prévoir et prévenir ses maladies. Si vous avez récemment commencé à acheter des somnifères, à vous payer les services d'un·e avocat·e pour divorcer ou si vous avez reçu beaucoup de contraventions pour excès de vitesse, votre «profil de risque» en tiendra compte.

Des établissements hospitaliers comme la Mayo Clinic, l'Intermountain Healthcare ou le CHU de Cleveland payent pour avoir accès aux «technologies cognitives» de Jvion, IBM, ou encore DeepMind Health de Google qui leur promettent des «analyses prescriptives de dommages évitables», gèrent l'évolution des risques des personnes concernées et recommandent des interventions personnalisées.

«Merci @NHSDigital de nous soutenir pendant l'entraînement au management des risques cliniques. Nous vous assurons de livrer des produits sécurisés aux infirmières et aux médecins doctors using comme Streams.»

Par exemple: surveiller les personnes qui abusent de la médecine d'urgence lorsqu'elles ne sont pas à l'hôpital afin de les empêcher d'y revenir, prévenir une dépendance aux opiacés, des crises cardiaques et des accidents vasculaires cérébraux, ou encore anticiper une prise en charge pour des problèmes de santé mentale.

De la nature des données collectées

Ce qui pourrait presque faire rêver. On a l'impression de soins futuristes, avec des algorithmes détectant et prévenant la survenue imminente de la maladie avant même qu'elle ne se manifeste. À ceci près que lorsque les déterminants sociaux de santé relèvent de critères comme votre origine ethnique, votre quartier ou vos antécédents financiers, ces données ne sont ni neutres ni objectives, et requièrent d'être interprétées avec doigté. Lorsque les systèmes d'intelligence artificielle et de machine learning prennent en compte l'origine ethnique, par exemple, il faudrait qu'ils sachent faire la différence entre la «race» en tant que classification médicale fallacieuse et la «discrimination raciale», un facteur tout à fait réel qui affecte la santé du fait de préjudices structurels et individuels.

Des courtiers en données comme LexisNexis et Acxiom vendent déjà aux professionnel·les de santé des données sur les déterminants sociaux, y compris des informations relatives aux casiers judiciaires, achats en ligne, programmes de fidélité, registres électoraux, etc. Bientôt, quand ils mesureront leur poids ou leur tension artérielle, les médecins américains pourront aussi savoir si les personnes concernées ont leurs habitudes dans des restaurants pas très diététiques.

Ces courtiers ont joué un rôle de premier plan dans le ciblage publicitaire qui est pratiqué sur Facebook. Il semble que le réseau social veuille désormais constituer son propre stock de déterminants sociaux de santé. Une tribune publiée en janvier dans le Journal of the American Medical Association (Jama) présente un tel projet. Avec deux de ses collaborateurs, Freddy Abnousi, cardiologue à la tête du département de Facebook consacré à la recherche médicale, y soutient que les équipes de recherche en sciences de la santé devraient accorder davantage d'attention aux déterminants sociaux collectés sur les réseaux et combiner ces informations aux dossiers médicaux des patient·es afin d'obtenir les meilleurs résultats possible.

Si les auteurs ne présentent pas explicitement leur projet comme une exploitation des données Facebook, ils conçoivent une «définition plus fine et technologiquement orientée» des déterminants sociaux de santé qui comprendrait le «nombre d'amis» ainsi que des «biomarqueurs sociaux complexes, comme la temporalité, la fréquence, le contenu, l'orientation générale des messages et le degré d'intégration aux communautés en ligne» provenant «de millions d'utilisateurs». Ils exhortent leur lectorat à imaginer la «richesse des liens susceptibles d'être analysés grâce au machine learning et autres méthodologies évolutives de “big data”», en donnant comme exemples des sujets sur lesquels Facebook travaille d'ores et déjà: la prévention du suicide, la dépendance aux opiacés et la santé cardiovasculaire.

Règles de confidentialité violées

Ce qui ne fait pas sauter de joie les défenseurs du droit à la confidentialité des données médicales. Les premières initiatives de Facebook visant à combiner données sociales et médicales sans le consentement des malades (un projet également chapeauté par Abnousi) avaient été révélées en même temps que le scandale Cambridge Analytica, ce qui avait fait très mauvaise impression auprès du public et entraîné l'arrêt du projet.

En réaction à l'article du Jama, des patient·es se sont regroupé·es pour critiquer ces projets et ont souligné la perte de confiance de plus en plus patente que les internautes ressentent vis-à-vis de la plateforme. En outre, l'amende record de la Fédération américaine du commerce (FTC) infligée à Facebook pour ses manquements en matière de respect de la vie privée –et le fait que la décision ne prévoit aucune mesure spéciale sur la protection des données médicales– n'a fait que saper davantage la crédibilité de Facebook, avant que le Centre d'information sur la vie privée électronique (Epic) ne dépose une nouvelle plainte.

Facebook n'est pas le seul géant du numérique à être sur la sellette pour vouloir s'aventurer sur ce terrain. Une plainte déposée en juin contre Google et le CHU de Chicago affirme que le centre médical aurait partagé des données identifiables provenant des dossiers médicaux électroniques de milliers de personnes hospitalisées entre 2009 et 2016. Selon la plainte, ces dossiers contiendraient des horodatages qui, combinés aux données de géolocalisation et autres auxquelles Google peut accéder, rend très facile l'identification des patient·es. En 2018, des chercheurs de Google avaient déjà fait état de ce travail, en précisant que leurs méthodes de formation de leurs algorithmes reposaient sur «l'ensemble [du dossier médical électronique], y compris les annotations en texte libre», ce qui va dans le sens de la plainte estimant que des règles de confidentialité ont été violées lorsque Google a récupéré ces dossiers.

Quand Google ou Facebook combine ses données génériques à des données médicales très sensibles, des profils médicaux numériques sont créés sans validation externe de l'exactitude des données, sans consentement des internautes ni possibilité de refuser ce fichage. Plus les entreprises technologiques seront nombreuses à s'intéresser à la santé des personnes concernées, plus ces profils numériques seront intégrés à nos dossiers médicaux, ce qui risquera d'affecter les types de soins qui nous serons proposés, les ressources auxquelles nous pourrons avoir accès et la facture que nous aurons à payer en fin de compte.

Demandez à votre médecin si vous pouvez accéder à votre profil.

Une interprétation humaine de ces profils pourrait les contextualiser de manière plus nuancée et significative, par exemple, si on y trouve des tickets de caisse de supermarché remplis d'aliments ultra-transformés achetés dans un quartier pauvre. À l'inverse, un programme d'intelligence artificielle pourrait voir dans ces données la preuve d'un mauvais respect des recommandations nutritionnelles. Ce qui entraînera l'augmentation du score de risque et ses pénalités associées.

Vous avez tout intérêt à demander à votre médecin quels types d'exploration de données et de profilage numérique sont utilisés au moment de prendre une décision thérapeutique. Demandez aussi si vous pouvez accéder à votre profil. Mais ne vous étonnez pas s'il vous demande, à son tour, comment vous avez trouvé les piments farcis au fromage que vous vous êtes fait livrer avant de lancer Diagnosis sur Netflix.

Kirsten Ostherr

Newsletters

Un séjour dans l'espace affecte différemment les femmes et les hommes

Un séjour dans l'espace affecte différemment les femmes et les hommes

Pression artérielle, maladies, vision trouble: les effets ressentis loin de la Terre varient selon le sexe.

Il y a bel et bien un lien entre consommation de viande rouge et cancer colorectal

Il y a bel et bien un lien entre consommation de viande rouge et cancer colorectal

Un article scientifique concluant qu'il n'est pas nécessaire de limiter sa consommation de viandes rouges ou transformées a déclenché un tollé début octobre.

Les athlètes britanniques devront savoir se laver les mains pour Tokyo 2020

Les athlètes britanniques devront savoir se laver les mains pour Tokyo 2020

Une mauvaise hygiène peut compromettre leurs chances aux Jeux olympiques.

Newsletters