Tech & internet

Sexe, drogue, et rendez-vous médicaux: ce qu'entendent les oreilles indiscrètes de Siri

Temps de lecture : 2 min

Des enregistrements des questions posées à Siri sont écoutées par Apple et peuvent révéler des informations très sensibles.

Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via Unsplash
Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via Unsplash

«Ce qui se passe dans votre iPhone reste dans votre iPhone.» proclamait un immense panneau publicitaire affiché dans Las Vegas lors du dernier CES, un grand salon dédié aux nouvelles technologies. Une bravade d'Apple, qui n'a de cesse de vanter sa supériorité sur ses concurrents en terme de protection des données.

Mais comme Amazon et Google l'ont admis avant elle, la firme de Cupertino écoute elle aussi les extraits audio enregistrés par son assistant vocal Siri, selon les révélations d'un lanceur d'alertes au Guardian.

Comme chez Google et Amazon, une petite portion des enregistrements de Siri, moins de 1% selon Apple, sont sélectionnés au hasard puis envoyés à des reviewers afin de vérifier si Siri a correctement compris ce qui lui était demandé, qu'il n'a pas répondu à coté, que l'activation était bien intentionnelle, etc.

Apple précise auprès du Guardian que les enregistrements, qui ne durent que quelques secondes, ne sont pas liés aux identifiants de leurs client·es, et que toutes les personnes en mesure de les écouter ont signé des accords stricts de confidentialité.

Mais même si les identités ne sont pas directement reliées aux enregistrements, le personnel a tout de même accès aux coordonnées, contacts et données des applis liées à l'appareil utilisé.

Déclenchements accidentels

Ce processus permet d'identifier les failles de l'assistant et de l'améliorer. Seulement, ce ne sont pas des personnes directement employées par Apple qui consultent ces fichiers. Ce sont des sous-traitants dont les employé·es, selon la source du Guardian, ne sont pas vraiment trié·es sur le volet.

Or, beaucoup d'enregistrements sont déclenchés par erreur. Il arrive à Siri de penser à tort que sa phrase d'activation («Hey Siri») a été prononcée, notamment quand il entend le bruit d'une fermeture éclair. Quand une Apple Watch est soulevée puis entend des paroles, Siri est aussi automatiquement déclenché, ce qui cause un nombre de déclenchement accidentels «incroyablement haut».

Ainsi, «on peut entendre un médecin et son patient, on ne peut pas être sûrs mais certaines conversations ressemblent beaucoup à un deal de drogue. Parfois, des gens en train de coucher ensemble sont accidentellement enregistrés par une enceinte connectée ou une montre».

Contrairement à Amazon et Google, qui permettent à leur clientèle de refuser que leurs enregistrements soient utilisés pour améliorer le service, le seul moyen pour y échapper chez Apple est de désactiver Siri entièrement.

Mise à jour: Le 2 août, après que la presse a relayé ce témoignage, Apple a décidé de suspendre son programme, le temps de le «passer précisément en revue». La société a également annoncé qu'une future mise à jour permettrait à ses client·es de refuser que leurs enregistrements soient écoutés par quiconque.

Newsletters

Dernière stratégie publicitaire en vogue: les mèmes

Dernière stratégie publicitaire en vogue: les mèmes

Une appropriation des blagues des jeunes qui permet aux marques de se donner une image cool, accessible et humaine sur les réseaux sociaux.

Vous avez toujours rêvé de voir comme un chat? C'est désormais possible

Vous avez toujours rêvé de voir comme un chat? C'est désormais possible

Des scientifiques ont créé un logiciel pour percevoir le monde avec la vision d'une abeille, d'un poisson ou encore d'un chat.

Après CNews, Valeurs actuelles est la nouvelle cible des Sleeping Giants

Après CNews, Valeurs actuelles est la nouvelle cible des Sleeping Giants

Le but de ces activistes: responsabiliser les marques qui achètent des publicités dans des médias diffusant des discours de haine.

Newsletters