Tech & internet

Sexe, drogue, et rendez-vous médicaux: ce qu'entendent les oreilles indiscrètes de Siri

Des enregistrements des questions posées à Siri sont écoutées par Apple et peuvent révéler des informations très sensibles.

Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via <a href="https://unsplash.com/photos/e31ANd1PXUw">Unsplash</a>
Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via Unsplash

Temps de lecture: 2 minutes - Repéré sur The Guardian

«Ce qui se passe dans votre iPhone reste dans votre iPhone.» proclamait un immense panneau publicitaire affiché dans Las Vegas lors du dernier CES, un grand salon dédié aux nouvelles technologies. Une bravade d'Apple, qui n'a de cesse de vanter sa supériorité sur ses concurrents en terme de protection des données.

Mais comme Amazon et Google l'ont admis avant elle, la firme de Cupertino écoute elle aussi les extraits audio enregistrés par son assistant vocal Siri, selon les révélations d'un lanceur d'alertes au Guardian.

Comme chez Google et Amazon, une petite portion des enregistrements de Siri, moins de 1% selon Apple, sont sélectionnés au hasard puis envoyés à des reviewers afin de vérifier si Siri a correctement compris ce qui lui était demandé, qu'il n'a pas répondu à coté, que l'activation était bien intentionnelle, etc.

Apple précise auprès du Guardian que les enregistrements, qui ne durent que quelques secondes, ne sont pas liés aux identifiants de leurs client·es, et que toutes les personnes en mesure de les écouter ont signé des accords stricts de confidentialité.

Mais même si les identités ne sont pas directement reliées aux enregistrements, le personnel a tout de même accès aux coordonnées, contacts et données des applis liées à l'appareil utilisé.

Déclenchements accidentels

Ce processus permet d'identifier les failles de l'assistant et de l'améliorer. Seulement, ce ne sont pas des personnes directement employées par Apple qui consultent ces fichiers. Ce sont des sous-traitants dont les employé·es, selon la source du Guardian, ne sont pas vraiment trié·es sur le volet.

Or, beaucoup d'enregistrements sont déclenchés par erreur. Il arrive à Siri de penser à tort que sa phrase d'activation («Hey Siri») a été prononcée, notamment quand il entend le bruit d'une fermeture éclair. Quand une Apple Watch est soulevée puis entend des paroles, Siri est aussi automatiquement déclenché, ce qui cause un nombre de déclenchement accidentels «incroyablement haut».

Ainsi, «on peut entendre un médecin et son patient, on ne peut pas être sûrs mais certaines conversations ressemblent beaucoup à un deal de drogue. Parfois, des gens en train de coucher ensemble sont accidentellement enregistrés par une enceinte connectée ou une montre».

Contrairement à Amazon et Google, qui permettent à leur clientèle de refuser que leurs enregistrements soient utilisés pour améliorer le service, le seul moyen pour y échapper chez Apple est de désactiver Siri entièrement.

Mise à jour: Le 2 août, après que la presse a relayé ce témoignage, Apple a décidé de suspendre son programme, le temps de le «passer précisément en revue». La société a également annoncé qu'une future mise à jour permettrait à ses client·es de refuser que leurs enregistrements soient écoutés par quiconque.

cover
-
/
cover

Liste de lecture