Tech & internet

Sexe, drogue, et rendez-vous médicaux: ce qu'entendent les oreilles indiscrètes de Siri

Temps de lecture : 2 min

Des enregistrements des questions posées à Siri sont écoutées par Apple et peuvent révéler des informations très sensibles.

Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via Unsplash
Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via Unsplash

«Ce qui se passe dans votre iPhone reste dans votre iPhone.» proclamait un immense panneau publicitaire affiché dans Las Vegas lors du dernier CES, un grand salon dédié aux nouvelles technologies. Une bravade d'Apple, qui n'a de cesse de vanter sa supériorité sur ses concurrents en terme de protection des données.

Mais comme Amazon et Google l'ont admis avant elle, la firme de Cupertino écoute elle aussi les extraits audio enregistrés par son assistant vocal Siri, selon les révélations d'un lanceur d'alertes au Guardian.

Comme chez Google et Amazon, une petite portion des enregistrements de Siri, moins de 1% selon Apple, sont sélectionnés au hasard puis envoyés à des reviewers afin de vérifier si Siri a correctement compris ce qui lui était demandé, qu'il n'a pas répondu à coté, que l'activation était bien intentionnelle, etc.

Apple précise auprès du Guardian que les enregistrements, qui ne durent que quelques secondes, ne sont pas liés aux identifiants de leurs client·es, et que toutes les personnes en mesure de les écouter ont signé des accords stricts de confidentialité.

Mais même si les identités ne sont pas directement reliées aux enregistrements, le personnel a tout de même accès aux coordonnées, contacts et données des applis liées à l'appareil utilisé.

Déclenchements accidentels

Ce processus permet d'identifier les failles de l'assistant et de l'améliorer. Seulement, ce ne sont pas des personnes directement employées par Apple qui consultent ces fichiers. Ce sont des sous-traitants dont les employé·es, selon la source du Guardian, ne sont pas vraiment trié·es sur le volet.

Or, beaucoup d'enregistrements sont déclenchés par erreur. Il arrive à Siri de penser à tort que sa phrase d'activation («Hey Siri») a été prononcée, notamment quand il entend le bruit d'une fermeture éclair. Quand une Apple Watch est soulevée puis entend des paroles, Siri est aussi automatiquement déclenché, ce qui cause un nombre de déclenchement accidentels «incroyablement haut».

Ainsi, «on peut entendre un médecin et son patient, on ne peut pas être sûrs mais certaines conversations ressemblent beaucoup à un deal de drogue. Parfois, des gens en train de coucher ensemble sont accidentellement enregistrés par une enceinte connectée ou une montre».

Contrairement à Amazon et Google, qui permettent à leur clientèle de refuser que leurs enregistrements soient utilisés pour améliorer le service, le seul moyen pour y échapper chez Apple est de désactiver Siri entièrement.

Mise à jour: Le 2 août, après que la presse a relayé ce témoignage, Apple a décidé de suspendre son programme, le temps de le «passer précisément en revue». La société a également annoncé qu'une future mise à jour permettrait à ses client·es de refuser que leurs enregistrements soient écoutés par quiconque.

Newsletters

 Facebook et la «harga», les réseaux sociaux alimentent le rêve européen des migrants

Facebook et la «harga», les réseaux sociaux alimentent le rêve européen des migrants

Influencés par les récits et photos idylliques de connaissances installées en Europe, des milliers de jeunes Maghrébins prennent chaque année le risque de l'émigration, parfois au péril de leur vie.

Pinterest bloque les recherches liées au coronavirus

Pinterest bloque les recherches liées au coronavirus

Si le Covid-19 vous angoisse, il est peut-être temps de vous créer un compte.

Comment Pokémon Go s'adapte au coronavirus

Comment Pokémon Go s'adapte au coronavirus

La société éditrice du jeu vient d'annoncer qu'elle allait modifier temporairement certaines règles afin de limiter au maximum les déplacements de ses utilisateurs et utilisatrices.

Newsletters