Tech & internet

Sexe, drogue, et rendez-vous médicaux: ce qu'entendent les oreilles indiscrètes de Siri

Temps de lecture : 2 min

Des enregistrements des questions posées à Siri sont écoutées par Apple et peuvent révéler des informations très sensibles.

Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via Unsplash
Mettez votre HomePod loin de votre lit. | Tyler Lastovitch via Unsplash

«Ce qui se passe dans votre iPhone reste dans votre iPhone.» proclamait un immense panneau publicitaire affiché dans Las Vegas lors du dernier CES, un grand salon dédié aux nouvelles technologies. Une bravade d'Apple, qui n'a de cesse de vanter sa supériorité sur ses concurrents en terme de protection des données.

Mais comme Amazon et Google l'ont admis avant elle, la firme de Cupertino écoute elle aussi les extraits audio enregistrés par son assistant vocal Siri, selon les révélations d'un lanceur d'alertes au Guardian.

Comme chez Google et Amazon, une petite portion des enregistrements de Siri, moins de 1% selon Apple, sont sélectionnés au hasard puis envoyés à des reviewers afin de vérifier si Siri a correctement compris ce qui lui était demandé, qu'il n'a pas répondu à coté, que l'activation était bien intentionnelle, etc.

Apple précise auprès du Guardian que les enregistrements, qui ne durent que quelques secondes, ne sont pas liés aux identifiants de leurs client·es, et que toutes les personnes en mesure de les écouter ont signé des accords stricts de confidentialité.

Mais même si les identités ne sont pas directement reliées aux enregistrements, le personnel a tout de même accès aux coordonnées, contacts et données des applis liées à l'appareil utilisé.

Déclenchements accidentels

Ce processus permet d'identifier les failles de l'assistant et de l'améliorer. Seulement, ce ne sont pas des personnes directement employées par Apple qui consultent ces fichiers. Ce sont des sous-traitants dont les employé·es, selon la source du Guardian, ne sont pas vraiment trié·es sur le volet.

Or, beaucoup d'enregistrements sont déclenchés par erreur. Il arrive à Siri de penser à tort que sa phrase d'activation («Hey Siri») a été prononcée, notamment quand il entend le bruit d'une fermeture éclair. Quand une Apple Watch est soulevée puis entend des paroles, Siri est aussi automatiquement déclenché, ce qui cause un nombre de déclenchement accidentels «incroyablement haut».

Ainsi, «on peut entendre un médecin et son patient, on ne peut pas être sûrs mais certaines conversations ressemblent beaucoup à un deal de drogue. Parfois, des gens en train de coucher ensemble sont accidentellement enregistrés par une enceinte connectée ou une montre».

Contrairement à Amazon et Google, qui permettent à leur clientèle de refuser que leurs enregistrements soient utilisés pour améliorer le service, le seul moyen pour y échapper chez Apple est de désactiver Siri entièrement.

Mise à jour: Le 2 août, après que la presse a relayé ce témoignage, Apple a décidé de suspendre son programme, le temps de le «passer précisément en revue». La société a également annoncé qu'une future mise à jour permettrait à ses client·es de refuser que leurs enregistrements soient écoutés par quiconque.

Newsletters

Le coronavirus révèle aussi une géopolitique de l'intelligence artificielle

Le coronavirus révèle aussi une géopolitique de l'intelligence artificielle

L'IA a son rôle à jouer en matière de gestion sanitaire. Mais tous les gouvernements n'ont pas les mêmes sensibilités sur la question.

N'oubliez pas que derrière nos écrans se cache un nouveau prolétariat

N'oubliez pas que derrière nos écrans se cache un nouveau prolétariat

Dans certains cas, la révolution numérique du travail ne consiste pas à automatiser, mais à faire travailler des gens dans des conditions pourries à l'autre bout du monde –ou en France.

Salt Bae ou fist-fucking: les différentes interprétations d'un nouvel émoji

Salt Bae ou fist-fucking: les différentes interprétations d'un nouvel émoji

L'émoticône des «doigts pincés» fait beaucoup parler d'elle sur internet.

Newsletters