Le rapport publié la semaine dernière par le Guardian à propos de Siri a fait l’effet d’une bombe : les prestataires d’Apple écoutent les enregistrements Siri et « entendent souvent des informations médicales confidentielles, ou sont témoins à distance de conversations liées au trafic de drogue, voire aux ébats de couples ayant des rapports sexuels ». Ce rapport fait écho à une information similaire diffusée il y a quelques semaines par la chaîne d’information en flamand VRT NWS du radiodiffuseur belge Vlaamse Radio- en Televisieomroeporganisatie (VRT), révélant que les enregistrements de Google Assistant pouvaient être écoutés par n’importe qui, partout dans le monde. La VRT avait même pu localiser certaines voix grâce à des « adresses et à d’autres informations sensibles ».

Pour leur défense, Apple et Google affirment que les données recueillies et analysées sont cruciales pour le développement de l'intelligence de leur chatbot. Comme Google, Apple affirme que « moins de 1 % des activations quotidiennes de Siri sont utilisées pour améliorer la qualité de l’IA, et celles qui sont utilisées ne durent généralement que quelques secondes ». Le lanceur d’alerte qui a fourni les enregistrements au Gardian a dit qu'il était « chargé d'évaluer les réponses en fonction de divers facteurs, notamment si l'activation de l'assistant vocal était délibérée ou accidentelle, si l’assistant avait été préparé pour répondre à la requête et si sa réponse avait été appropriée ».

Siri

Siri écoute peut-être plus souvent que vous ne le pensez. (Crédit Michael Simon/IDG)

Des données non corrélées d'après Apple

Apple a également précisé que les données de Siri étaient aléatoires et « n’étaient pas corrélées avec d'autres données d’usage d'autres services d’Apple », mais le lanceur d’alerte a déclaré au Guardian que les enregistrements « comprenaient des données utilisateur indiquant l'emplacement, les coordonnées et les données d'application ». On ne sait pas très bien comment ces informations sont liées aux enregistrements, car Apple sépare strictement les opérations impliquant de renseigner l'identifiant Apple et Siri. Le Gardian souligne pour sa part qu' « il n'y a pas de nom ou d'identifiant spécifique attaché à un enregistrement et qu'aucun enregistrement individuel ne peut être lié facilement à d'autres enregistrements ». 

Concernant Siri, Apple se pose depuis longtemps en strict protecteur de la vie privée des utilisateurs, affirmant que « ce qui se passe sur l’iPhone de l’utilisateur reste sur l’iPhone ». Apple a également déclaré au Guardian que « les réponses de Siri étaient analysées dans des installations sécurisées et que tous les évaluateurs étaient tenus de respecter les strictes exigences de confidentialité d'Apple ». Ainsi, sauf à se lancer dans une enquête de fin limier, Apple semble se donner beaucoup de mal pour protéger les conversations Siri et s'assurer que les données qui s'y trouvent ne puissent pas être remontées jusqu'à l’utilisateur, mais cela ne veut pas dire que rien de ce genre ne puisse arriver. Même si nous n’avons aucune raison de croire que les données recueillies puissent être utilisées à des fins malveillantes, il n'en demeure pas moins que Siri et tout autre assistant à commande vocale peuvent être déclenchés par des phrases ou une sonorité proche du mot de passe de mise en route. Et c'est là que réside le nœud du problème. Si un téléphone ou un HomePod sont déclenchés accidentellement, ils commenceront à enregistrer ce qu'ils entendent sans se demander si c’est une conversation sensible et si l’utilisateur a vraiment voulu l’enregistrer. Selon le lanceur d’alerte, Siri s'active régulièrement sans la commande explicite « Eh Siri », y compris quand il entend un son tout aussi inoffensif que « celui d'une fermeture éclair » sur une veste.

Siri

Tout ce que vous avez à faire est de lever le poignet pour que Siri commence à écouter votre Apple Watch. (Crédit Michael Simon/IDG)

Laisser l'utilisateur décider

Si ce son est ensuite répertorié comme pouvant contribuer à l’amélioration du système, un prestataire pourra alors l'entendre. Le risque de déclenchement accidentel est encore plus considérable avec l'Apple Watch, puisqu’il suffit simplement de lever le bras avec la montre connectée pour activer Siri. Et comme elle est toujours sur le poignet de l’utilisateur, la probabilité que Siri enregistre par inadvertance une conversation sensible est plus importante qu'avec un iPhone ou un HomePod.

Certes, l'analyse humaine des interactions Siri est importante. Apple peut faire tous les tests qu'il veut, mais il ne saura pas dans quelle mesure Siri effectue correctement son travail de collecte d'échantillons aléatoires sans échantillonnage dans le monde réel. Et ce n’est pas ce qu’il faut remettre en cause. Mais accident ou pas, l’utilisateur devrait avoir le droit de refuser de participer au processus de training mis en place par Apple. Apple a prévu de demander l’approbation de l’utilisateur pour tout - localisation, suivi des publicités, plantages d'applications, accès au microphone, etc. - mais aucun écran dans la configuration ne lui demande s’il accepte de participer ou non à la collecte aléatoire de données. Il n'y a pas non plus de curseur dans les réglages. En fait, dans l'état actuel des choses, il n'y a aucun moyen de refuser cette collecte. Comme le souligne le Guardian, Apple « n'indique pas explicitement que ce travail est entrepris par des humains qui écoutent les enregistrements pseudonymisés » dans sa politique de confidentialité.

Siri

Les oreilles de votre HomePod entendent peut-être des choses qu'il ne devrait pas entendre. (Crédit Michael Brown)

Une modification de politique de confidentialité à prévoir

Il y a fort à parier qu'Apple modifiera sa politique de confidentialité en introduisant un nouveau texte mentionnant l’intervention d’un humain, mais ce n'est pas suffisant pour une entreprise qui se pose en modèle de respect de la confidentialité et s’en sert comme argument de vente pour l’iPhone. Les utilisateurs devraient pouvoir choisir facilement de ne pas enregistrer toutes les données Siri au moment de l'installation. Cela contribuerait grandement à maintenir la confiance des utilisateurs. Mais ils devraient aussi avoir la possibilité de voir et de supprimer les requêtes Siri. En l'état, la seule façon de voir l'historique des conversations est de demander à Siri, et la seule façon de l'effacer est de supprimer l’historique de Safari et de désactiver la dictée Siri. C’est loin d’être aussi granulaire que ce que proposent les assistants vocaux de Google et d’Amazon. Mais cela permettrait non seulement à l’utilisateur de voir et d'effacer des enregistrements qu’il ne veut pas partager, mais d’avoir aussi une idée de ce que Siri écoute quand il n’a pas été activé volontairement, ce qui est en grande partie la base du problème évoqué ici.

Certes, il est possible de désactiver « Eh Siri » sur son téléphone ou la fonction « Raise to Speak » (lever la main pour parler) sur l’Apple Watch au détriment de la fonctionnalité et de la commodité. Un simple curseur qui permettrait de refuser la collecte de données audio rendrait le processus d'Apple beaucoup plus acceptable. Si nous avions su qu'Apple recueillait des données pour améliorer Siri, le rapport n'aurait pas été aussi dérangeant, même avec les morceaux scandaleux. Cela aurait pu même inciter certains utilisateurs à se plonger dans les paramètres pour désactiver l'accès. On peut comprendre qu'Apple a besoin de collecter et d'écouter certains enregistrements pour améliorer son système IA. Mais, quoi qu’il en soit, l’utilisateur doit pouvoir décider d’y participer ou pas.