A l’instar de ses concurrents Amazon et Google, Apple fait écouter les enregistrements de son assistant vocal, Siri, par des sociétés tierces, a révélé le quotidien britannique « The Guardian ». Y compris certaines déclenchées accidentellement.
Par David B. Hauce
Apple ne sera pas l’exception qui confirme la règle. A la suite d’une enquête du quotidien britannique The Guardian, Apple a reconnu que 1% des activations quotidiennes de son assistant vocal, Siri, sont l’objet d’une analyse par des examinateurs humains. Chaque jour, une partie des enregistrements de Siri est ainsi transmise à des sous-traitants travaillant pour l’entreprise dans le monde entier. Dans le Guardian, Apple reconnaît que ces données « sont utilisées pour aider Siri et la dictée vocale à mieux vous comprendre et à reconnaître ce que vous dites ». Sauf qu’à aucun moment, la société ne prévient ses utilisateurs qu’un tel travail est effectué par des humains écoutant des enregistrements.
Ces employés de l’ombre sont chargés d’évaluer la pertinence des réponses de l’assistant vocal, de vérifier que l’enregistrement a été déclenché intentionnellement, et de corriger d’éventuels problèmes. Apple assure que les enregistrements qu’ils écoutent « ne sont pas associés à l’identifiant Apple », et que « tous les examinateurs sont sous l’obligation d’adhérer à la clause de confidentialité très stricte d’Apple ». Un des employés qui s’est confié au Guardian est toutefois moins rassurant : « Il y a eu de nombreux cas d’enregistrements comportant des discussions privées entre médecins et patients, des accords commerciaux, ce qui ressemble à du trafic de drogue, des ébats sexuels. Ces enregistrements sont accompagnés des données de l’utilisateur, à savoir la localisation, le détail de ses contacts et les données des applications », assure-t-il à nos confrères britanniques.
L’assistant vocal d’Apple n’est censé se déclencher qu’au son du fameux « Hey, Siri ! ». Mais il arrive parfois – « souvent », d’après l’employé inquiet – que l’enregistrement s’active à l’insu de l’utilisateur, par exemple… « au son d’un zip » de fermeture éclair ! Siri peut aussi parfois se mettre en action si une Apple Watch détecte qu’elle a été soulevée puis entend des paroles. Un défaut qui concerne surtout l’Apple Watch et l’enceinte HomePod mais n’empêche pas que des conversations privées sur iPhone ou iPad soient aussi sauvegardées par erreur. « La montre peut enregistrer des extraits qui dureront 30 secondes ce n’est pas très long, mais vous pouvez avoir une bonne idée de ce qu’il se passe », témoigne l’employé avant d’ajouter : « Nous sommes encouragés à atteindre nos objectifs et à travailler le plus rapidement possible. Lors des activations accidentelles, on signale uniquement un problème technique. Il n’y a rien à signaler sur le contenu ». Cet employé s’est décidé à sortir du silence car il dit craindre que ces informations soient utilisées à mauvais escient : « Il y a peu de vérification sur le personnel, et la quantité de données que nous sommes libres de consulter semble assez large. Il ne serait pas difficile d’identifier la personne que vous écoutez, en particulier avec les activations accidentelles.
Apple n’est pas le seul à exercer une surveillance humaine sur ses assistants vocaux automatiques. En avril dernier, le média américain Bloomberg révélait qu’Amazon emploie des milliers de salariés pour écouter les discussions entre les utilisateurs et son assistant vocal Alexa. Début juillet, il a été constaté que les employés de Google faisaient de même avec Google Assistant. Toutefois, Amazon et Google permettent aux utilisateurs de gérer eux-mêmes leurs données et leurs enregistrements : sur l’application Amazon Alexia et sur le site myactivity.google.com, les utilisateurs peuvent accéder, écouter et supprimer leurs enregistrements des serveurs. Apple n’offre pas cette possibilité : à moins de désactiver complètement Siri, il est impossible d’empêcher les enregistrements d’être potentiellement analysés. La révélation du Guardian paraît loin du marketing de la firme de Cupertino : « Ce qui se passe sur votre iPhone reste sur votre iPhone ».