Des sous-traitants d'Apple écouteraient eux aussi les enregistrements vocaux, selon le journal britannique The Guardian. Apple envoie en effet une partie des enregistrements effectués par Siri à des employés, afin d'améliorer l'intelligence de l'assistant vocal, par exemple en signalant si Siri est activé de manière opportune. Un lanceur d'alertes vient de prendre contact avec le journal, parce que l'activation ('hey Siri') s'effectue assez souvent par mégarde, ce qui fait que les sous-traitants et les collaborateurs de l'entreprise ont pas mal d'informations personnelles à traiter.

"Une petite partie des demandes de Siri sont analysées en vue d'améliorer l'assistant et la reconnaissance vocale. Les fragments ne sont alors pas liés à l'Apple ID de l'utilisateur. Les requêtes de Siri sont analysées dans des bâtiments sécurisés, et tous les vérificateurs doivent respecter le code de confidentialité d'Apple", selon l'entreprise dans le journal.

Mais cette affirmation est contestée dans The Guardian. "Il existe d'innombrables exemples d'enregistrements de discussions privées entre médecins et patients, de réunions professionnelles, d'accords apparemment criminels, de rencontres à caractère sexuel, etc. Ces enregistrements sont aussi accompagnés de données d'utilisateurs, précisant leur localisation, des informations sur leurs contacts et leurs applis", déclare le lanceur d'alertes au journal.

Siri est présent sur la plupart des produits d'Apple, mais l'Apple Watch est manifestement le gadget qui l'active le plus souvent par inadvertance. La montre connectée active en effet Siri, dès qu'elle est soulevée et qu'elle entend une voix. L'idée sous-jacente, c'est que l'utilisateur oriente la montre vers la bouche pour effectuer une demande, mais en même temps, c'est là aussi un geste capable de générer de très nombreux 'faux positifs'. Ces activations inopportunes sont qualifiées de problème technique, selon le journal britannique, mais il n'existe par ailleurs aucune procédure de manipulation des enregistrements sensibles. Selon le lanceur d'alertes, Apple doit faire preuve de plus de transparence quant à son éventuelle fréquence d'écoute et sur ce que deviennent ces enregistrements.

Apple n'explique pas clairement que vos enregistrements vocaux peuvent être analysés, même s'il y a de fortes chances que cela figure quelque part dans les petits caractères des conditions d'utilisation souvent illisibles. Le développement de l'intelligence artificielle ciblant spécifiquement les assistants vocaux nécessite énormément de données. Il n'est dès lors pas vraiment étonnant non plus que les géants technologiques exploitent leurs 'propres' données pour améliorer leurs assistants.

En avril déjà, il s'avéra que des collaborateurs d'Amazon écoutaient les enregistrements d'Alexa, pour améliorer l'AI. Et début de ce mois, la chaîne flamande VRT révélait que Google utilisait des sous-traitants pour analyser les enregistrements de Google Assistant. Le fait qu'Apple les imite, ne serait donc pas étonnant. La différence avec les deux autres firmes, réside dans le fait qu'Apple n'a pas d''opt-out'. Alors que chez Google, l'utilisateur peut par exemple savoir de quels enregistrements l'entreprise dispose sur lui, et peut annuler son autorisation, Apple ne propose pas cette option.