Apple arrête définitivement l’écoute des enregistrements de Siri, sauf autorisation explicite

.

Apple ne conservera plus les enregistrements sonores de Siri. Les utilisateurs pourront cependant encore choisir d’envoyer eux-mêmes des fichiers audio à Apple pour aider à améliorer l’assistant numérique.

Apple a pris cette mesure après un récent tollé. Tout comme certains concurrents, l’entreprise permettait en effet à des sous-traitants d’écouter ce que se disaient les utilisateurs. Ils agissaient de la sorte pour que le logiciel sous-jacent à Siri apprenne mieux comment les gens parlent.

La firme technologique présente à présent ses excuses pour ces pratiques d’écoute. “Nous nous rendons compte que nous n’avons pas complètement réalisé les idéaux élevés que nous nous étions fixés. Voilà pourquoi nous tenons à nous excuser”, peut-on lire dans un communiqué de presse d’Apple.

Apple avait stoppé temporairement déjà ce genre d’écoute. Lors de la prochaine mise à jour logicielle de Siri, prévue pour cet automne, elle persistera, mais dans d’autres conditions. Aucun enregistrement ne sera plus écouté par des personnes, à moins que des utilisateurs de Siri ne choisissent d’envoyer eux-mêmes des fichiers audio à Apple.

Adhésion

“Nous ne conserverons plus par défaut les enregistrements audio des interactions de Siri. Nous continuerons cependant d’utiliser les transcriptions générées par ordinateur, afin d’aider à améliorer Siri”, affirme Apple. Les transcriptions ne seront exécutées par des gens que si les utilisateurs donnent leur autorisation explicite. Le géant technologique promet que dans ce cas, il n’y aura que son propre personnel qui écoutera les conversations, et donc pas les sous-traitants. “Nous espérons que beaucoup de gens choisiront d’aider à améliorer Siri, sachant qu’Apple respecte leurs données et dispose de puissants contrôles de confidentialité. Ceux qui choisiront d’y participer, pourront se désenregistrer à tout moment”, selon l’entreprise.

Il y a quelque temps, un lanceur d’alertes avait révélé que des gens écoutaient des conversations enregistrées par Siri. Il arrivait même que des fragments audio très intimes en fassent partie, étant donné que l’assistant de l’iPhone ou de l’Apple Watch s’activait parfois de manière intempestive. C’est ainsi que des collaborateurs pouvaient écouter des entretiens entre un médecin et ses patients, mais aussi des ébats sexuels, voire des marchandages en matière de trafic de drogue.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire