Les chatbots ‘romantiques’ ne visent pas votre cœur, mais vos données

© Getty Images
Els Bellens

Un amoureux numérique est un cauchemar pour la confidentialité. Voilà ce qui ressort d’une analyse de Mozilla. Les chatbots rechercheraient principalement des données à revendre.

Un chatbot romantique utilise l’IA pour simuler des conversations, comme si vous parliez à un amoureux ou à un bon ami. Il porte des noms comme Replika, Chai et Eva,et depuis l’essor de ChatGPT et d’autres logiciels Gen AI sophistiqués, ces chatbots poussent comme des champignons. Et cela se fait principalement au détriment de votre vie privée, selon Mozilla après avoir mené l’enquête.

L’équipe de recherche de l’organisation a analysé onze chatbots romantiques populaires, qui ont été téléchargés 100 millions de fois environ. Son rapport indique que les chatbots stockent beaucoup plus d’informations que ce qui est ‘normal’ pour une appli. On pouvait s’y attendre dans la mesure où les conversations simulées par ce type de robot sont du genre intime. Mais les entreprises sous-jacentes en font bien trop peu pour sécuriser ces données, selon Mozilla.

Guère de sécurité

Sur les onze chatbots examinés, dix ne répondaient pas aux normes minimales de sécurité fixées par l’équipe de recherche. Il existe par exemple des robots qui enregistrent tous les textes, photos et vidéos qu’un utilisateur saisit sur son smartphone. La plupart autorisent également des mots de passe très faibles, ce qui rend les comptes plus faciles à pirater. Les trackers (pisteurs) sont également courants. Rien que sur l’appli Romantic AI, les chercheurs ont dénombré 24.354 trackers en une minute. De plus, 90 pour cent des chatbots ne disposaient pas de possibilité de refuser (‘opt-out’) d’utiliser vos données pour une formation ultérieure du modèle. Même les notifications de confidentialité étaient souvent incomplètes, voire totalement absentes.

C’est particulièrement ennuyeux, car les chatbots IA vous sont souvent présentés comme un moyen d’apprendre à mieux gérer vos sentiments, voire votre santé mentale. Soyons clairs, ce n’est pas conseillé pour le moment. C’est ainsi que l’année dernière, un chatbot a été associé à un tragique suicide.

Mais il apparaît également que bon nombre de ces applis sont principalement commercialisées en tant que ‘collecteurs de données’ et non comme des simulations raffinées, en quête de contacts humains. Il y a donc le risque majeur que si vous ouvrez votre cœur à un amoureux numérique du genre, vos informations soient immédiatement transmises à des annonceurs et aux serveurs du robot lui-même. ‘Ne dites donc rien à un chatbot amoureux que vous ne voudriez pas qu’un parent ou un collègue découvre par la suite’, peut-on encore lire dans le rapport.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire