La Chine instaure une loi rigoureuse pour les chatbots d’IA

© Getty Images
Els Bellens

La Chine a élaboré une nouvelle série de règles visant à interdire aux chatbots d’intelligence artificielle de manipuler émotionnellement leurs utilisateurs. L’objectif est notamment de prévenir le suicide.

Cet ensemble de règles pourrait devenir la loi la plus stricte au monde concernant la nouvelle technologie des chatbots utilisant l’IA générative. Si les règles sont approuvées, elles s’appliqueront à tous les produits et services d’IA disponibles publiquement en Chine, qui simulent des conversations par le biais de texte, d’images, d’audio, de vidéo et ‘d’autres moyens’.

Les règles stipulent notamment qu’il est obligatoire de prendre contact avec toute personne évoquant le suicide. Lors de leur enregistrement, les mineurs et les personnes âgées doivent également fournir les coordonnées d’un tuteur légal. Ce dernier sera averti, dès que l’utilisateur parlera de suicide ou d’automutilation.

De plus, les bots ne doivent pas promouvoir l’obscénité, les jeux d’argent ou d’autres délits. Plus frappant encore peut-être, il leur est interdit d’intégrer la ‘promotion de la dépendance et de l’indépendance’ dans leurs objectifs conceptuels.

Toute personne ayant des questions sur le suicide peut contacter la Prévention Suicide au numéro 0800 32 123. Besoin de parler à quelqu’un? Vous pouvez joindre Télé Accueil 24h/24 et 7j/7 au numéro de téléphone 107. Vous pouvez également chatter sur télé-accueil.be. Les jeunes peuvent aussi contacter 103 ecoute au numéro de téléphone 103 ou chatter sur https://www.103ecoute.be/.

Ces derniers temps, des parents d’adolescents s’étant suicidés ont porté plainte notamment contre OpenAI, la firme qui produit ChatGPT. Ils accusent le bot d’adopter des comportements potentiellement problématiques de manière excessive, précisément pour maintenir l’intérêt des utilisateurs. Des chercheurs dans le domaine signalent également que des assistants d’IA incitent parfois à l’automutilation, à la violence et au terrorisme, en plus de diffuser de la désinformation, entre autres. ChatGPT a entre-temps été modifié pour être moins complaisant, mais moyennant paiement, il est toujours possible d’utiliser l’ancienne ‘personnalité’ qui confirme presque tout ce que vous dites, même si cela peut potentiellement nuire à votre santé mentale.

ChatGPT proposerait le contrôle parental après la mort d’un ado

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire