Le développeur de chatbots OpenAI a introduit le contrôle parental pour son célèbre chatbot. L’entreprise l’a annoncé suite à une plainte déposée aux Etats-Unis, alléguant qu’un adolescent qui s’est suicidé cette année, s’était fié à ChatGPT comme coach.
Le nouvel outil a été mis à la disposition de tous les utilisateurs hier lundi. Les parents peuvent ainsi restreindre l’utilisation du chatbot par leurs adolescents et recevoir des avertissements, si ChatGPT suspecte un adolescent d’être en détresse. L’outil leur permet également de définir des plages horaires pendant lesquelles leur enfant ne peut pas utiliser le chatbot.
Demande par courriel
Pour paramétrer cette nouvelle option, un utilisateur adulte de ChatGPT envoie une demande par courriel à son enfant. Si l’invitation est acceptée, l’adulte peut entreprendre des actions, comme décider si l’adolescent peut accéder à la fonction vocale de ChatGPT ou à la possibilité de générer des images.
Toute personne ayant des questions sur le suicide peut contacter la Prévention Suicide au numéro 0800 32 123. Besoin de parler à quelqu’un? Vous pouvez joindre Télé Accueil 24h/24 et 7j/7 au numéro de téléphone 107. Vous pouvez également chatter sur télé-accueil.be. Les jeunes peuvent aussi contacter 103 ecoute au numéro de téléphone 103 ou chatter sur https://www.103ecoute.be.