L’agence américaine de protection des consommateurs, la FTC, a indiqué jeudi avoir ouvert une enquête sur les chatbots utilisés comme des compagnons d’intelligence artificielle (IA) générative, tels ChatGPT ou Grok, après la plainte récente contre OpenAI liée au suicide d’un adolescent californien.
La FTC a transmis une demande d’information à sept sociétés proposant des chatbots accessibles au grand public, à savoir OpenAI, Alphabet, Character.AI, Instagram, Meta, Snap et xAI. Toutes proposent leur propre version d’un assistant IA généraliste.
La requête concerne la façon dont ces entreprises “mesurent, testent et surveillent les potentiels effets négatifs de cette technologie sur les enfants et les adolescents”, a précisé l’agence dans un communiqué. Fin août, les parents d’Adam Raine, adolescent qui s’est suicidé en avril à l’âge de 16 ans, ont porté plainte contre OpenAI, accusant ChatGPT d’avoir donné à leur fils des instructions détaillées pour passer à l’acte. Dans la foulée du dépôt de la plainte, OpenAI a annoncé travailler à des actions correctives.
Le groupe de San Francisco dit notamment avoir constaté que lorsque l’échange avec ChatGPT se prolonge, le chatbot ne suggère plus systématiquement de contacter un service d’aide psychologique si l’internaute évoque des pensées suicidaires. La FTC dit s’intéresser “en particulier à l’impact qu’ont ces chatbots sur les enfants et sur les actions prises par les entreprises” pour les protéger, “limiter l’accès” des mineurs à ces compagnons IA.
L’agence veut également s’assurer qu’elles respectent le Children’s Online Privacy Protection Art, une loi votée en 1998 par le Congrès qui encadre le recueil et l’utilisation des données personnelles d’enfants de moins de 13 ans sur internet. Un nombre croissant de jeunes internautes utilise les assistants IA de nouvelle génération comme compagnon virtuel, y cherchant parfois un soutien psychologique, même si ces chatbots n’ont pas été conçus à cette fin.