Un outil d’IA utilisé dans des hôpitaux, aurait des hallucinations

© Getty Images
Els Bellens

Un outil d’IA de transcription médicale largement utilisé aux Etats-Unis semble parfois inventer des passages entiers de texte. Le fabricant déclare qu’il prépare une solution.

Il s’agit d’un outil de la société Nabla. L’outil est utilisé par environ 30.000 médecins et 40 groupes médicaux aux Etats-Unis pour enregistrer et résumer les visites chez le médecin. En tout, l’outil aurait déjà résumé quelque 7 millions d’entretiens médicaux. Le problème, selon ABC News sur la base d’une étude, est que Nabla est basé sur le modèle d’IA Whisper d’OpenAI. Or ce modèle se permet parfois d’halluciner. Cela signifie qu’il peut parfois imaginer des passages de texte qui n’ont jamais été prononcés par le médecin ou le patient.

Whisper

Un groupe de chercheurs de l’Université Cornell et de l’Université de Washington, entre autres, a indiqué dans une étude que Whisper hallucine dans 1 pour cent des transcriptions. Le modèle invente en effet des phrases et place parfois des émotions agressives ou des textes absurdes là où règne un long silence dans les enregistrements réels.

De l’étude, il apparaît que le modèle invente parfois des plaintes médicales ou insère des phrases dignes d’une vidéo YouTube, telles que ‘merci de votre attention’. OpenAI répond aux médias américains en déclarant que le modèle Whisper ne doit pas être utilisé dans des environnements importants ou sensibles. Nabla, pour sa part, affirme préparer une solution au problème.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire