Le régulateur européen de la confidentialité: ‘ChatGPT commet encore trop d’erreurs’
Malgré les efforts d’OpenAI, ChatGPT continue de commettre trop d’erreurs pour se conformer à la réglementation européenne en matière de données. Voilà ce que prétend le régulateur européen de la confidentialité.
Dans un rapport consulté par l’agence de presse Reuters, le European Data Protection Board, qui regroupe les autorités nationales de protection des données, affirme qu’OpenAI a pris des mesures pour se conformer aux règles européennes, notamment pour limiter les résultats incorrects. Mais cela ne suffit pas.
L’année dernière, une ‘task force’ s’est constituée autour de ChatGPT. La raison en était les inquiétudes italiennes concernant le populaire chatbot d’IA. Par la suite, plusieurs états membres européens ont lancé leurs propres enquêtes, qui ne sont pas encore toutes terminées, mais le consensus provisoire est que ChatGPT n’est pas encore assez performant eu égard aux normes européennes.
‘En raison de la nature problématique du système, l’approche de la formation actuelle génère un modèle qui produit également des résultats biaisés ou inventés’, indique le rapport. Le principal problème ici est que ces réponses sont présentées comme correctes et sont souvent également interprétées comme factuellement correctes. De plus, ChatGPT fournit régulièrement des informations erronées sur les individus, ce qui le rend d’autant plus sensible pour les autorités en charge des données.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici