Faites-vous confiance à votre assistant d’IA? Quasiment la moitié des réponses d’actualité semblent problématiques

© Getty Images
Kristof Van der Stadt
Kristof Van der Stadt Rédacteur en chef chez Data News

Les assistants d’IA, qui remplacent le moteur de recherche traditionnel chez des millions d’utilisateurs, affichent des carences structurelles dans le domaine de l’actualité. Voilà ce qui ressort d’une enquête européenne à grande échelle.

Faire aveuglément confiance aux résultats émanant des AI-chatbots, ce n’est encore et toujours pas vraiment une bonne idée, même si les réponses générées semblent être correctes et fiables. D’une enquête internationale à grande échelle effectuée dans 18 pays, coordonnée par l’European Broadcasting Union (EBU) et dirigée par la BBC, il ressort que 45 pour cent des réponses d’actualité contiennent des erreurs significatives. Les chaînes publiques belges que sont la RTBF et la VRT ont également participé à cette étude, qui passait à la loupe les performances de quatre outils d’IA éminents.

Gemini, bon dernier de la classe

Cette enquête est la plus importante en son genre. Des journalistes professionnels ont analysé plus de 3.000 réponses de ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) et Perplexity dans 14 langues différentes. Les réponses ont été jugées selon des critères cruciaux tels que la précision, la mention correcte des sources, la distinction entre le fait et l’opinion, et la présence de l’indispensable contexte.

Les résultats sont décevants. Dans pas moins de 45 pour cent de toutes les réponses analysées, au moins un problème significatif a été observé. La mention des sources semble être un sérieux point faible à cet égard, puisque 31 pour cent des réponses se caractérisaient par un important problème d’attribution, comme des sources manquantes, trompeuses, voire carrément incorrectes. En outre, 20 pour cent des réponses contenaient de graves imprécisions, dont des détails hallucinants et des informations désuètes. Ce qui ne manque pas d’étonner, c’est que Gemini s’avérait nettement plus médiocre que la concurrence. Avec cet outil de Google, pas moins de 76 pour cent des réponses affichaient des manquement significatifs, un résultat dû en grande partie à une mention des sources très insuffisante.

L’IA en plein essor chez les consommateurs d’actualité en ligne

L’EBU souligne que ces problèmes ont de graves conséquences, surtout à présent que les assistants d’IA sont de plus en plus utilisés pour la collecte d’informations. Selon le Digital News Report 2025 du Reuters Institute, 7 pour cent des consommateurs d’informations en ligne utilisent l’IA pour s’informer, un pourcentage qui atteint même 15 pour cent chez les jeunes de moins de 25 ans.

‘Cette enquête démontre que les défaillances de l’IA ne sont pas des incidents isolés’, affirme Jean Philip De Tender, EBU Media Director et Deputy Director General. ‘Elles sont systémiques, transfrontalières et multilingues, et nous pensons que cela met en péril la confiance du public. Lorsque les gens ne savent pas à qui/quoi faire confiance, ils finissent par ne plus faire confiance en rien, ce qui peut dissuader la participation démocratique’, conclut De Tender.

Appel à la régulation et au contrôle

En réaction aux résultats de leur enquête, les chercheurs publient un News Integrity in AI Assistants Toolkit, destiné à développer des solutions aux problèmes découverts. Parallèlement, l’EBU et ses membres exhortent l’UE et les régulateurs nationaux à appliquer strictement la législation existante sur l’intégrité de l’information, les services numériques et le pluralisme des médias. Compte tenu de l’évolution rapide de l’IA, les chaînes tiennent à souligner qu’un contrôle continu et indépendant de ces assistants s’avère essentiel.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Expertise Partenaire