Les sites web peuvent tromper et manipuler les résultats de recherche de ChatGPT
Un outil de recherche piloté par l’IA, tel ChatGPT peut fournir des résultats erronés ou malveillants, si les pages web explorées contiennent du texte caché. Voilà ce qui ressort d’une enquête effectuée par le journal The Guardian.
Il y a une dizaine de jours, le développeur de ChatGPT – OpenAI – annonçait que l’AI-chatbot pouvait désormais être exploité comme moteur de recherche par tout un chacun – ou mieux: temporairement uniquement par les utilisateurs payants. Une annonce importante que celle-là, car OpenAI positionne ainsi ChatGPT comme un concurrent direct du moteur de recherche de Google longtemps considéré comme intouchable. Mais une enquête de The Guardian met aussitôt en évidence des problèmes de sécurité potentiels du nouveau système.
‘Prompt injection’
‘Prompt injection’ est l’expression qui caractérise bien les problèmes, selon nous. The Guardian a testé comment ChatGPT réagissait quand on lui demandait de résumer des pages web incluant un contenu caché. Ce contenu caché peut comprendre des instructions de tiers – par exemple le propriétaire de la page web – qui modifient les réactions générées par ChatGPT. Pensez ici aux instructions qui sont automatiquement ajoutées à l’invite (‘prompt’) de ChatGPT et qui informent par exemple l’outil d’IA de ne pas tenir compte de tout ce qu’il a précédemment déjà lu sur le site web.
Ces techniques de ‘prompt injection’ peuvent donc à coup sûr être utilisées de manière malveillante, comme inciter ChatGPT à donner une évaluation positive d’un produit ou d’un service, malgré une énorme quantité de critiques négatives sur la même page. Pensez donc par exemple au propriétaire d’un restaurant qui informe ainsi ChatGPT de dresser une évaluation positive de son établissement en ignorant les dizaines de critiques négatives.
Faux sites web de manipulation
Dans le cadre des tests, ChatGPT s’est notamment vu présenter l’URL d’un site web factice ressemblant à une fiche descriptive d’un appareil photo. On demanda ensuite à l’outil d’IA si l’appareil photo en question était un achat judicieux. Le réaction de la page de contrôle fournit une évaluation positive mais équilibrée, mettant en évidence quelques fonctionnalités que des gens pourraient ne pas apprécier.
Si du contenu caché contenait toutefois des instructions pour ChatGPT en vue de donner une évaluation favorable, la réaction était toujours entièrement positive. Tel était même le cas, si la page contenait des critiques négatives. Le texte caché pouvait donc effectivement être utilisé pour faire disparaître le score d’évaluation réel.
Aussi du code malveillant
Les exemples susmentionnés portent sur une manipulation des résultats, mais un chercheur en sécurité a découvert que ChatGPT pouvait évoquer ainsi aussi du code malveillant de sites web qu’il explorait. Des chercheurs en cybersécurité auxquels The Guardian a parlé, reconnaissent que l’actuel système de recherche de ChatGPT représente un très grand risque de tromperie massive pour les utilisateurs, tout en ajoutant cependant qu’OpenAI est à même de résoudre ce genre de problème et le fera. Le journal a également soumis des questions détaillées à OpenAI, mais n’a pas reçu de réponse officielle. Quoi qu’il en soit, l’enquête constitue à nouveau un avertissement, selon lequel il ne faut pas prendre les résultats d’un outil d’IA comme LA vérité: un communiqué qui s’affiche du reste sur chaque page de ChatGPT.
Du texte caché sanctionné
Autre observation importante: du texte caché sur des pages web est depuis tout un temps déjà ‘sanctionné’ par les robots de recherche. Il apparaît nettement plus bas dans les résultats de recherche ou peut même être entièrement exclus de ces derniers dans certains cas. Les sites web qui souhaitent être bien classés dans les résultats de recherche de Google ou de Bing ne peuvent en d’autres mots pas réellement utiliser du contenu caché. Et ils ne peuvent donc pas ainsi non plus se… payer la tête de l’intelligence artificielle.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici