OpenAI lance un programme ‘bug-bounty’

© Getty Images
Els Bellens

L’entreprise à l’initiative de ChatGPT notamment lance un programme qui offrira jusqu’à 20.000 dollars aux chercheurs qui trouveront des erreurs et des bugs dans ses produits.

Les chercheurs en sécurité qui découvriront des failles dans les produits d’OpenAI, pourront lui en faire rapport via la plate-forme Bugcrowd en échange d’une récompense. Comme c’est généralement le cas avec les ‘bug bounties’, la récompense sera basée sur la gravité du bug découvert. Cela ira de quelque 200 dollars pour des fautes de sécurité n’ayant guère d’impact jusqu’à 20.000 dollars pour des failles exceptionnelles.

‘L’OpenAI Bug Bounty Program est pour nous une manière de reconnaître et de récompenser les précieuses informations des chercheurs en sécurité qui contribuent à accroître la valeur de notre technologie et de notre entreprise’, peut-on lire dans un communiqué de presse d’OpenAI.

Chatbot

Ces derniers mois, OpenAI s’est fait connaître auprès d’un large public en lançant ChatGPT, un algorithme linguistique qui permet notamment à l’utilisateur de poser des questions en langage naturel à un robot de recherche. Les erreurs dans le modèle proprement dit ne feront toutefois pas partie du programme de récompenses ‘bug-bounty’, selon OpenAI. L’entreprise demande donc que les bugs soient signalés sur un formulaire séparé, à moins qu’ils n’aient aussi un impact sur la sécurité.

Le fonctionnement du modèle linguistique est ‘testé’ par le public depuis son lancement, ce qui fait que les utilisateurs tentent entre autres de briser les barrières qui doivent empêcher le chatbot de se livrer à des déclarations blessantes ou politiquement sensibles. Depuis la rapide percée des modèles linguistiques, tels celui d’OpenAI, les chatbots font aussi l’objet de maintes critiques pour inventer des ‘faits’, voire exacerber des problèmes psychologiques chez les utilisateurs vulnérables. Ce type de test ne s’inscrit toutefois pas dans un programme ‘bug bounty’ traditionnel, selon OpenAI.

Lire plus de:

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire