OpenAI présente un plan de sécurité pour l’IA
OpenAI affirme disposer d’un cadre en vue d’atténuer les dangers potentiels de son système d’IA.
Le Preparedness Framework, comme le plan s’appelle, a pour but de décrire, suivre, évaluer et prévoir les processus, afin de se protéger contre les ‘risques catastrophiques’ causés par une IA toujours plus puissante et ce, au niveau technique.
Il y aura entre autres une carte d’évaluation qui labellisera notamment les systèmes liés à la cybersécurité et à l’autonomie, en vue d’estimer l’ampleur des risques. Le conseil d’administration pourra également revenir sur les décisions concernant l’IA, s’il le juge nécessaire.
L’ensemble demeure encore assez vague et théorique, mais OpenAI se doit de préciser qu’elle s’occupe bien de sécurité. Depuis l’arrivée de ChatGPT, il y a eu beaucoup de spéculations sur les problèmes que l’IA pourrait générer. Des exemples émergent aussi parfois de la manière dont il est possible de ‘pirater’ un chatbot en lui posant certaines questions et en lui faisant effectuer d’autres tâches ou générer certaines réponses.
Dans le même temps, l’année dernière, des appels ont également été lancés pour qu’OpenAI suspende ses développements, même si ces appels émanaient également d’acteurs à la traîne, comme Elon Musk. Avec de telles initiatives en matière de sécurité, OpenAI veut probablement indiquer clairement que la sécurité et les risques possibles sont effectivement étudiés et éventuellement combattus.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici