OpenAI recherche un nouveau Head of Preparedness. Ce poste est axé sur la sécurisation des systèmes de l’entreprise et l’identification des risques potentiels d’utilisation abusive des modèles d’IA.
Dans un article publié sur X, Sam Altman, CEO d’OpenAI, insiste sur le fait que le développement rapide de modèles d’IA pose de ‘réels défis’. Et d’évoquer des conséquences potentielles sur la santé mentale, sans toutefois fournir de détails supplémentaires sur des cas ou des produits spécifiques.
Le Head of Preparedness est chargé de la stratégie technique et de la mise en œuvre du ‘preparedness framework’ d’OpenAI, un cadre que l’entreprise utilise pour surveiller les ‘possibilités transfrontalières’ susceptibles de créer de nouveaux risques de dommages graves.
Ce poste n’est pas nouveau: jusqu’en juillet 2024, il était occupé par Aleksander Madry, directeur du Center for Deployable Machine Learning du MIT. Après son départ, Joaquin Quinonero Candela et Lilian Weng ont pris la direction du ‘preparedness-team’. Cependant, tous deux ont rapidement renoncé à leur fonction. Weng quitta OpenAI en novembre 2024, tandis que Candela échangea son poste en avril 2025 pour un stage de programmeur. Il est actuellement responsable du recrutement au sein de l’entreprise.
En collaboration avec Dutch IT Channel