OpenAI recrute un nouveau responsable de la préparation pour anticiper et atténuer les préjudices potentiels de ses modèles d’IA. Ce poste intervient alors que des inquiétudes pèsent sur l’impact de ChatGPT sur la santé mentale, y compris des poursuites judiciaires. Le PDG Sam Altman a qualifié ce poste de critique et stressant.
OpenAI, un organisme de recherche leader en IA, a annoncé qu’il recherchait un candidat pour le poste de responsable de la préparation. Ce poste se concentrera sur la prédiction des risques associés aux modèles d’IA avancés, y compris les manières dont ils pourraient être détournés, afin de façonner la stratégie globale de sécurité de l’entreprise.
Cette embauche fait suite à une année difficile pour OpenAI, marquée par des accusations concernant les effets de ChatGPT sur la santé mentale des utilisateurs. Plusieurs poursuites pour mort illégitime ont mis en lumière ces problèmes. Dans un post sur X, le PDG Sam Altman a noté que « l’impact potentiel des modèles sur la santé mentale est quelque chose dont nous avons vu un aperçu en 2025 », ainsi que d’autres défis majeurs liés aux capacités de l’IA. Il a souligné que le poste de responsable de la préparation est « un rôle critique à un moment important ».
Selon l’offre d’emploi, le nouvel embauché percevra 555 000 dollars par an, plus des actions, et dirigera la stratégie technique et l’exécution du cadre de préparation d’OpenAI. Ce cadre décrit la méthode de l’entreprise pour surveiller et se préparer aux capacités émergentes susceptibles de causer des préjudices graves. Altman a averti qu’il s’agit « d’un travail stressant et vous sauterez dans le grand bain presque immédiatement ».
Le poste a connu du turnover ces dernières années. En juillet 2024, l’ancien responsable de la préparation Aleksander Madry a été réaffecté, les dirigeants Joaquin Quinonero Candela et Lilian Weng prenant temporairement la relève. Weng est partie peu après, et en juillet 2025, Quinonero Candela a passé à la tête des efforts de recrutement d’OpenAI.
Cette initiative souligne les efforts continus d’OpenAI pour renforcer ses mesures de sécurité alors que les technologies d’IA progressent rapidement.