L'OpenAI a transféré son responsable de la sécurité de l'IA, Aleksander Madry, à un nouveau poste plus large au sein de l'organisation. Madry, qui a créé l'équipe Preparedness de l'entreprise en 2023, a joué un rôle déterminant dans l'évaluation des modèles d'IA pour détecter les risques graves avant leur diffusion au public. Les responsabilités de l'équipe Preparedness seront désormais supervisées par Tejal Patwardhan, chercheur à l'OpenAI, selon une personne au fait des changements internes.
Le changement de rôle de Madry intervient alors que les chatbots de l'OpenAI, connus pour leur capacité à imiter la conversation humaine et à générer des contenus multimédias à partir d'invites textuelles, ont vu leurs capacités progresser, ce qui a suscité des inquiétudes en matière de sécurité chez certains observateurs.
Début 2024, OpenAI, qui bénéficie du soutien de Microsoft (NASDAQ:MSFT), a créé un comité de sûreté et de sécurité dirigé par des membres du conseil d'administration, dont le PDG Sam Altman. Cette initiative s'inscrivait dans le cadre des préparatifs pour le développement du modèle d'intelligence artificielle de nouvelle génération d'OpenAI.
À ce jour, ni OpenAI ni Madry n'ont commenté cette réaffectation.
Reuters a contribué à cet article.Cet article a été généré et traduit avec l'aide de l'IA et revu par un rédacteur. Pour plus d'informations, consultez nos T&C.