OpenAI fait face à des démissions d'employés en raison de préoccupations en matière de gouvernance

OpenAI fait face à des démissions d'employés en raison de préoccupations en matière de gouvernance

Par
Elena Delgado
1 min de lecture

OpenAI fait face à des discordes internes alors que des employés clés démissionnent

Deux employés clés, Daniel Kokotajlo et William Saunders, ont récemment quitté leurs postes chez OpenAI, l'entreprise influente responsable de ChatGPT. Kokotajlo, spécialisé dans la gouvernance et ayant servi de testeur adversaire pour GPT-4, est parti en raison de préoccupations concernant la conduite responsable d'OpenAI vis-à-vis de l'AGI. D'un autre côté, Saunders, membre de l'équipe Alignment depuis trois ans, a également choisi de démissionner. Leurs départs interviennent dans le sillage de la démission de deux cadres supérieurs et du licenciement de deux chercheurs au cours du dernier mois. Malgré ces changements de personnel importants, OpenAI est resté silencieux sur la question.

Points clés

  • Deux employés cruciaux d'OpenAI, spécialisés dans la sécurité et la gouvernance, ont démissionné de leurs rôles au sein de l'entreprise supervisant ChatGPT.
  • Daniel Kokotajlo, qui a contribué à l'équipe de gouvernance, a quitté en raison d'inquiétudes concernant le comportement responsable d'OpenAI vis-à-vis de l'AGI.
  • William Saunders, membre de l'équipe Alignment depuis 2021, a également choisi de démissionner après trois ans chez OpenAI.
  • Les démissions de Kokotajlo et Saunders coïncident avec le départ d'autres membres de l'équipe Superalignment.
  • L'équipe Superalignment se concentre sur la création de mesures de protection pour empêcher l'intelligence générale artificielle (AGI) de devenir ingérable.
  • OpenAI a choisi de ne pas répondre aux demandes de commentaires concernant ces démissions.

Analyse

Le départ de deux employés responsables de la sécurité et de la gouvernance chez OpenAI, accompagné d'autres récentes démissions, signe un désaccord interne concernant le développement éthique de l'intelligence générale artificielle (AGI). Ce désaccord pourrait potentiellement entraver, voire arrêter, les progrès d'OpenAI dans le domaine de l'AGI, nuisant à sa crédibilité et à la confiance des investisseurs. De plus, les préoccupations soulevées par les employés partants pourraient déclencher un examen minutieux de la part des régulateurs, influençant non seulement OpenAI mais l'ensemble de l'industrie de l'IA. La perte de ce personnel essentiel pourrait saper l'efficacité de l'équipe Superalignment d'OpenAI, cruciale pour établir des garde-fous contre le fait que l'AGI agisse contre les intérêts de l'humanité. L'avenir d'OpenAI et du secteur de l'IA dépend de la manière dont ces défis seront gérés.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres