OpenAI crée un comité de sécurité et de sûreté
OpenAI, l'organisation de recherche en intelligence artificielle réputée, a formé un comité de sécurité et de sûreté composé du PDG Sam Altman et des membres du conseil d'administration Bret Taylor, Adam D'Angelo et Nicole Seligman. Ce comité supervisera l'entraînement d'un nouveau modèle d'IA phare destiné à succéder à GPT-4. La décision de créer ce comité intervient dans un contexte de surveillance accrue de l'engagement d'OpenAI en matière de sécurité de l'IA, suite à la démission des anciens dirigeants Jan Leike et Ilya Sutskever, qui se concentraient sur l'alignement de l'IA. Leike a critiqué publiquement l'entreprise pour avoir privilégié les "produits brillants" au détriment de la sécurité. L'objectif principal du comité de sécurité est d'évaluer et d'améliorer les processus et les mesures de sauvegarde actuels au cours des 90 prochains jours, avec l'intention de divulguer leurs recommandations et leurs mises à jour par la suite.
Principales conclusions
- OpenAI met en place un comité de sécurité et de sûreté, incluant le PDG Sam Altman, pour superviser les décisions cruciales.
- L'organisation a commencé à former un nouveau modèle d'IA destiné à remplacer GPT-4, visant des capacités avancées.
- Le nouveau comité d'OpenAI est une réponse à une surveillance accrue concernant la sécurité de l'IA et les risques potentiels.
- Les démissions de Jan Leike et Ilya Sutskever ont suscité des inquiétudes quant à l'engagement d'OpenAI envers l'alignement de l'IA.
- Leike critique OpenAI pour avoir privilégié les "produits brillants" au détriment de la sécurité et pour avoir sous-financé l'équipe de sécurité.
- L'objectif initial du comité de sécurité est d'évaluer et d'améliorer les processus de sécurité d'OpenAI sur une période de 90 jours.
- OpenAI prévoit d'annoncer des mises à jour sur les recommandations du comité après les avoir présentées à l'ensemble du conseil d'administration.