OpenAI établit un Comité de sécurité et de sûreté pour les décisions critiques

OpenAI établit un Comité de sécurité et de sûreté pour les décisions critiques

Par
Elena Moretti
2 min de lecture

OpenAI Établit un Comité sur la Sécurité et la Sûreté pour Répondre aux Critiques

OpenAI a récemment établi un Comité sur la Sécurité et la Sûreté, dirigé par les directeurs Bret Taylor, Adam D'Angelo, Nicole Seligman et le PDG Sam Altman, dans le but de développer des recommandations pour les décisions de sécurité critiques au cours des 90 prochains jours. Cette initiative fait suite aux critiques formulées à l'encontre de l'organisation concernant de prétendues lacunes en matière de sécurité. De plus, OpenAI a entrepris la formation de son prochain modèle phare, visant des progrès substantiels vers la réalisation de l'Intelligence Artificielle Générale (IAG). Les recommandations du comité seront rendues publiques afin de répondre aux exigences de sécurité. Il est à noter que le Comité sur la Sécurité et la Sûreté comprend un mélange d'experts d'OpenAI et de spécialistes de la sécurité externes.

Principaux Enseignements

  • OpenAI a formé un nouveau Comité sur la Sécurité et la Sûreté pour répondre aux critiques récentes concernant ses pratiques de sécurité.
  • Dirigé par les directeurs Bret Taylor, Adam D'Angelo, Nicole Seligman et le PDG Sam Altman, le comité est chargé de développer des recommandations de sécurité essentielles.
  • OpenAI a lancé la formation de son prochain modèle phare, visant des progrès vers l'IAG.
  • Le Comité sur la Sécurité et la Sûreté comprend à la fois des initiés d'OpenAI et des experts externes, comme l'ancien Commissaire à la Cybersécurité Rob Joyce.

Analyse

La création du Comité sur la Sécurité et la Sûreté par OpenAI représente une réponse stratégique aux récentes critiques concernant ses pratiques de sécurité. Les recommandations du comité auront probablement des implications importantes pour les organisations et les particuliers impliqués dans les projets d'OpenAI, compte tenu de l'engagement de l'organisation à les rendre publiques. Cette initiative fait suite à la dissolution de l'équipe d'alignement de l'IA super-avancée d'OpenAI et vise à renforcer les capacités sur la voie de l'IAG.

Saviez-Vous Que ?

  • IAG (Intelligence Artificielle Générale) : L'Intelligence Artificielle Générale implique le développement d'une IA aux capacités égales ou supérieures à celles des humains dans divers domaines. C'est un objectif recherché dans la recherche en IA.
  • Comité sur la Sécurité et la Sûreté : Ce comité, composé d'experts internes et externes, est chargé de fournir des recommandations sur les décisions de sécurité cruciales liées aux projets d'OpenAI.
  • Modèle Phare : Dans le contexte de l'apprentissage machine et de l'IA, un modèle phare désigne généralement le modèle le plus avancé et le plus performant d'une organisation. Les travaux en cours d'OpenAI sur son prochain modèle phare visent à apporter des améliorations substantielles vers la réalisation de l'IAG.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres