Le départ des chercheurs en sécurité AGI/ASI d'OpenAI soulève des préoccupations

Le départ des chercheurs en sécurité AGI/ASI d'OpenAI soulève des préoccupations

Par
Lorenzo Silva
3 min de lecture

OpenAI Fait Face à un Grand Exode de Chercheurs en Sécurité

OpenAI, la principale entreprise de recherche en intelligence artificielle, connaît un exode important de ses chercheurs en sécurité spécialisés dans l'intelligence générale artificielle (AGI) et l'intelligence artificielle superintelligente (ASI). Environ la moitié de l'équipe, y compris le co-fondateur John Schulman et le scientifique en chef Ilya Sutskever, a quitté l'entreprise, suscitant des inquiétudes sur la manière dont OpenAI gère les risques associés à l'IA superintelligente.

L'ancien chercheur en sécurité Daniel Kokotajlo a souligné que ces départs proviennent d'un manque croissant de confiance dans l'engagement d'OpenAI envers un développement responsable de l'IA. Les chercheurs estiment qu'OpenAI se rapproche du développement de l'AGI, mais qu'elle n'est pas suffisamment préparée à gérer les implications.

En réponse à ces démissions, OpenAI a dissous son équipe de "superalignement", ce qui a amplifié les préoccupations concernant l'engagement de l'entreprise envers la sécurité de l'IA. De plus, l'opposition d'OpenAI au projet de loi SB 1047 en Californie, qui vise à réglementer les risques liés à l'IA avancée, a été perçue comme un écart par rapport à ses engagements initiaux en matière de sécurité.

Cet exode a des implications plus larges pour l'industrie de l'IA, suscitant des débats sur l'équilibre entre innovation et sécurité. Alors que certains dirigeants de l'IA soutiennent que les risques de l'AGI peuvent être exagérés, les défenseurs de la sécurité sont alarmés par le changement apparent des priorités d'OpenAI.

Malgré leur départ d'OpenAI, de nombreux chercheurs partis restent engagés pour la sécurité de l'IA, certains rejoignant le concurrent Anthropic ou lançant de nouvelles entreprises. Ce développement soulève des questions critiques sur la direction future d'OpenAI et son rôle dans l'élaboration des normes de sécurité de l'IA, mettant en lumière le défi continu d'un avancement responsable de la technologie IA tout en atténuant les risques potentiels.

Points Clés

  • Environ la moitié des chercheurs en sécurité de l'AGI chez OpenAI ont démissionné en raison de préoccupations concernant la gestion des risques associés à l'IA superintelligente et la préparation de l'entreprise à y faire face.
  • L'opposition d'OpenAI à des projets de loi réglementaires visant à contrôler les risques liés à l'IA a suscité des critiques parmi les anciens employés, entraînant un changement visible dans la confiance et l'approche du développement responsable de l'IA.
  • Les départs ont conduit à la dissolution de l'équipe de "superalignement", ce qui pourrait avoir un impact sur la trajectoire de recherche de l'AGI et sur la réputation de l'industrie d'OpenAI.
  • Des anciens employés notables ont rejoint le concurrent Anthropic et d'autres projets indépendants, mettant en évidence un changement dans les initiatives de recherche sur la sécurité de l'IA et la migration des talents.

Analyse

Le départ de chercheurs clés en sécurité d'OpenAI signale un changement significatif dans la manière dont l'industrie aborde et gère les risques associés au développement de l'AGI et de l'ASI. Cet exode massif, dirigé par des figures influentes comme Ilya Sutskever, a probablement été motivé par des désaccords internes sur la préparation de l'entreprise et sa conformité réglementaire.

À court terme, OpenAI pourrait faire face à des revers potentiels dans sa progression de recherche sur l'AGI et à une réputation ternie dans l'industrie. Les conséquences à long terme pourraient entraîner une réorientation vers des gouvernances de l'IA plus strictes, ce qui pourrait profiter à des concurrents comme Anthropic en attirant des talents de haut niveau et en renforçant leurs protocoles de sécurité.

De plus, le départ a le potentiel d'influencer les organismes de réglementation, en particulier en Californie, afin d'intensifier les efforts pour superviser le développement de l'IA, influencés par la position controversée d'OpenAI contre le SB 1047.

Saviez-Vous Que ?

  • AGI/ASI :
    • AGI (Intelligence Générale Artificielle) : Une forme d'IA capable de comprendre, d'apprendre et d'appliquer des connaissances à diverses tâches, semblable à l'intelligence humaine.
    • ASI (Intelligence Artificielle Superintelligente) : Une manifestation avancée de l'AGI dépassant l'intelligence humaine dans tous les domaines, pouvant conduire à des conséquences imprévues en raison de ses capacités supérieures.
  • Équipe de "Superalignement" :
    • Une division spécialisée au sein d'OpenAI dédiée à garantir que les systèmes IA avancés, en particulier l'AGI et l'ASI, s'alignent sur des normes éthiques et les valeurs humaines, afin de prévenir des résultats négatifs.
  • Projet de Loi SB 1047 :
    • Une législation proposée en Californie visant à réglementer le développement et le déploiement de systèmes IA avancés pour atténuer les risques liés à l'IA superintelligente. Ce projet de loi vise à imposer des mesures de sécurité et des directives éthiques dans la recherche et les applications de l'IA.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres