OpenAI et Anthropic collaborent avec le gouvernement américain pour la sécurité de l'IA

OpenAI et Anthropic collaborent avec le gouvernement américain pour la sécurité de l'IA

Par
Lucia Fernandez
3 min de lecture

Mesures de sécurité en IA : OpenAI et Anthropic collaborent avec le gouvernement américain

OpenAI et Anthropic ont associé leurs efforts à l’Institut américain de la sécurité de l’IA, donnant au gouvernement américain un accès anticipé à leurs prochains modèles d’IA. Cette collaboration vise à garantir le déploiement sûr et responsable des technologies d’IA, signalant un changement significatif dans la régulation du développement de l’IA.

Ces accords reflètent une tendance plus large vers un contrôle accru des modèles d’IA, particulièrement aux États-Unis. L’Institut américain de la sécurité de l’IA, créé par un décret exécutif en 2023, aura un accès anticipé pour évaluer ces modèles d’IA avant et après leur publication. Cette approche proactive vise à traiter les risques potentiels tels que la désinformation, le contenu nuisible et les "hallucinations" de l’IA.

Jack Clark, co-fondateur et responsable des politiques chez Anthropic, a souligné l'importance de cette collaboration pour faire avancer le développement responsable de l’IA, notant que les tests rigoureux par l’Institut américain de la sécurité de l’IA aideront à identifier et atténuer les risques. Jason Kwon, directeur de la stratégie chez OpenAI, a exprimé l'espoir que ce partenariat puisse établir une norme mondiale pour la sécurité de l’IA et l’innovation responsable.

Ce développement souligne une tendance croissante de l'implication gouvernementale dans la sécurité de l’IA, contrastant avec les approches réglementaires plus indulgentes observées dans des régions comme l'Union européenne. À mesure que les technologies d’IA évoluent, de tels partenariats devraient devenir plus fréquents, les gouvernements jouant un rôle crucial dans la façon dont sera façonné l'avenir de la sécurité et de l'éthique de l'IA.

Points clés

  • OpenAI et Anthropic ont permis un accès préalable à leurs nouveaux modèles d’IA pour une évaluation de sécurité par le gouvernement américain.
  • Des mémorandums d'accord ont été signés avec l’Institut américain de la sécurité de l’IA, facilitant les évaluations et les retours continus sur les modèles.
  • Le projet de loi SB 1047 sur la sécurité de l’IA en Californie attend l’approbation du gouverneur Newsom, suscitant des inquiétudes dans l’industrie.
  • La Maison Blanche a réussi à obtenir des engagements volontaires de grandes entreprises technologiques pour prioriser la sécurité de l’IA.
  • L’Institut américain de la sécurité de l’IA considère ces accords comme une étape essentielle pour orienter des pratiques responsables en matière d’IA.

Analyse

La collaboration entre OpenAI, Anthropic et le gouvernement américain indique une évolution vers un contrôle réglementaire du développement de l’IA, pouvant influencer la gouvernance mondiale de l’IA et la dynamique de l'industrie. Les résultats à court terme pourraient inclure des protocoles de sécurité en IA renforcés et des éventuels retards dans les sorties de modèles, avec des implications à long terme sur les cadres réglementaires mondiaux en matière d’IA et sur les tendances du marché. Ce développement pourrait avoir un impact sur les actions technologiques et les modèles d'investissement dans l’IA.

Le saviez-vous ?

  • Mémorandums d'Accord (MOUs) :
    • Explication : Les MOUs représentent des accords formels qui décrivent les termes et détails de la collaboration entre les parties. Dans ce contexte, les MOUs d'OpenAI et d'Anthropic avec l’Institut américain de la sécurité de l’IA permettent des évaluations avant et après la publication de leurs modèles d’IA par le gouvernement, favorisant des mesures de sécurité et l’atténuation des risques.
  • Le projet de loi SB 1047 sur la sécurité de l’IA en Californie :
    • Explication : Cette proposition législative impose des mesures de sécurité supplémentaires pour les entreprises d’IA lors de l’entraînement des modèles, reflétant des préoccupations croissantes concernant les risques de l’IA et la nécessité d'un déploiement éthique.
  • Engagements volontaires en matière de sécurité de l’IA par de grandes entreprises technologiques :
    • Explication : La Maison Blanche a obtenu des engagements volontaires de sécurité de grandes entreprises d’IA, mettant en avant les efforts collaboratifs pour aborder les défis éthiques des avancées de l’IA. Cette approche volontaire vise à favoriser l’innovation tout en garantissant un déploiement responsable de l’IA.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres