NIST Collabore avec Anthropic et OpenAI pour Améliorer la Recherche en Sécurité de l'IA
L'Institut National des Standards et de la Technologie des États-Unis (NIST) a établi des partenariats avec Anthropic et OpenAI pour faire avancer la recherche et l'évaluation de la sécurité de l'IA. Ces protocoles d'accord (MOUs) donnent à l'Institut de Sécurité de l'IA des États-Unis un accès anticipé aux nouveaux modèles d'IA de ces deux entreprises, avant et après leur lancement. La collaboration vise à évaluer ensemble les capacités de sécurité et les risques associés à ces modèles, et à développer des méthodes pour atténuer les risques potentiels. Elizabeth Kelly, Directrice de l'Institut de Sécurité de l'IA des États-Unis, a souligné l'importance de ces partenariats pour faire progresser la technologie de l'IA de manière responsable. L'Institut prévoit également de donner son avis à Anthropic et OpenAI pour améliorer la sécurité de leurs modèles et travaillera en étroite collaboration avec l'Institut de Sécurité de l'IA du Royaume-Uni dans ces efforts.
Ces collaborations s'inscrivent dans l'histoire du NIST à promouvoir la technologie et les normes, soutenant l'ordre exécutif sur l'IA de l'administration Biden-Harris et les engagements volontaires des principales entreprises d'IA. Les tendances récentes de l'industrie montrent un intérêt croissant pour Anthropic, notamment en ce qui concerne les préoccupations de sécurité. Notamment, il y a eu un mouvement significatif de chercheurs clés et d'un cofondateur d'OpenAI vers Anthropic, ce qui reflète une différence d'approche en matière de sécurité de l'IA entre les deux entités.
Anthropic plaide pour un projet de loi en Californie visant à aborder les risques des modèles d'IA de pointe, tandis qu'OpenAI soutient une réglementation au niveau national. Le PDG d'OpenAI, Sam Altman, a exprimé son soutien à la collaboration avec le NIST, indiquant un alignement stratégique avec les efforts de réglementation fédérale.
Points Clés
- Le NIST collabore avec Anthropic et OpenAI sur la recherche en sécurité de l'IA.
- Accès anticipé à de nouveaux modèles d'IA accordé avant et après leur lancement.
- Efforts conjoints pour évaluer et atténuer les risques de sécurité de l'IA.
- L'Institut de Sécurité de l'IA des États-Unis fournira des retours pour améliorer les modèles.
- Aligne avec l'ordre exécutif sur l'IA de l'administration Biden-Harris.
Analyse
La collaboration entre le NIST, Anthropic et OpenAI reflète un changement stratégique vers la sécurité de l'IA, influencé par les tendances de l'industrie et l'alignement réglementaire. Ce partenariat pourrait renforcer la crédibilité des deux entreprises dans le domaine de la sécurité de l'IA, et potentiellement influencer leur position sur le marché et la confiance des investisseurs. De plus, cela signifie une tendance plus large dans l'industrie vers des mesures de sécurité proactives qui pourraient influencer les futurs cadres réglementaires et les normes internationales en matière d'IA. À court terme, cette alliance renforce les capacités de l'Institut de Sécurité de l'IA des États-Unis en matière d'évaluation des risques de l'IA, tandis qu'à long terme, elle pourrait redéfinir les modèles de gouvernance globale de l'IA, impacting les politiques technologiques et les écosystèmes d'innovation dans le monde entier.
Le Saviez-Vous ?
- Protocoles d'Accord (MOUs) :
- Explication : Les MOUs sont des accords formels entre deux ou plusieurs parties qui décrivent les termes et détails de leur collaboration. Dans le contexte du partenariat du NIST avec Anthropic et OpenAI, ces MOUs spécifient la compréhension mutuelle et les engagements concernant l'accès à de nouveaux modèles d'IA, les évaluations de sécurité conjointes et le développement de stratégies d'atténuation des risques.
- Institut de Sécurité de l'IA des États-Unis :
- Explication : Cette organisation spécialisée se concentre sur la recherche, l'évaluation et l'amélioration de la sécurité de l'IA. Son rôle dans la collaboration avec le NIST, Anthropic et OpenAI implique un accès anticipé à de nouveaux modèles d'IA, la fourniture de retours pour des améliorations de sécurité, et la collaboration avec d'autres instituts de sécurité de l'IA.
- Approches d'Anthropic et d'OpenAI en Matière de Sécurité de l'IA :
- Explication : Anthropic et OpenAI représentent des approches distinctes de la sécurité de l'IA dans l'industrie, avec des différences dans leurs stratégies pour traiter et atténuer les risques de sécurité de l'IA.