Le Royaume-Uni met en place un Institut de sécurité de l'IA à San Francisco

Le Royaume-Uni met en place un Institut de sécurité de l'IA à San Francisco

Par
Elena Rossi
1 min de lecture

L'Institut de sécurité de l'IA du Royaume-Uni s'étend à San Francisco, renforçant les efforts mondiaux pour la sécurité de l'IA

L'Institut de sécurité de l'IA, établi au Royaume-Uni le 2 novembre, prévoit d'ouvrir un deuxième site à San Francisco, dans le but d'évaluer et de traiter les risques liés à l'IA. Cette décision stratégique rapproche l'Institut de l'épicentre du développement de l'IA, favorisant une collaboration accrue avec les entreprises d'IA et les régulateurs locaux.

Principaux points à retenir

  • L'Institut de sécurité de l'IA du Royaume-Uni s'étend à San Francisco pour renforcer la collaboration internationale et améliorer les normes de sécurité de l'IA.
  • L'outil Inspect de l'Institut, destiné à tester la sécurité des modèles d'IA fondamentaux, marque la première phase de leurs efforts.
  • Les plans à long terme incluent le développement d'une législation sur l'IA au Royaume-Uni après une compréhension approfondie des risques et de l'impact sociétal de l'IA.

Analyse

L'expansion de l'Institut à San Francisco le place à l'avant-garde des progrès technologiques, permettant de mieux évaluer la sécurité des modèles d'IA. Ce déménagement devrait bénéficier aux entreprises d'IA grâce à des normes de sécurité améliorées et favoriser un développement responsable. De plus, il pourrait influencer le paysage mondial de l'IA en inspirant des mesures de sécurité similaires dans d'autres pays.

Le Saviez-vous?

  • Institut de sécurité de l'IA : une organisation de recherche axée sur l'évaluation et le traitement des risques associés aux technologies de l'IA afin d'assurer un développement sûr et responsable.
  • Modèles d'IA fondamentaux : servent de base aux applications d'IA avancées ou spécialisées et nécessitent des évaluations de sécurité et de fiabilité.
  • Inspect : un outil développé par l'Institut de sécurité de l'IA pour tester la sécurité des modèles d'IA fondamentaux afin de promouvoir la sécurité de l'IA dans toute la société.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres