La Californie envisage le SB 1047 pour réguler l'IA

La Californie envisage le SB 1047 pour réguler l'IA

Par
Luisa Rodriguez
4 min de lecture

Le SB 1047 de Californie vise à réguler les modèles d'IA coûteux

La Californie envisage un projet de loi, le SB 1047, visant à prévenir les systèmes d'IA de causer des dommages importants, comme la création d'armes entraînant des pertes massives ou l'orchestration de cyberattaques causant plus de 500 millions de dollars de dommages. Ce projet de loi cible les grands modèles d'IA, en particulier ceux coûtant au moins 100 millions de dollars à développer et utilisant une grande puissance de calcul pendant l'entraînement. Des entreprises comme OpenAI, Google et Microsoft pourraient bientôt être soumises à ces réglementations.

Le SB 1047 exige que les développeurs mettent en place des protocoles de sécurité, y compris un bouton d'arrêt d'urgence et des audits annuels par des tiers. Une nouvelle agence, la Division des Modèles de Précision (FMD), superviserait la conformité, avec un conseil composé de représentants de l'industrie, de la communauté open source et du milieu académique. Les développeurs doivent également soumettre des évaluations annuelles des risques et signaler tout incident de sécurité dans les 72 heures.

Le projet de loi a suscité une controverse, avec des géants de la Silicon Valley et des startups s'y opposant, affirmant qu'il pourrait freiner l'innovation et imposer des seuils arbitraires. Cependant, ses partisans, y compris les chercheurs en IA Geoffrey Hinton et Yoshua Bengio, soutiennent qu'il est nécessaire pour prévenir de futurs désastres. Le projet de loi devrait être adopté et sera envoyé au gouverneur Gavin Newsom pour approbation finale, avec de possibles défis juridiques si cela devient une loi.

D'un autre côté, des géants technologiques comme OpenAI, Google et Microsoft, ainsi que de nombreuses startups, se sont fortement opposés. Ces entreprises soutiennent que le projet de loi pourrait freiner l'innovation en imposant des seuils arbitraires et des charges réglementaires excessives, en particulier pour les plus petites entreprises. Ils expriment également des préoccupations sur le fait que le projet de loi pourrait entrer en conflit avec d'éventuelles réglementations fédérales, créant un patchwork d’exigences de conformité qui pourrait entraver la croissance de l'industrie.

Anthropic, une entreprise d'IA notable, a proposé des amendements au projet de loi, suggérant que les réglementations devraient se concentrer sur la "dissuasion basée sur les résultats" plutôt que sur des mesures préventives. Ils soutiennent que les entreprises ne devraient être tenues responsables que si des dommages surviennent, plutôt que d'être soumises à des contrôles stricts dès le départ. Anthropic et d'autres leaders technologiques préviennent que le projet de loi pourrait affaiblir les efforts de sécurité de l'IA en éloignant les talents et l'innovation de la Californie.

Le débat autour du SB 1047 met en lumière la tension entre favoriser l'innovation et garantir la sécurité. Bien que le projet de loi soit susceptible d'être adopté et pourrait établir un précédent pour de futures réglementations sur l'IA, sa mise en œuvre pourrait entraîner des défis juridiques et d'autres discussions sur la meilleure approche pour réguler cette technologie en évolution rapide.

Points Clés

  • Le SB 1047 de Californie vise à prévenir les catastrophes causées par l'IA, comme les pertes massives ou les cyberattaques de 500 millions de dollars.
  • Le projet de loi cible les grands modèles d'IA coûtant plus de 100 millions de dollars et utilisant 10^26 FLOPS pendant l'entraînement.
  • Les développeurs doivent mettre en place des protocoles de sécurité, y compris un bouton d'arrêt d'urgence et des audits annuels par des tiers.
  • Une nouvelle agence californienne, la Division des Modèles de Précision (FMD), supervisera la conformité et la certification.
  • La Silicon Valley s'oppose au SB 1047, de peur qu'il ne freine l'innovation et ne surcharge les startups avec des réglementations strictes.

Analyse

Le SB 1047 de Californie, ciblant les modèles d'IA coûteux et puissants, vise à atténuer les risques comme les pertes massives et les cyberattaques. Les causes directes comprennent le potentiel d'utilisation abusive de l'IA et les coûts de développement élevés de modèles avancés. Les impacts à court terme incluent les coûts de conformité réglementaire pour des entreprises comme OpenAI et Google, ce qui pourrait freiner l'innovation. À long terme, le projet de loi pourrait établir un paysage de l'IA plus sûr, bien que des défis juridiques soient probables. L'établissement de la Division des Modèles de Précision (FMD) influencera les normes et la surveillance de l'industrie, affectant à la fois les géants de la technologie et les startups.

Le Saviez-Vous ?

  • Division des Modèles de Précision (FMD) : La FMD est une nouvelle agence proposée en Californie qui superviserait la conformité au SB 1047, en se concentrant spécifiquement sur les grands modèles d'IA coûteux et nécessitant beaucoup de calcul pour être développés. Elle serait responsable de s'assurer que les développeurs mettent en place des protocoles de sécurité et respectent les audits et évaluations des risques annuels par des tiers. Le conseil de la FMD inclurait des représentants de l'industrie, de la communauté open source et du milieu académique, visant à garantir une supervision diversifiée et équilibrée.
  • Bouton d'Arrêt d'Urgence : Un bouton d'arrêt d'urgence est une caractéristique de sécurité requise par le SB 1047 pour les systèmes d'IA qui pourraient causer des dommages importants. Cette fonctionnalité permettrait une désactivation immédiate ou un arrêt du système d'IA en cas d'urgence ou s'il présente un comportement dangereux. La mise en œuvre de ce bouton vise à fournir un mécanisme de sécurité pour prévenir des résultats catastrophiques dus à des dysfonctionnements ou à des abus de l'IA.
  • Audits Annuels par des Tiers : Le SB 1047 exige que les développeurs de grands modèles d'IA subissent des audits annuels par des tiers pour garantir la conformité aux protocoles et réglementations de sécurité. Ces audits seraient réalisés par des entités indépendantes pour fournir une évaluation objective de la sécurité et de la fiabilité des systèmes d'IA. L'objectif est de maintenir un niveau élevé de sécurité et de prévenir d'éventuelles catastrophes en vérifiant régulièrement que les systèmes d'IA fonctionnent dans des paramètres de risque acceptables.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres