Des auteurs poursuivent Anthropic AI pour des livres piratés

Des auteurs poursuivent Anthropic AI pour des livres piratés

Par
Hanako Suzuki
3 min de lecture

Poursuite contre Anthropic pour utilisation de livres piratés dans l'entraînement de l'IA

Un groupe d'auteurs a déposé une poursuite contre la société d'IA Anthropic, prétendant que l'entreprise a utilisé leurs livres sans autorisation pour entraîner son modèle d'IA, Claude. La plainte affirme qu'Anthropic a utilisé un ensemble de données appelé "The Pile", qui incluait une collection importante d'ebooks piratés, pour former l'IA. Cet ensemble de données aurait intégré des œuvres d'auteurs bien connus comme Stephen King et Michael Pollan. Les auteurs demandent une réparation juridique pour ce qu'ils considèrent comme une utilisation non autorisée de leurs œuvres protégées par des droits d'auteur.

Sans surprise, les auteurs sont mécontents et cherchent réparation par le biais du système judiciaire. Ils exigent une compensation et demandent à Anthropic de cesser l'utilisation de leurs livres dans l'entraînement de l'IA. Des figures littéraires notables comme Andrea Bartz, Charles Graeber et Kirk Wallace Johnson sont parmi ceux impliqués dans cette action en justice. Malgré le retrait des livres piratés de l'ensemble de données principal, ils continuent de circuler en ligne.

Cette situation rappelle des cas précédents où des auteurs ont affronté des géants de la technologie concernant l'IA. L'année dernière, Mike Huckabee et d'autres ont déposé des poursuites contre Meta, Microsoft et une organisation à but non lucratif pour des violations similaires. Même des figures éminentes comme George R.R. Martin et Jodi Picoult ont engagé des batailles juridiques, poursuivant OpenAI pour utilisation non autorisée de leurs œuvres créatives. La violation des droits de propriété intellectuelle et l'absence de reconnaissance ont poussé ces auteurs à défendre leurs droits avec vigueur.

Les conséquences juridiques de ces affaires sont importantes, car elles soulèvent des questions cruciales sur le fait que l'entraînement de modèles d'IA sur du contenu protégé par des droits d'auteur constitue une violation des droits d'auteur. Bien que les développeurs d'IA soutiennent souvent que cette pratique entre dans le cadre de "l'utilisation équitable", le nombre croissant de poursuites souligne la tension entre l'avancement technologique et les droits de propriété intellectuelle. L'issue de ces batailles juridiques pourrait établir des précédents importants pour l'avenir du développement de l'IA, notamment en ce qui concerne l'approvisionnement en données d'entraînement et la nécessité d'accords de licence appropriés.

Points clés

  • Les auteurs ont engagé des poursuites contre Anthropic pour utilisation de livres piratés dans l'entraînement de l'IA.
  • Les allégations soutiennent qu'Anthropic a utilisé l'ensemble de données "Books3", qui contient des ebooks obtenus illégalement.
  • La plainte vise des réparations financières et l'interdiction de futures utilisations de matériels protégés par des droits d'auteur.
  • Les auteurs impliqués incluent Andrea Bartz, Charles Graeber et Kirk Wallace Johnson.
  • Des poursuites similaires ont été dirigées contre Meta, Microsoft et OpenAI.

Analyse

L'utilisation de livres piratés par Anthropic dans l'entraînement de l'IA pourrait avoir des conséquences juridiques et nuire à leur réputation. Des auteurs renommés, comme Stephen King, pourraient faire face à des pertes financières et à une dilution de leur contrôle créatif. L'industrie de l'IA dans son ensemble est probablement confrontée à un contrôle accru et à des réglementations plus strictes concernant l'acquisition de données. Les conséquences immédiates incluent des affrontements juridiques et des règlements financiers, tandis que les effets à long terme pourraient redéfinir les normes d'approvisionnement en données pour l'IA et l'application des droits de propriété intellectuelle.

Le Saviez-Vous ?

  • Anthropic :
    • Anthropic est une entreprise spécialisée dans la recherche en intelligence artificielle, reconnue pour avoir créé le modèle d'IA Claude. L'entreprise est impliquée dans des controverses concernant l'utilisation de matériaux protégés par des droits d'auteur, en particulier des livres piratés, pour former ses modèles d'IA.
  • Claude :
    • Claude est un modèle d'IA développé par Anthropic, probablement une variante d'un modèle de langage large similaire à GPT (Generative Pre-trained Transformer). Ces modèles sont formés avec d'importantes données pour comprendre et générer du texte semblable à celui des humains. Cependant, dans ce cas, les données d'entraînement incluaient des livres piratés, entraînant ainsi des problèmes juridiques.
  • The Pile :
    • "The Pile" désigne un vaste ensemble de données utilisé pour former des modèles d'IA, comprenant diverses sources de texte. Dans le cadre de la poursuite visant Anthropic, "The Pile" représentait le sous-ensemble "Books3", contenant des ebooks piratés. Cet ensemble de données est d'une grande importance dans l'entraînement de l'IA car il fournit une large gamme de textes dont le modèle peut apprendre, mais son incorporation de matériaux non autorisés a suscité des préoccupations éthiques et juridiques.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres