Révolutionner l'IA : les modèles de langage à long-contexte prêts à remplacer les systèmes RAG, simplifiant les pipelines d'IA et améliorant l'efficacité

Révolutionner l'IA : les modèles de langage à long-contexte prêts à remplacer les systèmes RAG, simplifiant les pipelines d'IA et améliorant l'efficacité

Par
Mateo Garcia
4 min de lecture

Révolution de l'IA : Les modèles de langage à long contexte prêts à remplacer les systèmes RAG

Une avancée majeure a été réalisée dans l'intelligence artificielle, les chercheurs ayant exploré la possibilité que les modèles de langage à long contexte (LCLMs) remplacent les systèmes de génération augmentée par la récupération (RAG). L'étude, détaillée dans un récent article de Jinhyuk Lee et coll. de Google DeepMind, introduit le banc d'essai Long Context Frontiers (LOFT). LOFT vise à évaluer les performances des LCLMs dans la gestion de fenêtres de contexte étendues, allant jusqu'à des millions de tokens. Cette exploration pourrait marquer un changement de paradigme dans la manière dont les modèles d'IA récupèrent et traitent l'information, rationalisant éventuellement des tâches complexes en des systèmes plus conviviaux et efficaces.

La recherche, menée par Jinhyuk Lee, Anthony Chen et Zhuyun Dai chez Google DeepMind, a présenté le banc d'essai LOFT pour évaluer les capacités des LCLMs dans l'exécution de tâches traditionnellement gérées par des systèmes RAG spécialisés. Le banc d'essai comprend un ensemble de tâches nécessitant un contexte étendu, jusqu'à un million de tokens, pour tester les capacités de récupération, de raisonnement et de génération des modèles. L'objectif de cette recherche est de simplifier les pipelines d'IA. Les systèmes RAG traditionnels reposent sur des outils et des pipelines complexes et spécifiques à la tâche qui sont sujets aux erreurs et nécessitent une expertise importante pour être gérés. Par opposition, les LCLMs promettent une approche unifiée qui peut gérer diverses tâches au sein d'un seul modèle. Ces découvertes, publiées sur arXiv en juin 2024, représentent une avancée importante dans l'IA et le traitement du langage naturel, suggérant que les fenêtres de contexte longues sont prometteuses et pourraient être l'avenir réel de ce domaine.

Points clés à retenir

  1. Les LCLMs sont prometteurs : Les premiers résultats du banc d'essai LOFT indiquent que les LCLMs peuvent rivaliser avec les systèmes RAG state-of-the-art dans plusieurs tâches, y compris la récupération de texte et la génération augmentée de la récupération, malgré le fait qu'ils ne soient pas spécifiquement formés à ces tâches.

  2. Scalabilité : LOFT prend en charge les longueurs de contexte allant jusqu'à un million de tokens, avec une possibilité d'évolution future. Cette scalabilité est essentielle pour les applications du monde réel où le contexte peut s'étendre sur des millions de tokens.

  3. Pipelines simplifiés : En intégrant les capacités de récupération et de raisonnement dans un seul modèle, les LCLMs peuvent éliminer le besoin de récupérateurs spécialisés et de bases de données, ce qui pourrait réduire les erreurs et améliorer l'efficacité.

  4. Amélioration continue nécessaire : Malgré leur potentiel, les LCLMs font toujours face à des défis, en particulier dans les tâches nécessitant un raisonnement compositionnel, telles que les opérations de type SQL. Cela met en évidence la nécessité d'une recherche continue pour améliorer leurs capacités.

Analyse

L'introduction de LOFT est une avancée majeure dans l'évaluation des limites et des possibilités des LCLMs. Le banc d'essai couvre six domaines principaux :

  • Récupération de texte : Les LCLMs peuvent ingérer et récupérer des informations directement à partir de grands corpus, réduisant ainsi le besoin de systèmes de récupération distincts. Dans les tests, les modèles comme Gemini 1.5 Pro ont obtenu des résultats comparables à des systèmes spécialisés comme Gecko.

  • Génération augmentée par récupération (RAG) : En raisonnant directement sur les grands corpus, les LCLMs simplifient les pipelines RAG, abordant ainsi des problèmes tels que la décomposition de requête et les erreurs en cascade.

  • Raisonnement de type SQL : Les LCLMs montrent un potentiel dans le traitement de bases de données entières sous forme de texte, permettant au langage naturel de poser des requêtes sans conversion vers des langages de requête formels. Toutefois, les performances sont toujours en retard par rapport aux systèmes spécialisés SQL.

  • Apprentissage in-context à plusieurs coups : Les LCLMs peuvent gérer plus d'exemples en contexte par rapport aux configurations de mise en place traditionnelles à plusieurs coups, ce qui pourrait améliorer l'apprentissage et l'adaptation à de nouvelles tâches.

La performance des LCLMs dans ces tâches démontre leur capacité à gérer des tâches complexes et de longue contextualisation avec une approche rationalisée, réduisant ainsi le besoin de plusieurs systèmes spécialisés. Cependant, des défis subsistent, en particulier dans l'assurance d'une performance cohérente sur des contextes extrêmement longs et l'amélioration de leurs capacités de raisonnement compositionnel.

Saviez-vous que ?

  • Gemini 1.5 Pro vs. Modèles spécialisés : Dans le banc d'essai LOFT, Gemini 1.5 Pro a surpassé GPT-4o et d'autres modèles spécialisés dans diverses tâches de récupération, mettant en évidence l'évolution des capacités des LCLMs à gérer les données multimodales, y compris le texte, les images et l'audio.

  • Considérations de coût : L'évaluation des LCLMs sur les ensembles de données étendus de LOFT peut être coûteuse. Par exemple, l'exécution du jeu de données 128k token sur tous les jeux de données coûte environ 1 568 dollars pour Gemini 1.5 Pro, mettant en évidence les ressources informatiques considérables nécessaires à des modèles aussi avancés.

  • Améliorations d'efficacité : L'un des avantages clés des LCLMs est leur compatibilité avec les techniques de mise en cache de préfixe, qui peuvent considérablement réduire l'encombrement computationnel en encodant le corpus une seule fois, malgré la grande taille de contexte.

Les avancées continues dans les LCLMs et leur évaluation par le biais de bancs d'essai comme LOFT tracent la voie vers des systèmes d'IA plus robustes, évolutifs et efficaces qui peuvent gérer des volumes considérables d'informations contextuelles. À mesure que la recherche se poursuit, le potentiel des LCLMs pour remplacer entièrement les systèmes RAG traditionnels devient de plus en plus plausible, annonçant une nouvelle ère dans la récupération et le traitement de l'information basés sur l'IA.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres