Magic AI dévoile le modèle de langue LTM-2-mini

Magic AI dévoile le modèle de langue LTM-2-mini

Par
Elena Silva
3 min de lecture

Magic AI Révolutionne le Développement Logiciel avec LTM-2-mini

Magic AI a lancé le LTM-2-mini, un modèle de langage révolutionnaire capable de traiter une fenêtre de contexte de 100 millions de tokens, soit environ 10 millions de lignes de code. Cette réalisation remarquable dépasse celle des modèles existants, comme la série Gemini de Google, qui pouvaient traiter jusqu'à 10 millions de tokens.

Le LTM-2-mini est spécialement conçu pour le développement logiciel, offrant le potentiel d'améliorer la génération de code en donnant aux modèles accès à l'ensemble des bases de code des projets, à la documentation et aux bibliothèques. En même temps que ce lancement, Magic AI a présenté la norme HashHop, visant à améliorer l'évaluation des modèles avec des fenêtres de contexte étendues, en répondant efficacement aux limites des anciennes normes comme "Needle in a Haystack."

En termes d'efficacité, l'algorithme du LTM-2-mini surpasse le mécanisme d'attention utilisé dans Llama 3.1 405B par un facteur de 1000, tout en ayant des besoins en mémoire considérablement réduits. Magic AI est actuellement en train de développer une version plus grande du modèle LTM-2 et a obtenu des collaborations avec Google Cloud et Nvidia pour construire de nouveaux supercalculateurs, dans le but d'améliorer l'efficacité de l'entraînement et de l'inférence.

L'entreprise a attiré un investissement substantiel, levant 320 millions de dollars auprès d'investisseurs de renom, dont Eric Schmidt, Jane Street et Sequoia. Ce soutien financier impressionnant souligne l'approche innovante de Magic AI en matière de traitement du contexte en intelligence artificielle et son influence potentielle sur l'avenir du développement logiciel et de la technologie AI.

Points Clés

  • Le LTM-2-mini de Magic AI est capable de traiter 100 millions de tokens, l'équivalent de 10 millions de lignes de code.
  • L'introduction de la norme HashHop vise à évaluer plus efficacement les modèles avec de grandes fenêtres de contexte.
  • L'efficacité de l'algorithme du LTM-2-mini dépasse celle de Llama 3.1 405B par un facteur de 1000 dans le traitement du contexte.
  • Magic AI a sécurisé 320 millions de dollars de financement, totalisant 465 millions de dollars, et a établi des collaborations avec Google Cloud et Nvidia pour avancer dans les capacités de formation et d'inférence de l'IA.

Analyse

L'introduction du LTM-2-mini de Magic AI, avec sa fenêtre de contexte inégalée, a le potentiel de révolutionner le développement logiciel en permettant une analyse complète du code. Cette innovation pourrait conduire à des cycles de développement plus rapides et à une qualité logicielle améliorée, impactant à la fois des leaders du secteur comme Google et des startups émergentes. La norme HashHop introduit un nouveau standard pour l'évaluation des modèles d'IA, redéfinissant potentiellement les pratiques du secteur. Le soutien d'investisseurs financiers comme Eric Schmidt et Sequoia les place en position favorable pour profiter de la croissance de Magic AI, tandis que les partenariats avec Google Cloud et Nvidia pourraient accélérer l'innovation en IA. Les implications à court terme incluent des capacités améliorées en IA et un positionnement sur le marché pour Magic AI, avec des effets éloignés sur l'écosystème plus large de l'IA et la compétitivité technologique mondiale.

Le Saviez-Vous ?

  • LTM-2-mini :
    • Le LTM-2-mini de Magic AI, conçu spécifiquement pour le développement logiciel, a la capacité de traiter une fenêtre de contexte de 100 millions de tokens, l'équivalent d'environ 10 millions de lignes de code. Cette fonctionnalité élève les capacités du modèle en offrant un accès aux bases de code de projets entiers, à la documentation et aux bibliothèques, améliorant ainsi significativement la génération et la compréhension du code.
  • Norme HashHop :
    • La nouvelle norme HashHop introduite par Magic AI vise à améliorer l'évaluation des modèles de langage avec des fenêtres de contexte étendues. Elle sert de solution aux limites des normes précédentes comme "Needle in a Haystack," offrant une évaluation plus complète et précise de la capacité des modèles à traiter des données et des contextes étendus.
  • Mécanisme d'Attention dans Llama 3.1 405B :
    • Le mécanisme d'attention joue un rôle crucial dans le fonctionnement des modèles de réseaux neuronaux, en particulier dans les architectures de transformateurs comme celles utilisées dans le modèle Llama 3.1 405B. Ce mécanisme permet au modèle de se concentrer sur différents segments des données d'entrée, améliorant ainsi sa capacité à comprendre le contexte et les relations au sein des données. L'algorithme du LTM-2-mini dépasse ce mécanisme par un facteur de 1000 en efficacité, avec des besoins en mémoire réduits, marquant une avancée significative dans l'efficacité du traitement du contexte.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres