Le géant manquant de Meta : Llama 4 Béhémoth toujours absent alors que les rivaux se rapprochent

Par
CTOL Editors - Ken
9 min de lecture

Sous les projecteurs, derrière le rideau : Le Béhémoth qui n'était pas

Dans la chambre d'écho des tweets de célébration, des flux techniques en direct et des analyses YouTube qui ont éclaté le 5 avril, une vérité se tenait tranquillement dans l'ombre : le modèle de langage étendu le plus important de Meta, Llama 4 Behemoth, n'est pas encore là. Alors que le monde applaudissait la sortie de Llama 4 Scout et Maverick, le produit phare de Meta, sa réponse à la rivalité croissante avec OpenAI, Anthropic et Google, reste non livré, toujours en formation, et peut-être en retard sur le calendrier.

Meta a déclaré le lancement d'une "nouvelle ère d'IA multimodale", mais sous l'ingénierie élégante et les affirmations audacieuses, des initiés décrivent une cocotte-minute de pression croissante : une course effrénée pour rester en tête alors que les concurrents préparent leur prochaine vague de modèles à poids ouvert.

"Nous devions montrer quelque chose - surtout après que vous ayez parlé de notre retard - N'importe quoi, vraiment. Avant que les nouvelles versions des adversaires ne tuent aussi notre nouveau bébé", nous a dit aujourd'hui un ingénieur en IA générative de Meta.

Voici l'histoire inédite de Llama 4.


Les modèles qui ont été lancés : Scout et Maverick

Sur le papier, le lancement de Llama 4 Scout et Llama 4 Maverick est une étape importante pour la communauté open-source. Ces modèles, construits sur des architectures de mélange d'experts, repoussent les frontières de l'efficacité de l'inférence, de la longueur du contexte et de la capacité multimodale. Scout, un modèle agile de 17 milliards de paramètres actifs avec 16 experts, offre une fenêtre de contexte sans précédent de 10 millions de jetons, un exploit inégalé par tout modèle publié à ce jour. Il fonctionne sur un seul GPU H100, ciblant les chercheurs, les développeurs et les équipes de produits à petite échelle.

Maverick, en revanche, est la bête de somme : même taille active, mais alimenté par 128 experts et 400 milliards de paramètres au total. Il rivalise directement avec DeepSeek V3, Gemini 2.0 Flash et GPT-4o, offrant des performances similaires à des coûts d'inférence inférieurs.

"C'est le meilleur rapport performance/coût sur le marché en ce moment", déclare un analyste de référence en IA. "Si vous construisez avec Llama 4 Maverick, vous n'obtenez pas seulement un raisonnement de niveau OpenAI, vous le faites pour une fraction des cycles GPU."

Les premières mesures le confirment : Maverick a déjà obtenu 1417 sur LM Arena (CTOL Editor Ken : Nous ne faisons pas vraiment confiance à LM Arena, mais c'est de loin le seul disponible), le plaçant dans la tranche supérieure, bien qu'avec un large intervalle de confiance en raison du nombre limité de votes.

Pourtant, aussi impressionnants que soient ces modèles, ils n'étaient pas la tête d'affiche que Meta avait initialement prévue.

Résultat officiel de référence de Llama 4 Maverick
Résultat officiel de référence de Llama 4 Maverick


Le fantôme du lancement : Behemoth reste dans les coulisses

Derrière le spectacle de Scout et Maverick, Llama 4 Behemoth est manifestement absent. Avec 288 milliards de paramètres actifs, 16 experts et une taille totale approchant les 2 billions de paramètres, il est conçu non seulement pour égaler, mais aussi pour éclipser GPT-o3 mini, Claude Sonnet 3.7 et Gemini 2.5 Pro sur les benchmarks techniques. En interne, il est considéré comme le premier "modèle de frontière" de Meta, celui qui a le QI brut pour changer le classement LLM.

Mais la formation de Behemoth est en cours. Sa date de sortie reste vague. Et ce silence est révélateur.

"Le processus de formation consomme beaucoup de ressources", nous a dit l'ingénieur de Meta. "Ce n'est pas facile. Personnellement, je ne suis pas sûr de sa position par rapport aux trois premiers en ce moment : Gemini 2.5 Pro, Claude 3.7, O3 Mini."

Bien que Meta ait fait allusion à des victoires de référence dans des domaines STEM comme MATH-500 et GPQA Diamond, ils sont notamment silencieux sur les performances généralistes ou conversationnelles, un signal d'alarme pour de nombreux analystes en IA.

Un ingénieur principal en apprentissage automatique d'une société d'infrastructure d'IA a émis l'hypothèse que "les goulots d'étranglement des ressources et la mise à l'échelle instable des pipelines RL à ce nombre de paramètres" pourraient être à l'origine des retards. D'autres pointent vers la stratégie : "Meta ne voulait pas risquer de sortir Behemoth tant qu'il ne pouvait pas garantir des résultats de premier ordre, car trop de choses en dépendent."

Cela inclut non seulement le prestige, mais aussi un pari existentiel plus profond : si Llama 4 Behemoth ne parvient pas à surpasser clairement Claude ou Gemini, Meta risque de céder sa position dans la course à l'armement de la domination de l'IA, même dans le domaine de l'open-source qu'il a contribué à définir.


Maverick et Scout : Ingénierie élégante, jeu tactique

Ce que Maverick et Scout offrent, c'est la meilleure innovation de sa catégorie dans le segment des poids moyens. Le choix de Meta de l'architecture MoE, longtemps considérée comme trop complexe à régler ou à déployer, est maintenant devenu son atout dans sa manche.

Dans Scout, chaque jeton est acheminé vers un seul des 16 experts plus une couche partagée, ce qui permet une efficacité de calcul sans sacrifier la qualité. Sa longueur de contexte de 10 millions de jetons n'est pas seulement une merveille technique, elle pourrait être un changement de paradigme.

"Vous parlez de résumer des référentiels de code entiers, de raisonnement multi-documents ou de mémoire persistante pour les agents", a déclaré un chercheur. "C'est une révolution fonctionnelle."

Maverick, d'autre part, apporte cette efficacité au niveau d'un seul hôte, avec 400 milliards de paramètres au total, un routage de mélange d'experts et une fluidité multimodale améliorée. Il prend en charge l'entrée texte+image et domine les benchmarks visuels de QA et de codage comme ChartQA et LiveCodeBench.

Leur processus de formation n'a pas été moins rigoureux. En utilisant un pipeline de post-formation basé sur un programme progressif, Meta a supprimé les "données faciles", filtré les invites à l'aide de modèles de jugement internes et mis en boucle l'apprentissage par renforcement avec une sélection d'invites réservées aux données difficiles, une recette brutale mais efficace pour l'amélioration des performances.

Scout et Maverick ont tous deux été distillés à partir de Behemoth, ce que Meta appelle la "codistillation". Mais les implications complètes de ce modèle d'enseignement sont encore inconnues.


Échec du test précoce par rapport aux modèles de pointe : Llama 4 Maverick contre Claude 3.7 Sonnet

Lors d'un test de logique direct, Llama 4 Maverick de Meta a eu du mal à égaler les performances de Claude 3.7 Sonnet. Les deux modèles ont été chargés de résoudre un puzzle de raisonnement matriciel personnalisé de 4 × 7 impliquant des éléments fantastiques et 15 indices complexes. Alors que Claude a terminé la tâche rapidement et a fourni une solution cohérente et vérifiable dès la première tentative, Maverick a nécessité plusieurs continuations et a échoué à plusieurs reprises aux contrôles de vérification, attribuant initialement des artefacts en double à un personnage, puis reconnaissant des "contradictions fatales" dans sa logique. Même après plusieurs passes de correction, il a continué à manquer des indices et à introduire de nouvelles incohérences. Le testeur a noté que le style informel de Maverick, y compris les emojis et les abréviations, a encore brouillé son raisonnement. Bien qu'il ne s'agisse que d'un seul test, il soulève des préoccupations précoces quant à la fiabilité de Maverick dans la résolution structurée de problèmes, en particulier lorsque Meta n'a pas encore publié son modèle phare Behemoth. Et encore une fois, Meta doit sortir un modèle Behemoth solide pour rester pertinent par rapport aux meilleurs modèles.


Open Source avec un astérisque

Meta a longtemps positionné Llama comme le fer de lance de l'IA open-source. Mais la licence de Llama 4 a suscité des critiques. La clause des "700 millions d'utilisateurs actifs mensuels" interdit l'utilisation par toute entité comptant plus de 700 millions d'utilisateurs actifs mensuels, ce qui empêche de facto les géants de la technologie de l'adopter librement.

"C'est une contradiction", a déclaré un défenseur de l'IA. "On ne peut pas dire que c'est ouvert si c'est piégé pour vos concurrents."

Pire encore, la distribution est limitée : pour télécharger, les utilisateurs doivent remplir un formulaire, recevoir un lien limité dans le temps et sont autorisés à cinq téléchargements en 48 heures.

Ces contraintes artificielles frustrent de nombreux développeurs. Selon les mots d'un bâtisseur de communauté qui a eu un accès anticipé à Scout :

"C'est le meilleur petit modèle que j'ai utilisé. Mais le déploiement ? On avait plus l'impression de demander un passeport que de télécharger un modèle open-source."


Les enjeux : Stratégie d'IA en 2025

Pourquoi l'absence de Behemoth est-elle importante ?

Parce que nous sommes maintenant à l'ère de la guerre de l'IA à poids ouvert, où la latence, le coût par jeton et les performances sur les tâches de raisonnement difficiles définissent non seulement la viabilité du produit, mais aussi la stratégie nationale.

Les modèles Scout et Maverick de Meta battent Gemini 2.0 Flash sur la plupart des mesures. Mais ils ne battent pas Claude 3.7 Sonnet Thinking ou Gemini 2.5 Pro. Seul Behemoth a une chance de le faire.

Et la concurrence n'attend pas.

DeepSeek devrait sortir sa prochaine génération de modèle à poids ouvert avec des capacités complètes de raisonnement de code au début du mois de mai. OpenAI préparerait son premier modèle à poids ouvert.

Si Meta ne parvient pas à lancer Behemoth avant ces sorties, la vague de battage médiatique autour de Llama 4 pourrait se dissiper avant qu'elle ne puisse consolider sa domination du marché.


Ce qui suit : Behemoth, LlamaCon et la vraie frontière

Meta mise sur le 29 avril, date à laquelle elle organisera LlamaCon, promettant plus de détails techniques et, éventuellement, une fenêtre de sortie pour Behemoth. Les observateurs de l'industrie disent que cela pourrait être un moment déterminant pour la feuille de route de l'IA de l'entreprise.

D'ici là, nous avons Scout et Maverick : techniquement brillants, publiés publiquement, mais stratégiquement provisoires.

Comme l'a dit un analyste :

"Llama 4 est le coup d'envoi de Meta, mais la fin de partie dépend de Behemoth."

L'avenir de l'IA n'est pas seulement construit en public. Il est en train d'être formé, dans les coulisses, sur 32 000 GPU, avec chaque heure, chaque jeton, une course contre la montre.


Résumé :

  • Llama 4 Scout : Un modèle de 17 milliards de paramètres, avec une fenêtre de contexte de 10 millions, qui tient sur un seul GPU H100. C'est le meilleur de sa catégorie pour les modèles multimodaux compacts.
  • Llama 4 Maverick : Modèle plus grand, avec 400 milliards de paramètres et 128 experts. Bat Gemini 2.0 Flash sur la plupart des mesures avec un rapport coût-performance impressionnant.
  • Llama 4 Behemoth : Toujours en formation. Avec 2 billions de paramètres, il vise à défier Gemini 2.5 Pro, Claude 3.7 et O3 Mini, mais fait face à des doutes internes.
  • Scout et Maverisk sont des produits de milieu de gamme et ne peuvent pas battre les meilleurs modèles comme Claude Sonnet 3.7 ou Gemini 2.5 Pro
  • Questions d'ouverture : Les restrictions de licence et le contrôle des téléchargements ont suscité des critiques de la part de la communauté open-source.
  • 29 avril à LlamaCon : Tous les regards se tournent vers la question de savoir si Meta peut enfin dévoiler Behemoth et si cela vaudra la peine d'attendre.

L'histoire n'est pas terminée. Mais pour l'instant, le décor est planté. Le Scout est rapide. Le Maverick est fort. Et le Behemoth ? Il est toujours dans l'ombre, toujours en formation, toujours incertain.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres

Nous utilisons des cookies sur notre site Web pour activer certaines fonctions, fournir des informations plus pertinentes et optimiser votre expérience sur notre site Web. Vous pouvez trouver plus d'informations dans notre Politique de confidentialité et dans nos Conditions d'utilisation . Les informations obligatoires se trouvent dans les mentions légales