
Tout le monde a manqué l'histoire importante à GTC 2025 - Voici pourquoi les annonces ennuyeuses de NVIDIA comptent plus que vous ne le pensez
Tout le monde est passé à côté de l'essentiel à GTC 2025 - Voici pourquoi les annonces "ennuyeuses" de NVIDIA sont plus importantes que vous ne le pensez
Le lendemain du discours principal, l'action NVIDIA a chuté. Une semaine plus tard, l'enthousiasme s'est refroidi. Et pourtant, si vous savez ce qu'il faut regarder, GTC 2025 pourrait bien être considéré comme le mouvement stratégique le plus important que NVIDIA ait fait depuis cinq ans.
NVIDIA n'a pas donné à la foule ce qu'elle voulait : une puce révolutionnaire, une démonstration époustouflante ou une annonce AI ambitieuse. Au lieu de cela, il a livré quelque chose de plus discret, et potentiellement beaucoup plus puissant.
Infrastructure. Écosystème. Domination de la plateforme. Cela n'a pas fait les gros titres. Mais cela vend l'avenir.
Partie 1 : Tout le monde regardait les puces, mais ce n'est pas ça l'histoire
Soyons clairs : la feuille de route Blackwell n'était pas une surprise.
- Blackwell Ultra (S2 2025)
- Rubin
- Rubin Ultra
- Feynman
Les gains de performance étaient importants, jusqu'à 14x avec Rubin Ultra, mais prévus. C'est parce que NVIDIA a déjà habitué le marché à anticiper une itération incessante.
Alors, pourquoi les investisseurs ont-ils réagi avec un haussement d'épaules ?
Parce qu'ils cherchaient de la nouveauté. Mais la vraie valeur n'était pas dans les nouvelles puces, mais dans la façon dont NVIDIA redéfinit la conception du système autour d'elles.
Partie 2 : Les optiques co-emballées étaient le coup discret, et cela change la donne
Cela n'a pas fait les gros titres, mais CPO pourrait être l'annonce la plus importante sur le plan stratégique de GTC 2025.
Depuis des années, la mise en réseau est le goulot d'étranglement dans la mise à l'échelle des clusters d'IA. Pas les GPU, pas la mémoire, mais les interconnexions. C'est ce que CPO résout :
- Fiabilité 10x supérieure
- Efficacité énergétique 3,5x supérieure
- Déploiement 1,3x plus rapide
- Coût et latence inférieurs par rapport aux émetteurs-récepteurs enfichables
Les vétérans de l'industrie savent que CPO n'est pas nouveau : Intel et Cisco y travaillaient déjà au début des années 2000. Mais personne ne l'avait intégré à grande échelle. C'est ce que NVIDIA a fait.
NVIDIA n'a pas inventé la technologie. Ils l'ont industrialisée et l'ont intégrée à leur pile.
Le point clé ? CPO ne rend pas seulement les GPU plus rapides. Il rend les clusters NVIDIA plus rentables que tout ce qu'AMD ou les ASIC des hyperscalers peuvent offrir. C'est un fossé au niveau du système, et Wall Street ne l'a pas encore intégré dans ses calculs.
Partie 3 : Dynamo est CUDA à nouveau, mais pour l'inférence
L'inférence est l'endroit où se trouve la prochaine vague de mille milliards de dollars.
L'entraînement de grands modèles est coûteux, mais c'est un coût unique. L'inférence (l'exécution de ces modèles, des milliers ou des millions de fois par jour) est le véritable gouffre de calcul.
Voici NVIDIA Dynamo. Introduit discrètement, il s'agit d'une nouvelle couche logicielle spécialement conçue pour gérer les pipelines d'inférence à grande échelle.
Composants principaux :
- Planificateur GPU : Optimise la façon dont le calcul est alloué
- Routeur intelligent : Route les requêtes d'IA en utilisant le cache et la connaissance du contexte
- Bibliothèque à faible latence : Accélère le déplacement des données
- Gestionnaire de mémoire : Réduit les coûts en utilisant le stockage froid pour les données de modèle inactives
NVIDIA affirme qu'il peut offrir des gains de performance et de coût de 2x à 30x dans les charges d'inférence du monde réel.
Mais voici l'implication plus profonde : Dynamo est open-source, mais il fonctionnera mieux sur le matériel NVIDIA, en utilisant les interconnexions NVIDIA, dans les clusters conçus par NVIDIA.
C'est le plan CUDA à nouveau, sauf que maintenant, le champ de bataille est l'inférence, pas l'entraînement. Et l'inférence est le générateur de revenus à long terme de l'adoption de l'IA.
Partie 4 : Bilan post-GTC - Qu'est-ce qui a réellement changé
1. NVIDIA est passé de "fabricant de puces" à "propriétaire de plateforme"
À GTC, NVIDIA ne vendait pas des puces. Il revendiquait l'ensemble de la pile de calcul de l'IA : Matériel → Interconnexion → Conception de cluster → Logiciel de déploiement → Intégration d'entreprise.
C'est ce qui rend cela différent. AMD peut égaler les spécifications. Les TPU peuvent offrir de l'efficacité. Mais personne d'autre ne possède la totalité de la verticale comme NVIDIA.
2. Les entreprises sont désormais à portée de main
Pendant des années, l'exécution de l'IA à grande échelle était quelque chose que seuls les hyperscalers pouvaient faire. Avec CPO et Dynamo, NVIDIA a effondré la courbe des coûts.
Cela ouvre la voie à :
- Les entreprises qui construisent des LLM internes
- Les entreprises de soins de santé qui exécutent l'inférence en temps réel
- Les institutions financières qui adoptent des services basés sur des modèles sans dépendance au cloud
Cela pourrait débloquer un marché adressable total (TAM) entièrement nouveau dans les 12 à 24 prochains mois.
3. Les hyperscalers ont maintenant un problème - et une dépendance
AWS, Google Cloud et Azure veulent tous réduire leur dépendance à l'égard de NVIDIA. Mais avec CPO/Dynamo intégré dans les prochains systèmes NVIDIA, ces mêmes fournisseurs de cloud sont maintenant encore plus dépendants de la pile NVIDIA en termes de performance et de coût.
Ils continueront à construire leurs propres puces, mais en 2025-2026, NVIDIA restera le fournisseur essentiel.
Partie 5 : Ce que les investisseurs devraient réellement surveiller
Oubliez la baisse des actions. GTC n'était pas un moment matériel, c'était un point d'inflexion stratégique.
Voici ce que les investisseurs avisés suivent après GTC :
- Mesures d'adoption de Dynamo : Attendez-vous à de plus en plus de références d'utilisateurs d'entreprises et de clouds de niveau intermédiaire lors des conférences téléphoniques sur les résultats du deuxième et troisième trimestre.
- Comportement des hyperscalers : Si AWS/Azure retardent les déploiements de TPU à grande échelle, c'est un signal que NVIDIA est toujours le maître du jeu.
- Allocation de la capacité de TSMC : L'accélération de la feuille de route de NVIDIA signifie que la demande de nœuds avancés (N3P et au-delà) se resserrera encore plus. TSMC est le faiseur de rois invisible ici.
- Mentions de robotique : Jensen l'a laissé entendre à plusieurs reprises. Combiné à Omniverse et Blackwell Ultra, attendez-vous à ce que la simulation + la robotique soient le prochain récit après la maturation de GenAI.
GTC 2025 n'a pas ébloui, mais il a défini la prochaine phase de l'infrastructure d'IA
Si vous attendiez des lancements de produits surprises ou des partenariats tape-à-l'œil, GTC 2025 vous a probablement déçu. Mais si vous regardiez où NVIDIA place ses paris à long terme, c'était une leçon de maître en profondeur stratégique.
CPO n'est pas une mise à niveau du réseau, c'est un fossé. Dynamo n'est pas seulement l'orchestration de l'inférence, c'est CUDA pour la prochaine ère. Et NVIDIA ne court plus après les gros titres, il construit le système d'exploitation de l'économie de l'IA.
Les marchés peuvent être lents à digérer cela. Mais lorsque le prochain modèle d'IA majeur sera lancé - ou lorsque les entreprises commenceront à citer Dynamo lors des conférences téléphoniques sur les résultats - la valeur réelle de GTC 2025 sera évidente avec le recul.