DeepSeek-V2 bouleverse l'industrie de l'IA : performances de GPT-4 à 1% du coût
DeepSeek-V2 bouleverse l'industrie de l'IA : des performances élevées à un coût incroyablement bas
DeepSeek-V2, un modèle géant de deuxième génération à Mélange d'Experts (MoE) de la société DeepSeek AI Tech basée à Hangzhou, fait la une avec ses prix remarquablement bas et ses performances compétitives. Développé par une filiale du fonds spéculatif quantitatif Huanfang, DeepSeek-V2 s'est rapidement vu surnommer le "boucher des prix" en raison de ses performances qui égalent celles du GPT-4 d'OpenAI à un coût presque cent fois inférieur. Avec 2 360 milliards de paramètres et des capacités d'entraînement très efficaces, DeepSeek-V2 représente un défi important pour les principaux modèles d'IA dans le monde.
Points clés
- Performances et coût : DeepSeek-V2 offre des performances supérieures dans les références en chinois et en anglais, rivalisant avec les meilleurs modèles comme le GPT-4 et le LLaMA3-70B. Son rapport qualité-prix est particulièrement perturbateur, avec une tarification de l'API à 1 RMB par million de jetons pour les entrées et 2 RMB pour les sorties, soit 1 % du coût du GPT4.
- Soutien institutionnel : DeepSeek est soutenu de manière stratégique par Huanfang Quantitative, qui s'aventure profondément dans la technologie de l'IA, en utilisant des investissements et une infrastructure importants, notamment des milliers de GPU Nvidia A100.
- Impact sur le marché : le lancement de DeepSeek-V2 est sur le point de redéfinir la dynamique du marché en offrant des capacités d'IA haute performance à des prix beaucoup plus bas, menaçant la domination des grandes entreprises technologiques et potentiellement modifiant le paysage concurrentiel de la technologie de l'IA.
- Rentabilité et expansion : malgré des prix bas, DeepSeek maintient une marge bénéficiaire robuste de plus de 70 %, rendue possible par son incroyable efficacité d'entraînement et une utilisation élevée des capacités des serveurs.
- Test sur CTOL-Human-F1 : en utilisant l'API officielle, nous avons testé DeepSeek V2 à l'aide de notre propre test propriétaire CTOL-Human-F1. Notre évaluation initiale montre que DeekSeek V2 ne bat pas Llama 3 70B, mais la marge n'est pas énorme. Nous soupçonnons que la cause est la disparité linguistique : notre test est effectué en anglais alors que le modèle DeepSeek2 surpasse tous les autres dans les tâches en chinois. Cependant, nous sommes très optimistes pour l'avenir proche, où DeepSeek dépassera probablement Llama 3 70B.
Analyse
L'arrivée sur le marché de DeepSeek-V2 n'est pas seulement une avancée technologique, mais aussi une manœuvre stratégique qui ébranle les fondements mêmes des modèles économiques de l'industrie de l'IA. En tirant parti de l'infrastructure et des capacités de recherche existantes de Huanfang, DeepSeek a réussi à livrer un produit qui non seulement surpasse la concurrence, mais le fait à une fraction du coût. La capacité de ce modèle à s'entraîner avec 8,1 billions de jetons et à atteindre des taux de débit supérieurs souligne un changement important vers des pratiques d'IA plus économiquement durables. Les répercussions pour l'application de l'IA dans les entreprises, en particulier là où le coût a été un facteur limitant, sont importantes. De plus, l'industrie des modèles de langue géants (LLM) pourrait être au bord d'une perturbation significative. OpenAI risque de perdre sa position de premier plan s'il n'améliore pas l'efficacité de l'inférence de son modèle. Dans ce secteur férocement concurrentiel, le ralentissement de l'innovation et un manque d'expertise dans les produits grand public constituent également des menaces pour la domination d'OpenAI. Microsoft, principal collaborateur cloud d'OpenAI, ainsi que d'autres concurrents (Amazon, Google) qui ont fortement investi dans le secteur de l'IA générale mais ont produit des résultats décevants, pourraient subir de graves répercussions financières.
Saviez-vous que ?
- L'IA comme outil de marché boursier ? Malgré les spéculations, la direction de Huanfang affirme que leurs avancées en IA, y compris DeepSeek, ne sont pas destinées à manipuler le marché boursier, mais ont des applications plus larges et plus importantes.
- Investissement massif dans l'IA : depuis 2019, Huanfang a investi massivement dans des plateformes d'entraînement en IA, la dernière en date, Yinghuo-2, étant soutenue par 10 000 GPU Nvidia A100, illustrant l'engagement de l'entreprise à être à la pointe du développement de l'IA.
- Emplacements stratégiques : l'expansion de DeepSeek comprend un vaste bureau dans le district de Haidian à Pékin, couvrant une superficie équivalente à 20 courts de tennis, illustrant l'échelle à laquelle l'organisation opère pour stimuler les innovations en IA.