Rédigé par : Ada, Deep Tide TechFlow
Pang Ruoming est parti avant même d'avoir eu le temps de s'installer à son poste de travail chez Meta.

En juillet 2025, Zuckerberg a débauché cet ingénieur chinois le plus recherché dans le domaine de l'infrastructure IA d'Apple avec un package de rémunération pluriannuel totalisant plus de 200 millions de dollars. Pang Ruoming a été affecté au Meta Superintelligence Lab pour être responsable de la construction de l'infrastructure pour les modèles IA de nouvelle génération.
Sept mois plus tard, OpenAI l'a débauché.
Selon The Information, OpenAI a lancé une campagne de recrutement de plusieurs mois pour Pang Ruoming. Bien que Pang ait dit à ses collègues qu'il était "très heureux de travailler chez Meta", il a finalement choisi de partir. Bloomberg a rapporté que son package de rémunération chez Meta était lié à des jalons, et partir tôt signifiait renoncer à la plupart de ses stock-options non acquises.
200 millions de dollars ne peuvent pas acheter sept mois de loyauté.
Ce n'est pas une simple histoire de changement d'emploi.
Pang Ruoming n'a pas été le premier à partir.
La semaine dernière, Mat Velloso, responsable produit de la plateforme développeur au Meta Superintelligence Labs, a également annoncé son départ. Il a rejoint Meta en juillet dernier depuis Google DeepMind et est resté moins de huit mois. En remontant plus loin, en novembre 2025, le lauréat du prix Turing et scientifique en chef de l'IA Yann LeCun, qui était chez Meta depuis 12 ans, a annoncé son départ pour créer sa propre entreprise, travaillant sur le "modèle mondial" qu'il défendait depuis longtemps. Russ Salakhutdinov, un protégé clé de Geoffrey Hinton et vice-président de la recherche en IA générative chez Meta, a également récemment annoncé son départ.
Pour comprendre la fuite des talents chez Meta AI, nous devons d'abord comprendre à quel point Llama 4 a été dommageable.
En avril 2025, Meta a publié en grande pompe les modèles Scout et Maverick de la série Llama 4. Les spécifications officielles étaient impressionnantes, affirmant qu'ils surpassaient complètement GPT-4.5 et Claude Sonnet 3.7 dans les tests de référence de base tels que MATH-500 et GPQA Diamond.
Cependant, ce modèle phare, qui incarne les ambitions de Meta, a rapidement révélé sa vraie nature lors de tests en aveugle indépendants menés par des tiers dans la communauté open source, ses capacités réelles de généralisation et d'inférence étant bien inférieures aux performances annoncées. Face aux critiques virulentes de la communauté, le scientifique en chef de l'IA Yann LeCun a finalement admis que l'équipe "utilisait différentes versions de modèles pour exécuter différents ensembles de tests pendant la phase de test afin d'optimiser le score final".
Dans les communautés académiques et d'ingénierie IA rigoureuses, cela a franchi une ligne rouge impardonnable. En d'autres termes, l'équipe a entraîné Llama 4 à devenir un "candidat aux examens de petite ville" qui ne pouvait résoudre que des questions d'examens passés, plutôt qu'un véritable "élève d'élite" avancé avec une intelligence de pointe. C'est comme vous montrer un examen de mathématiques et un examen de programmation - chaque test individuel semble fort, mais ce n'est pas réellement le même modèle.
Dans le milieu académique de l'IA, cela s'appelle du "cherry picking", tandis que dans l'éducation axée sur les examens, on appelle cela "passer un examen à la place de quelqu'un d'autre".
Pour Meta, qui s'est toujours présenté comme un "phare de l'open source", cette agitation a directement détruit son actif le plus précieux de confiance au sein de l'écosystème des développeurs. Son coût immédiat a été que Zuckerberg a "complètement perdu confiance" dans les fondamentaux d'ingénierie de l'équipe GenAI d'origine, préparant ainsi le terrain pour la nomination ultérieure de cadres supérieurs et la mise à l'écart des départements d'infrastructure de base.
Il a dépensé entre 14,3 et 15 milliards de dollars pour acquérir une participation de 49% dans la société d'étiquetage de données Scale AI, en faisant venir le PDG de Scale AI, Alexandr Wang, âgé de 28 ans, en tant que directeur de l'IA (Chief AI Officer) de Meta et en établissant le Meta Superintelligence Lab (MSL). Le lauréat du prix Turing LeCun devait rendre compte à ce jeune de 28 ans dans la nouvelle structure. En octobre, Meta a licencié environ 600 postes au MSL, y compris des membres de la division de recherche FAIR que LeCun avait fondée.
Le modèle phare Llama 4 Behemoth, initialement prévu pour sortir à l'été 2025, a été retardé à plusieurs reprises, de l'été à l'automne, et finalement mis en attente indéfiniment.
Meta a déplacé son focus vers le développement d'un modèle texte de nouvelle génération portant le nom de code "Avocado" et d'un modèle image/vidéo portant le nom de code "Mango". Avocado serait conçu pour concurrencer GPT-5 et Gemini 3 Ultra. Initialement prévu pour sortir fin 2025, il a été retardé au premier trimestre 2026 en raison de tests de performance et d'optimisation d'entraînement insatisfaisants. Meta envisage de le publier en source fermée, abandonnant la tradition open source de la série Llama.
Meta a commis deux erreurs fatales avec ses modèles IA. Premièrement, elle a fabriqué des données de référence, ce qui a directement détruit la confiance de la communauté des développeurs. Deuxièmement, elle a entassé un département de recherche fondamentale comme Fair, qui nécessite une décennie de travail dévoué, dans une organisation produit axée sur les KPI trimestriels. Ces deux actions combinées sont la cause profonde de sa fuite actuelle de talents.
Les talents partent, et il y a des problèmes avec les puces.
Selon The Information, Meta a annulé son projet de puce d'entraînement IA le plus avancé, qui était en cours de développement en interne, la semaine dernière.
Le projet de puce auto-développée de Meta s'appelle MTIA (Meta Training and Inference Accelerator). La feuille de route initiale de l'entreprise est ambitieuse : MTIA v4, portant le nom de code "Santa Barbara", v5, portant le nom de code "Olympus", et v6, portant le nom de code "Universal Core", sont prévus pour une livraison entre 2026 et 2028. Parmi eux, Olympus est conçu pour être la première puce de Meta basée sur une architecture chiplet 2nm, visant à couvrir simultanément l'entraînement de modèles haut de gamme et l'inférence en temps réel, et à finalement remplacer le rôle de NVIDIA dans le cluster d'entraînement de Meta.
Maintenant, cette puce d'entraînement de pointe a été abandonnée.
Meta n'a pas été sans progrès ; MTIA a connu un certain succès en inférence. La puce d'inférence MTIA v3, portant le nom de code "Iris", a été déployée à grande échelle dans les centres de données de Meta, principalement pour Facebook Reels et les systèmes de recommandation d'Instagram, réduisant prétendument le coût total de possession de 40% à 44%. Cependant, l'inférence et l'entraînement sont deux choses différentes. L'inférence exécute le modèle, tandis que l'entraînement le pratique. Meta peut fabriquer ses propres puces d'inférence, mais elle ne peut pas créer une puce d'entraînement qui puisse directement concurrencer Nvidia.
Ce n'est pas la première fois dans l'histoire. En 2022, Meta a tenté de développer sa propre puce d'inférence, mais a abandonné le projet après un échec lors d'un déploiement à petite échelle et a plutôt passé une grosse commande auprès de Nvidia.
Le revers dans le développement de ses propres puces a directement accéléré la frénésie d'externalisation de Meta.
En janvier 2026, Meta a annoncé que son budget de dépenses d'investissement pour l'année était compris entre 115 et 135 milliards de dollars, presque le double des 72,2 milliards de dollars de l'année dernière. La majeure partie de cet argent sera dépensée en puces.
En 10 jours, trois commandes majeures ont été passées avec succès :
Le 17 février, Meta a signé un accord de coopération stratégique pluriannuel et multigénérationnel avec NVIDIA. Meta déploiera "des millions" de GPU NVIDIA Blackwell et de prochaine génération Vera Rubin, ainsi que des CPU discrets Grace. Les analystes estiment que l'accord vaut des dizaines de milliards de dollars, faisant de Meta le premier client de supercalcul au monde à déployer les CPU discrets NVIDIA Grace à grande échelle.
Le 24 février, Meta et AMD ont signé un accord de puces pluriannuel d'une valeur de 60 à 100 milliards de dollars. Meta achètera les derniers GPU de la série MI450 d'AMD et les CPU EPYC de sixième génération. Dans le cadre de l'accord, AMD a émis des bons de souscription à Meta pour jusqu'à 160 millions d'actions ordinaires, représentant environ 10% des actions d'AMD, acquises par tranches à 0,01 dollar par action en fonction des jalons de livraison.
Le 26 février, The Information a rapporté que Meta a signé un accord pluriannuel de plusieurs milliards de dollars avec Google pour louer des puces TPU de Google Cloud afin d'entraîner et d'exécuter ses modèles de langage de grande taille de prochaine génération. Les deux entreprises discutent également de l'achat direct de TPU par Meta pour un déploiement dans ses propres centres de données à partir de 2027.
Une entreprise de médias sociaux a passé des commandes auprès de trois fournisseurs de puces en 10 jours, totalisant potentiellement plus de 100 milliards de dollars.
Ce n'est pas de la diversification. C'est de l'achat de panique.
Pourquoi Meta est-il si pressé ?
Premièrement, les puces auto-développées ne sont plus une option viable. L'annulation du projet de puce d'entraînement le plus avancé signifie que Meta devra s'appuyer sur des achats externes pour répondre à ses besoins d'entraînement IA dans un avenir prévisible. Bien que la puce MTIA pour l'inférence puisse gérer des applications matures comme les systèmes de recommandation, l'entraînement de modèles de pointe comme Avocado, qui rivalise avec GPT-5, nécessite du matériel NVIDIA ou équivalent.
Deuxièmement, les concurrents n'attendront pas. OpenAI a déjà sécurisé des ressources massives de Microsoft, SoftBank et du fonds souverain des Émirats Arabes Unis. Anthropic a sécurisé des approvisionnements de 1 million de TPU et de puces Trainium chacun de Google et Amazon. Gemini 3 de Google a été entièrement entraîné sur des TPU. Si Meta ne peut pas obtenir une puissance de calcul suffisante, il ne pourra même pas sécuriser son entrée dans la course.
Troisièmement, et peut-être le plus fondamentalement, Zuckerberg doit utiliser le "pouvoir d'achat" pour compenser le manque de "capacités de R&D". La débâcle de Llama 4, la perte de talents clés et les revers dans les puces auto-développées - ces trois événements combinés ont rendu le récit IA de Meta fragile aux yeux de Wall Street. Signer des accords majeurs avec Nvidia, AMD et Google à ce moment envoie au moins un signal : Nous avons l'argent, nous achetons, et nous n'avons pas abandonné.
La stratégie actuelle de Meta est d'investir dans le matériel s'ils ne peuvent pas résoudre les problèmes logiciels, et d'acheter des puces s'ils ne peuvent pas retenir les talents. Mais la course à l'IA n'est pas un jeu que vous pouvez gagner simplement en signant des chèques. La puissance de calcul est une condition nécessaire, mais pas suffisante. Sans une équipe de modélisation de premier plan et une feuille de route technique claire, aucune quantité de puces ne changera quoi que ce soit d'autre qu'un inventaire coûteux dans un entrepôt.
En regardant en arrière les trois transactions de Meta en février, un détail intéressant a été négligé par la plupart des gens.
Meta a acheté le Blackwell actuel et le futur Vera Rubin de Nvidia ; dans son accord avec AMD, il a acheté le MI450 et le futur MI455X ; et il a loué le TPU Ironwood actuel de Google, avec des plans pour l'acheter directement l'année prochaine.
Trois fournisseurs, trois architectures matérielles et écosystèmes logiciels complètement différents.
Cela signifie que Meta devra naviguer entre trois écosystèmes sous-jacents complètement différents : le CUDA de NVIDIA, le ROCm d'AMD et le XLA/JAX de Google. Bien qu'une stratégie multi-fournisseurs puisse atténuer les risques de la chaîne d'approvisionnement et réduire les primes d'achat de matériel, elle entraînera également une augmentation exponentielle de la complexité d'ingénierie.
C'est précisément la faiblesse la plus fatale de Meta. Pour permettre à un modèle avec des billions de paramètres d'être entraîné efficacement sur ces trois modèles de programmation sous-jacents complètement différents sur différents matériels, il faut non seulement des ingénieurs qui comprennent CUDA, mais aussi des architectes qui peuvent construire un framework d'entraînement multi-plateforme à partir de zéro.
Il n'y a probablement pas plus de 100 personnes comme cela dans le monde. Pang Ruoming en fait partie.
Dépenser 100 milliards de dollars pour acquérir le portefeuille matériel le plus complexe au monde tout en perdant simultanément les cerveaux qui peuvent le contrôler - c'est l'aspect le plus surréaliste du pari de Zuckerberg.
En prenant du recul, l'approche de Zuckerberg vis-à-vis de l'IA au cours des 18 derniers mois présente une ressemblance frappante avec sa stratégie all-in d'exploration du métaverse il y a quelques années :
Voyant une tendance, ils investissent massivement et recrutent un grand nombre de personnes ; lorsqu'ils rencontrent des revers, ils effectuent un changement stratégique soudain et investissent massivement à nouveau.
La période de 2021 à 2023 concernait le Métaverse, qui a entraîné des pertes de dizaines de milliards de dollars chaque année, et le cours de l'action a finalement chuté de 380 à 88 dollars. La période de 2024 à 2026 concerne l'IA, qui implique également de dépenser de l'argent sans tenir compte du coût, des restructurations organisationnelles fréquentes, et le même récit de "Faites-moi confiance, j'ai de la vision".
La différence est que cette tendance IA est en effet beaucoup plus tangible que le Métaverse. Meta, d'autre part, a beaucoup d'argent à brûler ; son activité publicitaire génère un flux de trésorerie substantiel. Au quatrième trimestre 2025, les revenus de Meta ont atteint 59,9 milliards de dollars, une augmentation de 24% en glissement annuel.
Le problème est : l'argent peut acheter des puces, de la puissance de calcul, et même des gens assis à des postes de travail, mais il ne peut pas acheter des gens qui restent.
Pang Ruoming a choisi OpenAI, Russ Salakhutdinov a choisi de partir, et LeCun a choisi de créer sa propre entreprise.
Le pari actuel de Zuckerberg est que tant qu'il achète suffisamment de puces, construit suffisamment de centres de données et dépense suffisamment d'argent, il pourra finalement trouver ou former des personnes qui peuvent utiliser ces ressources.
Ce pari pourrait se révéler vrai. Après tout, Meta est l'une des entreprises technologiques les plus riches au monde, avec plus de 100 milliards de dollars de flux de trésorerie d'exploitation étant son avantage concurrentiel le plus fort. D'OpenAI à Anthropic, de Google à d'autres concurrents, Meta a continuellement débauché des talents. Selon Qubit, près de 40% des 44 membres de l'équipe Superintelligence de Meta provenaient d'OpenAI.
Cependant, la réalité cruelle de la course à l'IA est que les réserves de puissance de calcul, les listes de talents et les performances des modèles sont toutes des informations publiques. L'incident de fraude de référence de Llama 4 prouve que dans cette industrie, vous ne pouvez pas maintenir votre avance en vous appuyant sur des présentations PPT et des relations publiques.
En fin de compte, le marché ne reconnaît qu'une seule chose : la qualité de votre modèle.
Alors que la course aux armements de l'IA entre en 2026, l'ordre de la chaîne alimentaire a commencé à devenir clair :
Au sommet se trouvent OpenAI et Google. OpenAI possède les modèles les plus puissants, la plus grande base d'utilisateurs et le financement le plus agressif. Google a une intégration verticale complète de ses propres puces, modèles et infrastructure cloud. Anthropic suit de près, maintenant fermement sa position dans le premier niveau grâce à la force produit de son modèle Claude et à la double alimentation en puissance de calcul de Google et Amazon.
Meta a dépensé le plus d'argent, signé le plus de contrats de puces et réorganisé le plus fréquemment, mais jusqu'à présent, il n'a pas proposé de modèle de pointe qui puisse convaincre le marché.
L'histoire de l'IA de Meta est quelque peu similaire à celle de Yahoo en 2005. À l'époque, Yahoo était l'une des entreprises les plus riches d'Internet, faisant des acquisitions agressives et dépensant de l'argent, mais elle ne pouvait tout simplement pas créer un moteur de recherche comme Google. L'argent n'est pas tout. Zuckerberg doit déterminer exactement ce que Meta veut faire avec l'IA, au lieu d'acheter simplement ce qui est tendance.
Bien sûr, il est trop tôt pour écrire l'obituaire de Meta. 3,58 milliards d'utilisateurs actifs mensuels, 59,9 milliards de dollars de revenus trimestriels et le plus grand ensemble de données sociales au monde sont des actifs qu'aucun concurrent ne peut facilement reproduire.
Si le modèle de prochaine génération, portant le nom de code Avocado, peut être livré comme prévu en 2026 et revenir au premier niveau, toutes les dépenses et restructurations de Zuckerberg seront présentées comme une "audace stratégique pour inverser la tendance". Mais s'il ne répond pas aux attentes à nouveau, alors les 135 milliards de dollars ne se traduiront que par des rangées d'entrepôts de plaquettes de silicium chauffées.
Après tout, la course aux armements de l'IA de la Silicon Valley n'a jamais manqué de super acheteurs agitant leurs chèques. Ce qui lui manque, ce sont des personnes qui savent comment utiliser cette puissance de calcul pour forger l'avenir.


