J’ai vu Satya Nadella partager une vidéo le 9 octobre 2025 montrant ce qu’il qualifie du premier système massif d’IA déployé par Microsoft. Sur Twitter, il promet que ce n’est que le début d’une série de « usines d’IA » Nvidia qui seront réparties dans les centres Azure à travers le monde.
Microsoft et Azure : l’argument de l’infrastructure disponible pour l’IA
Sur le fil, Nadella a mis en avant une capacité matérielle déjà en service, contrastant avec les annonces d’OpenAI visant à bâtir une flotte de centres de données. Microsoft rappelle qu’elle exploite plus de 300 data centers dans 34 pays, et qu’Azure est « positionné » pour absorber les charges des modèles de nouvelle génération. Le message vise autant les clients que les concurrents — de Google Cloud à Amazon Web Services, en passant par IBM, Meta, Alibaba Cloud et Oracle — et réaffirme la stratégie d’Azure : proposer de l’IA au plus près des usages.
Ce que contient une « AI factory » déployée par Microsoft et Nvidia
La vidéo montre un cluster composé de plus de 4 600 racks équipés de serveurs Nvidia GB300 et des puces Blackwell Ultra, interconnectés via la technologie InfiniBand de Nvidia. Cette interconnexion rapide s’appuie sur une acquisition stratégique : Nvidia avait racheté Mellanox pour 6,9 milliards de dollars en 2019, ce qui explique sa maîtrise du segment réseau. Microsoft dit viser le déploiement de des centaines de milliers de Blackwell Ultra GPUs pour répondre aux besoins d’entraînement et d’inférence des modèles lourds.
Techniquement, ces systèmes sont présentés comme capables de faire tourner des modèles mesurés en centaines de trillions de paramètres. C’est une promesse d’échelle qui cherche à rassurer les acteurs économiques et les chercheurs face aux investissements massifs en cours dans le secteur.
OpenAI, Stargate et la frénésie des giga data centers
À l’opposé, OpenAI multiplie les annonces d’infrastructures : accords avec Nvidia et AMD, partenariats industriels comme celui évoqué avec Oracle et SoftBank dans le cadre du projet Stargate, et des engagements évalués par certains observateurs à hauteur de $1 trillion pour construire des centres sur plusieurs continents. Cette course inquiète les autorités locales et les défenseurs de l’environnement, qui s’interrogent sur la consommation énergétique et l’impact territorial.
Pour décrypter ces mouvements, on peut relire les articles qui détaillent les alliances industrielles et les contrats d’infrastructure qui propulsent la révolution de l’IA. L’enjeu dépasse la simple puissance de calcul : il touche à l’emploi local, à la chaîne d’approvisionnement des puces et à la résistance des réseaux électriques. Plusieurs analyses et enquêtes récentes creusent ces dimensions et posent des questions pratiques sur la façon dont ces méga-projets seront financés et acceptés par les territoires (les contrats d’infrastructure, que cache vraiment l’essor des centres de données).
Tensions commerciales et stratégies multi-cloud
Le paysage se fragmente : OpenAI s’appuie sur des alliances externes — comme le partenariat avec Oracle et SoftBank pour Stargate — tandis que Microsoft met en avant son réseau existant et son intégration native avec Azure. D’autres acteurs, de Google Cloud à Amazon Web Services, restent en embuscade et cherchent leur propre position d’avantage, parfois en renforçant les offres de services managés ou en optimisant l’efficacité énergétique des fermes GPU.
Les marchés financiers suivent aussi : des analyses portent sur la manière dont les fabricants de puces financeront leur production massive — AMD et Nvidia en tête — et sur l’impact de ces flux d’investissements sur les cours (comment les actions d’AMD pourraient financer les achats de puces par OpenAI).
Ce que les collectivités, les chercheurs et les entreprises doivent retenir
J’ai rencontré une responsable d’un pôle de compétitivité local qui m’a dit que l’arrivée de ces centres change déjà les priorités territoriales : énergie, formation, logistique. Les collectivités cherchent des compensations concrètes — emplois, formation, réseaux — quand les groupes tech promettent vitesse et puissance. Pour nourrir le débat public, des spécialistes de l’infrastructure comme ceux cités dans l’actualité proposent des cadres de régulation et des solutions pour limiter l’empreinte écologique (l’exemple chinois est souvent évoqué).
Dans ce contexte, il vaut la peine de suivre aussi la trajectoire des autres acteurs de l’IA : Anthropic renforce ses équipes d’infrastructure (Anthropic accueille un nouveau directeur technique), et les débats autour des événements comme le DevDay d’OpenAI restent des repères pour mesurer l’évolution des stratégies (à quoi s’attendre pour DevDay 2025).
Insight : dans la bataille des centres de données, l’avantage ne se résume pas à la taille; il mêle réseau, coût énergétique, acceptation locale et capacité à industrialiser l’IA pour des usages réels. Cette alchimie déterminera qui, entre Microsoft, OpenAI, Google Cloud, Amazon Web Services, IBM, Meta, Alibaba Cloud ou Oracle, restera maître du terrain.
Image credit : Stephen Brashear / Getty Images