Data centers et infrastructures numériques, la course aux capacités de calcul

Derrière chaque requête ChatGPT, chaque film en streaming et chaque transaction bancaire, des milliers de serveurs tournent jour et nuit dans des bâtiments hyper-sécurisés. Ces data centers forment l’ossature physique d’internet et de l’intelligence artificielle. Le marché mondial pèse désormais 241,1 milliards de dollars en 2026 selon Global Market Insights, avec une trajectoire vers 434,7 milliards à l’horizon 2035. La cause de cet emballement tient en deux lettres, IA. L’entraînement des grands modèles de langage exige une puissance de traitement que personne n’avait anticipée il y a seulement trois ans. Cette explosion redessine la carte mondiale des infrastructures, met sous pression les réseaux électriques et transforme la souveraineté numérique en enjeu géopolitique de premier ordre. La France, avec son mix énergétique nucléaire et ses 109 milliards d’euros d’investissements annoncés en 2025, joue une partition singulière dans cette compétition planétaire. Voici ce qu’il faut comprendre de cette mutation pour 2026.

Pourquoi les capacités de calcul sont devenues le nerf de la guerre numérique

L’expression revient partout dans les rapports stratégiques européens. Pourtant, peu de gens mesurent ce qu’elle recouvre concrètement.

Une demande qui double tous les ans

Selon les chiffres remontés par France Datacenter au gouvernement français, les capacités de calcul doublent chaque année. Cette progression suit la trajectoire de l’IA générative. Un modèle comme GPT-4 a nécessité plusieurs dizaines de milliers de GPU pendant des mois. Les modèles de raisonnement sortis en 2025 et 2026 demandent encore davantage de ressources, à la fois pour l’entraînement et pour l’inférence.

Le cabinet Gartner prévoit des dépenses mondiales en systèmes de data centers à 653 milliards de dollars en 2026, soit une croissance de 31,7 % par rapport à l’année précédente. Du jamais vu dans le secteur. JLL parle d’un supercycle d’infrastructure de 3 000 milliards de dollars d’ici 2030, avec environ 100 GW de nouvelles capacités à construire dans le monde.

La pénurie de GPU change la donne

Les processeurs Nvidia Grace Blackwell GB300, qui équipent les nouveaux clusters, sont l’objet d’une compétition féroce. Chaque puce intègre 288 Go de mémoire HBM3e. Un rack GB200 NVL72 réunit 72 GPU dans un châssis refroidi par liquide qui délivre plus d’un exaflop en précision FP4.

Cette tension sur l’approvisionnement crée des effets concrets pour les directions des systèmes d’information. Les délais d’accès aux ressources s’allongent. Les coûts d’infrastructure grimpent. La dépendance vis-à-vis de quelques fournisseurs s’accentue. Pour beaucoup d’organisations publiques et d’entreprises de taille intermédiaire, sécuriser localement de la puissance de calcul est devenu un sujet stratégique autant que technique.

Une concentration sans précédent

L’Uptime Institute prévoit qu’environ 10 gigawatts de nouvelle capacité informatique seront ajoutés aux datacenters mondiaux d’ici fin 2026, exclusivement pour l’IA générative. Cette concentration se fait au profit d’une poignée d’opérateurs. Microsoft, Google, AWS, Meta et Oracle absorbent l’essentiel du gâteau. Les entreprises classiques limitent quant à elles leurs investissements internes à l’inférence et à des charges spécifiques d’entraînement.

Un parc mondial en pleine recomposition géographique

Le paysage des infrastructures numériques ne ressemble plus à ce qu’il était il y a cinq ans. La carte se redessine chaque trimestre.

Les États-Unis dominent toujours

Environ un tiers des centres recensés dans le monde se trouvent sur le sol américain. Cette domination s’explique par l’historique du secteur. Les géants du cloud y sont nés. La demande domestique en services numériques y est massive. Le projet Stargate, doté de 500 milliards de dollars, ambitionne de creuser encore l’écart.

L’Europe joue sa carte

Le Royaume-Uni, l’Allemagne, la France et les Pays-Bas concentrent la majorité de la capacité européenne. Londres reste un hub historique grâce à sa place financière. Francfort tire parti de son rôle d’interconnexion. Paris et Marseille montent en puissance avec une dynamique inédite.

La France, troisième européen

Selon les données compilées début 2026, la France compte entre 322 et 350 data centers opérationnels. La capacité installée a atteint 714 MW fin 2024, en progression de 40 % en un an. Le pays vise 500 data centers et 2,3 GW à l’horizon 2030. La concentration est forte en Île-de-France, qui rassemble près de 30 % du parc national.

48 projets avancés ont été cartographiés par La Tribune, représentant les 109 milliards d’euros d’investissements annoncés lors du sommet Choose France de mai 2025. Le Paris Digital Park à La Courneuve est probablement le chantier le plus emblématique du moment, sur une ancienne friche industrielle de Seine-Saint-Denis.

L’intelligence artificielle bouleverse l’architecture des centres

Les bâtiments ne se construisent plus comme avant. Tout change, depuis la distribution électrique jusqu’aux faux-planchers.

Les densités explosent

Il y a dix ans, un rack moyen consommait 5 à 8 kW. En 2015, on parlait de 10 kW. Aujourd’hui, les clusters IA dépassent 30 kW pour les configurations standards. Les systèmes Nvidia GB200 NVL72 fonctionnent à 120 kW par rack. Le futur Vera Rubin NVL144 vise 600 kW par rack d’ici fin 2026. Une telle évolution était inimaginable il y a trois ans.

Pour donner une idée, un seul rack de 100 kW consomme autant d’énergie que 80 foyers américains. Il génère une chaleur équivalente à celle de 30 chaudières résidentielles. Il pèse plus que trois berlines réunies. Et il en faut plusieurs centaines pour entraîner un seul modèle frontière.

Le refroidissement liquide devient incontournable

L’air a une capacité thermique faible. Il transporte environ 3 000 fois moins d’énergie par unité de volume que l’eau. Le refroidissement par air atteint sa limite physique autour de 41,3 kW par rack. Au-delà, les volumes d’air à brasser deviennent ingérables.

Le marché du refroidissement liquide a atteint 5,52 milliards de dollars en 2025. Plusieurs technologies coexistent. Le direct-to-chip fait circuler un fluide caloporteur via des plaques froides posées sur les processeurs. L’immersion plonge l’ensemble du serveur dans un fluide diélectrique. L’immersion biphasique pousse encore plus loin avec des fluides qui bouillent à des températures contrôlées entre 34 et 56 degrés.

L’adoption progresse vite. Selon les dernières études, 22 % des centres ont basculé sur du refroidissement liquide. Le direct-to-chip représente 47 % du marché. Le retour sur investissement se situe entre 3 et 5 ans pour les environnements à forte densité.

La conception devient modulaire

Les hyperscalers ne pensent plus en bâtiments mais en campus. Les déploiements se font par grands incréments, avec synchronisation serrée entre la livraison du foncier, les raccordements électriques et la mise en service des GPU.

Le mur énergétique se dresse devant la filière

L’IA mange littéralement de l’électricité. Les opérateurs en sont parfaitement conscients et le sujet remonte au plus haut niveau politique.

Une consommation qui dérape sur les capacités de calcul

Outre-Atlantique, les data centers devraient absorber environ 9 % de la demande électrique du pays d’ici quelques années. La feuille de route GPU de Nvidia montre une consommation par puce qui double tous les deux ans, avec un objectif de 1 500 watts par puce en 2026. Cette pression remet en cause les engagements de neutralité carbone que beaucoup d’opérateurs avaient pris.

L’Uptime Institute a déjà annoncé que le décalage entre les délais de construction des data centers et la disponibilité des infrastructures électriques pour les alimenter va aggraver les difficultés du secteur. Plusieurs projets américains ont été retardés faute de raccordement disponible. La file d’attente côté RTE en France atteint 14 GW de demandes de raccordement, un chiffre qui donne le vertige.

L’avantage français se confirme

Le mix énergétique français représente environ 70 % d’électricité d’origine nucléaire. Les tarifs restent compétitifs pour les gros consommateurs industriels. La stabilité du réseau pèse autant dans le choix d’un site que la localisation géographique. Sur ce critère, la France devance l’Allemagne qui a engagé sa sortie du nucléaire et talonne le Royaume-Uni.

Un data center de 100 MW consomme l’équivalent d’une ville de 80 000 habitants. Pour les opérateurs hyperscale, l’accès à une énergie pilotable et décarbonée fait la différence. Ce qui explique l’attractivité grandissante du territoire français pour les investisseurs étrangers.

La récupération de chaleur fatale

Une piste se dessine pour réduire l’empreinte. Les calories rejetées par les serveurs peuvent alimenter des réseaux de chaleur urbains. Le procédé est mature techniquement. Il a déjà été déployé à Paris, à Stockholm et à Helsinki. La directive européenne sur l’efficacité énergétique impose désormais des audits rigoureux pour les centres dépassant certains seuils. Les opérateurs qui ne valorisent pas leur chaleur perdue se retrouvent sous pression réglementaire.

La souveraineté numérique pousse les capacités de calcul européennes

Le sujet est sorti du débat technique. Il occupe désormais les conseils des ministres et les sommets européens.

Mistral AI ouvre la voie

Le 30 mars 2026, Mistral AI a bouclé une levée de dette de 830 millions de dollars auprès d’un consortium de sept banques, dont Bpifrance, BNP Paribas, Crédit Agricole CIB et HSBC. Cette opération, la plus grosse jamais réalisée par une entreprise tech européenne en financement de dette, finance l’installation de 13 800 puces Nvidia GB300 à Bruyères-le-Châtel, dans l’Essonne.

Le site, opéré par Eclairion, doit ouvrir fin juin 2026 avec 44 MW de capacité. La puissance théorique du cluster atteindra 276 exaflops en FP4. Le choix de Bruyères-le-Châtel n’est pas anodin. La commune abrite déjà le Très Grand Centre de calcul du CEA, ce qui en fait un pôle HPC stratégique français. Le campus complet vise à terme 1,4 GW.

Les capacités de calcul européennes, un plan qui prend forme

Mistral AI a publié le 7 avril 2026 un livre blanc de 22 mesures intitulé « European AI, a playbook to own it ». Le document appelle à investir massivement dans des capacités de calcul européennes, à aligner les politiques énergétiques avec les besoins des centres et à imposer progressivement que les modèles d’IA critiques soient entraînés sur le sol européen.

L’ambition affichée est de 12 gigafactories IA en Europe, dont 4 en France pour 2 GW de puissance totale. Le gouvernement français a déjà sécurisé 26 sites pour la construction de data centers dédiés à l’intelligence artificielle. Une task force réunissant la DGE, RTE et Business France coordonne les procédures accélérées de permis de construire.

Le micro-distribué cherche sa place

Tous les acteurs ne misent pas sur les giga-campus. Policloud a annoncé au WAICF 2026 vouloir déployer 1 000 micro-data centers IA souverains d’ici 2030, avec 100 unités dès cette année. Ces installations modulaires accueillent des charges d’inférence et représenteraient à terme plus de 250 000 GPU répartis sur plusieurs continents. La logique repose sur la proximité des utilisateurs finaux, le respect des contraintes de souveraineté et la résilience par dispersion.

Tiers, certifications et standards qui structurent le marché des capacités de calcul

Le secteur ne fonctionne pas sans repères techniques partagés. La classification Tier en est l’épine dorsale depuis trente ans.

Le référentiel Uptime Institute

Établie en 1993 et formalisée en 1995, la classification Tier définit quatre niveaux de fiabilité. L’Uptime Institute a délivré plus de 4 000 certifications dans 122 pays. Un Tier I dispose d’une infrastructure de base avec composants uniques, soit 99,67 % de disponibilité ou environ 28 heures d’interruption par an. Le Tier II ajoute des composants redondants, ce qui porte la disponibilité à 99,74 %. Le Tier III repose sur plusieurs chemins de distribution simultanément actifs et autorise la maintenance sans coupure. Le Tier IV garantit 99,995 %, soit moins de 26,3 minutes d’interruption annuelle, avec une redondance 2N+1.

Les usages dictent le niveau

Toutes les charges ne demandent pas du Tier IV. Un site de e-commerce vivra très bien avec du Tier III. Une banque systémique, un opérateur télécom critique ou une plateforme d’inférence IA stratégique exigent du Tier IV. Les coûts ne sont pas les mêmes. Les délais de construction non plus. Le projet de Mistral AI à Bruyères-le-Châtel se positionne dans la catégorie haute, avec une exigence de continuité absolue pour les charges d’entraînement.

Les ISO complètent le dispositif

Au-delà du Tier, les certifications ISO 27001 sur la sécurité de l’information, ISO 50001 sur le management de l’énergie et ISO 14001 sur l’environnement deviennent des standards attendus. Le marché français des centres de traitement de données est évalué à 8,41 milliards de dollars en 2026 selon Mordor Intelligence et EY. La conformité multi-référentiels pèse de plus en plus dans les appels d’offres publics.

Ce que les capacités de calcul changent pour les entreprises et les territoiress

Les choix d’aujourd’hui engagent les organisations sur dix ou quinze ans. Les arbitrages techniques et financiers ne pardonnent pas l’à-peu-près.

Le coût des capacités de calcul s’invite dans les budgets

Pour un rack GB200 NVL72 hébergé en colocation à Paris, le coût mensuel se situe entre 12 000 et 20 000 euros hors matériel. Le surcoût du refroidissement liquide par rapport au refroidissement air avoisine 20 à 40 %. Les data centers dépensent entre 1,9 et 2,8 millions de dollars par mégawatt et par an, dont environ 500 000 dollars uniquement pour l’énergie et l’eau de refroidissement. Ces chiffres bousculent les modèles financiers que les directions IT utilisaient encore récemment.

Les territoires se réorganisent

L’arrivée d’un data center de plusieurs centaines de mégawatts transforme l’économie locale. Le foncier se valorise. Les besoins en eau, en raccordement HT et en main-d’œuvre qualifiée explosent. Bruyères-le-Châtel, Marseille avec ses câbles sous-marins, le nord de la France et la région lyonnaise voient affluer des projets dont l’empreinte dépasse celle des zones industrielles classiques. Les collectivités locales doivent désormais arbitrer entre attractivité économique et acceptabilité sociale, dans un contexte où le bruit, la consommation d’eau et la pression foncière deviennent des sujets de débat public.

Les capacités de calcul exigent des compétences rares

Concevoir, exploiter et maintenir des infrastructures numériques de cette densité demande des profils que les écoles ne forment pas en nombre suffisant. Ingénieurs thermiciens spécialisés en refroidissement liquide, électriciens haute tension capables de dimensionner du 480 V triphasé, architectes systèmes maîtrisant les charges d’inférence distribuée. La pénurie de talents s’ajoute à la pénurie de GPU et à la pénurie d’électricité. Les entreprises qui anticipent cette triple tension prendront un temps d’avance considérable sur leurs concurrents.

Le choix du fournisseur change de nature

Les directions des systèmes d’information ne choisissent plus seulement un hébergeur. Elles sélectionnent un partenaire stratégique dont la capacité à fournir de la puissance de calcul sur la durée conditionne directement leur compétitivité. Les critères évoluent. Densité maximale supportée par rack, feuille de route refroidissement, qualité de l’interconnexion, conformité aux exigences de souveraineté, reporting carbone en temps réel. La discussion technique remplace progressivement la négociation commerciale classique.