L’analyse de :
- Andy Fenton, VP Sales
and Marketing, Telehouse Canada,
- Ken Miyashita, Managing
Director, Telehouse Thaïlande, et
- Sami Slim, CEO,
Telehouse France
L’intelligence
artificielle n’est plus cantonnée aux laboratoires d’innovation. Elle est
désormais déployée à grande échelle et transforme en profondeur le
fonctionnement des data centers. Cette évolution se constate en Asie, en Europe
comme en Amérique du Nord, où les organisations cherchent à rapprocher les
moteurs d’inférence des utilisateurs finaux et des sources de données. En
conséquence, la conception des infrastructures, les critères d’achat et les
stratégies à long terme des data centers évoluent rapidement.
Il s’agit souvent de
rapprocher la puissance de calcul des zones de consommation. Par exemple, les
enseignes de la grande distribution installent des micro-régions en périphérie
urbaine pour que leurs moteurs de recommandation répondent en quelques millisecondes.
De leur côté, les salles de marchés exécutent des traductions en temps réel
depuis des racks dépassant les 100 kW, avec refroidissement liquide, et
connectés à la même boucle fibre que les moteurs de correspondance boursiers.
Si ces GPU étaient installés plus loin, la latence du réseau effacerait tout le
gain de performance lié à la puissance de calcul.
Ce besoin de rapprocher
les charges IA des points de génération de données pousse les exploitants de
data centers et leurs clients à repenser entièrement la conception, la
connectivité et la gestion de leurs infrastructures pour suivre le rythme de la
prochaine vague de croissance de l’IA.
Des services conçus
pour durer
L’IA évolue si vite que
l’infrastructure doit pouvoir s’adapter en quelques mois, et non en quelques
années. Cela implique de prévoir des zones GPU à haute densité, de déployer des
routes en fibre noire contournant les points de congestion, et de concevoir des
aménagements capables de passer de l’air au refroidissement liquide sans
reconstruction complète. Si un fournisseur ne peut pas rapidement augmenter ses
plafonds de puissance et de dissipation thermique, les projets IA risquent
d’être bloqués.
La connectivité est un
autre enjeu majeur, souvent sous-estimé. Une étude récente menée par S&P
Global Market Intelligence – 451 Research pour Telehouse, auprès de plus de 900
cadres IT dans le monde, révèle que plus de 90% des entreprises considèrent
les accès cloud comme un élément clé de leur architecture IA/ML. Plus de 55%
signalent même des problèmes réseau importants liés à l’IA.
Dans les faits, ces
préoccupations poussent les entreprises vers des campus de data centers neutres
vis-à-vis des opérateurs, avec des connexions optimisées vers les clouds
hyperscale, des délais de mise en service réduits à quelques jours, et une
bande passante évolutive. Les entreprises nativement axées sur l’IA
privilégient désormais la densité d’interconnexion et la rapidité
d’approvisionnement plutôt que la seule surface au sol. Elles arrivent avec des
exigences techniques précises et attendent que l’écosystème soit prêt dès le
premier jour.
La demande pour des
services spécialisés — comme le GPU-as-a-Service ou des environnements adaptés
à différents types de charges IA — ne cesse de croître.
Certains data centers
allouent déjà plusieurs mégawatts au refroidissement liquide dédié aux GPU.
D’autres accompagnent les acteurs de l’IA transfrontaliers dans le respect des
réglementations locales en matière de souveraineté des données. Les fournisseurs
d’infrastructures ne doivent plus se contenter de comprendre le matériel, ils
doivent maîtriser les charges applicatives. Cela suppose une expertise
d’ingénierie, des budgets énergétiques transparents, et une capacité à
moderniser les installations en fonction des impératifs économiques.
Les bonnes questions à
se poser pour anticiper l’IA
À mesure que l’IA prend
de l’ampleur, il devient essentiel de poser les bonnes questions lors de
l’évaluation des capacités d’un data center. Tout commence par l’analyse des
charges de travail : quels systèmes, utilisateurs ou flux de données doivent
être connectés ? Cette définition des cas d’usage est cruciale, car les besoins
en matière de localisation, de refroidissement ou d’interconnexion diffèrent
fortement entre l’apprentissage (training) et l’inférence.
Les acheteurs doivent
se renseigner sur la capacité maximale actuelle par rack, les seuils précis qui
déclenchent une montée en puissance, ainsi que sur la feuille de route du
refroidissement : quand et comment le liquide sera-t-il introduit ? Ils doivent
également identifier les carriers et passerelles cloud disponibles dès
l’ouverture, connaître les latences garanties et s'assurer du respect des
règles de souveraineté des données et des exigences en matière de reporting
carbone en temps réel.
Anticiper les besoins à
18 mois
Trois grandes tendances
façonneront les exigences jusqu’en 2026 :
1. Les éditeurs de
logiciels grand public intègrent des assistants génératifs dans les suites
bureautiques et plateformes de relation client, multipliant les transactions
d’inférence dans les cœurs urbains.
2. Les indicateurs de
durabilité
passent des rapports annuels aux tableaux de bord en temps réel. Boucles de
récupération de chaleur, comptage énergétique granulaire et optimisation des
bâtiments via machine learning vont devenir la norme.
3. La pression
budgétaire
pousse à la création d’écosystèmes collaboratifs où opérateurs cloud,
fournisseurs de télécoms et spécialistes des data centers mutualisent risques
et marges pour proposer des plateformes IA intégrées, capables de monter en
charge rapidement.
Vers des
infrastructures IA réparties et durables
À plus long terme, les
charges d’inférence IA seront ancrées au plus près des utilisateurs, attirant
les investissements vers des zones urbaines bien connectées ou en périphérie
(edge). En parallèle, les conceptions modulaires, prêtes pour le refroidissement
liquide, continueront de démontrer leur efficacité, permettant d’augmenter les
densités de calcul sans reconstruction complète. La qualité de l’interconnexion
pèsera désormais autant dans le choix d’un site que le prix au kilowatt ou le
rendement énergétique.
Les indicateurs de
durabilité et modèles de partenariat ne sont plus des ambitions, mais des
attentes concrètes. L’efficacité énergétique et la capacité de collaboration
définiront la compétitivité des fournisseurs pour le reste de la décennie.
Les entreprises qui
planifient leur prochaine étape doivent comprendre la nature de leurs charges
IA, quantifier les limites actuelles et s’entourer de partenaires capables de
faire évoluer la puissance, le refroidissement et la connectivité au rythme que
l’IA impose.


