Le point de vue de Rizwaan Raja chez nlighten.
L'intelligence
artificielle promet d'apporter d'énormes bienfaits à la société tout en
transformant les entreprises et l'industrie grâce à des méthodes beaucoup plus
rapides et intelligentes pour accomplir une multitude de tâches. Parallèlement,
les applications d'IA engendreront une demande croissante d'espace dans les
datacenters et une consommation énergétique considérable.
La dernière
configuration de baie NVIDIA GB200 consomme plus de 120 kW par exemple. De
plus, selon une étude récente, un système d'IA générative pourrait consommer
environ 33 fois plus d'énergie que des machines exécutant des logiciels dédiés
à une tâche spécifique.
L'IA exige des
ressources informatiques considérables et génère une quantité importante de
données.
Il existe différents
types d'IA : l'apprentissage automatique (ML) et ses variantes avancées,
l'apprentissage profond (DL) et l'intelligence artificielle générative (GenAI).
L'apprentissage automatique existe depuis un certain temps et est de plus en
plus déployé non seulement dans les secteurs de la recherche académique,
scientifique, médicale et gouvernementale, mais aussi dans l'industrie et les
entreprises commerciales.
Cependant,
l'apprentissage profond va plus loin que l'apprentissage automatique en
automatisant le processus d'apprentissage après la phase d'entraînement
initiale, ce qui lui permet d'apprendre et de s'améliorer sans intervention
humaine continue. La GenAI va encore plus loin en générant des réponses
semblables à celles des humains. ChatGPT en est un exemple typique. Il exploite
de grands modèles de langage (LLM) pour traiter d'énormes quantités de données
et générer du texte d'apparence humaine.
Les systèmes
d'apprentissage automatique (LLM) sont un sous-ensemble de l'IA, spécifiquement
conçus pour comprendre, générer et manipuler le langage naturel à une échelle
impressionnante, ce qui les rend essentiels dans des applications telles que
les chatbots, la création de contenu et la prise de décision avancée. L'intérêt
croissant pour l'apprentissage automatique (ML) et l'intelligence artificielle
générale (GenIA) ne fera qu'accélérer l'augmentation du volume de données
massives à traiter et à stocker. Ce sont les données, et en grande quantité,
qui sont au cœur de leur fonctionnement.
Ces trois types d'IA
nécessitent un apprentissage et une inférence : l'apprentissage s'effectue en
entraînant des modèles sur de vastes ensembles de données (Big Data), et
l'inférence permet d'appliquer ces modèles entraînés à de nouvelles données.
C'est ainsi qu'ils effectuent des prédictions ou prennent des mesures
spécifiques.
Nous n'en sommes qu'aux
prémices de l'aventure de l'IA. Cependant, à mesure que la société génère
toujours plus de données grâce à l'utilisation des technologies et de leurs
applications, nous savons que l'IA offre un potentiel immense pour stimuler
l'innovation dans de nombreux usages.
Adopter une approche
hybride de l'IA
Face aux exigences
croissantes de l'IA, un modèle de datacenters hybride s'impose comme la
solution la plus efficace, combinant les atouts des datacenters centralisés et
edge.
Datacenters centralisés
pour l'apprentissage de l'IA
La phase d'entraînement
de l'IA, qui consiste à construire des modèles à partir de vastes ensembles de
données, requiert une puissance de calcul considérable. Les datacnetrs
centralisés, souvent situés dans des zones non métropolitaines où l'énergie et
le foncier sont moins chers, sont parfaitement adaptés à ce processus gourmand
en ressources. Ces grandes infrastructures peuvent héberger le système de
calcul haute performance (HPC) nécessaire à l'entraînement des modèles d'IA.
Datacenters Edge pour
l'inférence de l'IA
La phase d'inférence de
l'IA, où les modèles appliquent leur entraînement pour prendre des décisions en
temps réel, est mieux adaptée aux Datcenters edge. Plus petits et distribués,
ces Datacenters sont plus proches des utilisateurs finaux et des appareils,
permettant un traitement en temps réel à faible latence pour des applications
telles que les véhicules autonomes, le diagnostic médical et les objets
connectés. En décentralisant les tâches d'inférence, les datacenters edge
réduisent ainsi la dépendance aux hubs centraux, améliorant les performances et
l'efficacité.
Les datacenters edge
permettent également d'atténuer les problèmes de consommation énergétique
croissante en évitant de dépendre entièrement d'un seul grand datacenter où le
coût de l'électricité est déjà élevé. Une partie de la charge énergétique peut
être répartie entre plusieurs datacenters edge écoénergétiques, situés dans des
régions où l'électricité est moins chère. On bénéficie également de la présence
de sites de production d'énergie durable et décentralisés, hors de portée des
hubs centralisés.
De plus, un partenariat
avec des opérateurs de datacenters Edge qui collaborent avec les fournisseurs
d'énergie locaux pour soutenir la stabilisation du réseau et les initiatives
locales de réutilisation de la chaleur, contribue à renforcer la durabilité et
la neutralité carbone.
Bon à savoir
1. Réduction de la
latence :
Les datacenters edge sont conçus pour être situés au plus près des utilisateurs
et des appareils qui génèrent et consomment des données. Cette proximité réduit
considérablement la distance que doivent parcourir les données, ce qui diminue
fortement la latence et permet des réponses plus rapides, voire en temps réel.
Ceci est particulièrement important pour l'inférence dans les applications
d'IA, car il est nécessaire de traiter des données spécifiques et de prendre
des décisions en quasi temps réel.
2. Optimisation de la
bande passante :
Le transfert de données entre les appareils et un centre de données centralisé
peut consommer une quantité importante de bande passante réseau, ce qui peut
entraîner une congestion du réseau et une augmentation des coûts. En traitant
les données localement dans un centre de données edge, les applications d'IA
peuvent utiliser la bande passante plus efficacement et réduire le volume de
données à transmettre sur le réseau.
3. Sécurité et
confidentialité :
Certaines applications d’IA traitent des données sensibles ou privées qui
doivent être protégées. Le traitement local de ces données dans un datacenter
edge permet de réduire les risques de fuites de données en minimisant le volume
de données transmises sur le réseau longue distance. Il assure également une
meilleure conformité aux lois sur la souveraineté des données, qui imposent le
stockage et le traitement de certains types de données dans des zones
géographiques spécifiques.
4. Fiabilité et
redondance :
Les datacenters edge peuvent continuer à fonctionner même en cas de perte de
connexion réseau avec le datacenter centralisé. Ceci est essentiel pour les
applications d’IA nécessitant une disponibilité continue, comme dans les
secteurs de la santé ou de l’automatisation industrielle.
5. Évolutivité : Les datacenters edge
permettent d’augmenter la capacité selon les besoins sans impacter
significativement l’infrastructure centralisée. Ceci est particulièrement utile
lorsque le volume de données générées est en constante augmentation, comme
c’est souvent le cas pour les applications d’IA.
En résumé, face à la croissance continue de la demande en IA, une approche de déploiement informatique trop centralisée risque d’entraîner des limitations de performance liées à la latence, notamment pour l’inférence. L'utilisation de datacenters edge, en complément des infrastructures centralisées, peut ainsi offrir une solution plus équilibrée, plus économique et plus optimisée.


