Le point
de vue de Patrick Nollet, CTO de Tennaxia.
Cent millions
d’utilisateurs deux mois après son lancement : jamais une technologie n’avait
conquis à ce point les consciences collectives. L’irruption de ChatGPT dans le
paysage numérique mondial a cristallisé espoirs, curiosités et angoisses. Mais
comme souvent dans l’histoire de l’innovation, l’emballement précède la
réflexion. L’enjeu consiste désormais à déterminer avec rigueur les usages où
l'intelligence artificielle va rendre réellement service. En particulier, et si
l’on se posait la question de son impact sur les sujets de durabilité ?
Les technologies dites
"génératives" se distinguent par leur capacité à produire du texte,
du code, des images ou des raisonnements, en agrégeant des corpus existants à
l’aide de modélisations statistiques, et en proposant un résultat plausible.
S’il l’on peut débattre du qualificatif d’intelligence associé à une telle
démarche, fondamentalement ancrée dans le déjà-vu, on ne peut nier que cette
production automatique de contenu est impressionnante et possède de nombreux
domaines d’application.
Pourtant, leur coût physique est loin d’être négligeable. L’impact environnemental de l’intelligence artificielle, bien que difficile à quantifier avec précision, commence à susciter de sérieuses préoccupations. Loin des représentations immatérielles qui entourent souvent le numérique, l’IA repose sur des infrastructures bien concrètes : GPU surdimensionnés, datacenters géants, consommation excessive d’électricité, d’eau et de ressources au sens large. Dans un contexte où les directions RSE et HSE sont de plus en plus sollicitées sur les obligations liées à la sobriété énergétique – notamment dans les datacenters – ce sujet ne peut être éludé. Enfin, l'entraînement d’un modèle à large échelle et son usage ont tous les deux un impact environnemental significatif.
À ce sujet, la startup française d’IA Mistral a fait preuve d’une transparence
rare, en publiant le 22 juillet dernier - en collaboration avec l’Ademe et
Carbone 4 - une étude sur l’impact, notamment sur les émissions de CO₂,
de l’entraînement et l’usage de ses modèles. Cette étude révèle que si une
requête formulée à leur agent conversationnel n’équivaut, en empreinte carbone,
qu’à 5 mètres parcourus en voiture, l’entraînement d’un seul de leurs modèles
équivaut pour sa part à parcourir deux fois le tour de la Terre. Ce chiffre, à
lui seul, devrait inciter à une forme de sobriété. Du côté des entreprises,
grandes utilisatrices de l’IA, la tension devient évidente entre impératifs de
performance technologique et objectifs de réduction des émissions qu’elles
s’imposent dans le cadre de leur trajectoire RSE. Plus généralement, certaines
voix comme Jean-Marc Jancovici n’hésitent plus à poser frontalement une
interrogation fondamentale : quelle est, au juste, l’utilité sociale de ces
outils si coûteux pour l’environnement ?
L'IA est un
amplificateur. Loin d'être une finalité en elle-même, elle se positionne comme
un catalyseur puissant, capable d'amplifier les capacités humaines et
systémiques. Son rôle fondamental est d'optimiser l'exécution des tâches, en
apportant une rapidité et une efficacité sans précédent. Par conséquent, la
valeur sociétale de l'IA est indissociable de la nature des objectifs que son
utilisateur cherche à atteindre. Dans le contexte actuel, marqué par l'urgence
croissante des défis liés à la durabilité – qu'ils soient environnementaux,
sociaux ou économiques – l'intégration de l'IA pour aborder ces enjeux apparaît
non seulement comme une démarche pertinente, mais également comme une nécessité
légitime.
Dans le secteur de la
durabilité, la tentation est donc grande, dans les entreprises, de vouloir
"faire de l’IA" à tout prix tant la promesse semble belle :
production de rapports facilitée, détection d’erreurs automatique, association
de facteurs d’émissions en un clin d’œil… Pourtant, la réalité est toute autre.
Plus que dans tout autre secteur, les données RSE et HSE se doivent d’être
parfaitement auditables. Or, l’IA est notoirement une boîte noire qui s’oppose
à la traçabilité de la donnée depuis sa collecte jusqu’au rapport. Comment
justifier des heuristiques de contrôles de données mises en place si l’on s’est
reposé sur l’IA pour faire le tri ? De l’association d’une donnée avec un
facteur d’émissions fourni par l’IA ? Du fait que la réponse à tel indicateur
est extrêmement vague faute de données, ce qui n’a pas dérangé l’IA mais aurait
alerté un contributeur humain ?
Ne nous laissons pas éblouir par les prouesses de l’IA. Sa nature statistique fait que le contenu qu’elle génère nous apparaît plausible, emporte notre confiance et monopolise notre attention. Car, quelque importante qu’elle soit, ce n’est pas la donnée qui transformera nos entreprises. C’est notre capacité à rendre cette donnée actionnable et à la mettre en mouvement, en l’entourant d’une gouvernance claire, et en développant la capacité collective à s’en saisir. Il convient de redoubler de vigilance lorsqu’on associe l’IA à la production de contenu stratégique et auditable. Utilisons-la pour automatiser la configuration de nos outils, pour gagner en qualité en analysant les réponses à des questionnaires que nous n’aurions jamais pris le temps de traiter manuellement, en l’utilisant comme assistant pour se former sur les sujets de durabilité, mais ne perdons jamais la maîtrise et la traçabilité de nos données. Et, surtout, ne perdons pas de vue qu’elle n’est qu’un outil pour atteindre nos objectifs de performance durable. Il en va de la crédibilité de nos entreprises.


