Une analyse de
Combodo, éditeur de logiciel ITSM.
L’intelligence
artificielle arrive à pas de velours dans la gestion des services IT. En
parallèle, l’essor de l’open source dans ce domaine soulève des questions
cruciales pour les DSI et les utilisateurs d’outils ITSM. Alors que les
entreprises cherchent à tirer parti des capacités d’IA pour améliorer leurs
processus de support, de gestion des incidents et de maintenance, les
responsables IT sont face à un nouveau dilemme : propriétaire ou Open Source ?
L’IA dans l’Open Source
: quel modèle privilégier ?
• IA propriétaire sur un outil open
source
Beaucoup d’acteurs ITSM
font le choix d’intégrer des briques d’IA propriétaires à des outils open
source existants. Cette combinaison présente un avantage indéniable : elle
permet une mise en œuvre rapide, souvent grâce à des API prêtes à l’emploi,
avec un niveau d’intégration avancé. L’éditeur assure le support, les mises à
jour et parfois même l’entraînement du modèle sur des données métiers
anonymisées. Mais cette approche introduit une dépendance structurelle
vis-à-vis du fournisseur. Les coûts sont souvent récurrents, parfois difficiles
à anticiper. Quant au modèle lui-même, il reste une boîte noire, rarement
auditée, ce qui peut poser problème dans des contextes soumis à des obligations
de conformité ou de traçabilité.
• IA open source auto-hébergé
À l’autre extrémité du
spectre, certaines entreprises choisissent de déployer leurs propres modèles
open source, en local, sur leur infrastructure. Cette solution offre un
contrôle maximal : l’entreprise maîtrise ses données, son architecture, ses
traitements. Elle peut adapter les modèles à ses processus métiers, les
entraîner avec ses propres corpus, et garantir un niveau élevé de
confidentialité. Cependant, cette autonomie a un coût. Elle exige des
compétences techniques avancées, tant pour l’intégration que pour la
maintenance des modèles. Il faut également disposer d’infrastructures de calcul
adaptées, gérer les mises à jour, monitorer les performances, et assurer la
sécurité de l’ensemble du pipeline IA.
• IA Open source managé (cloud tiers)
Pour alléger ces
contraintes techniques, certaines entreprises se tournent vers des modèles open
source accessibles via des plateformes cloud managées. Cette option permet de
bénéficier de la richesse de l’open source tout en déléguant la gestion opérationnelle.
Les modèles sont accessibles rapidement, avec des mises à jour régulières et
une scalabilité immédiate. En revanche, cette solution impose une perte de
contrôle partielle. Les données sont transférées vers des environnements tiers,
parfois soumis à des réglementations extra-européennes. De plus, le modèle
économique repose souvent sur la consommation, ce qui introduit une variabilité
importante dans les coûts d’exploitation.
• Approche hybride
De plus en plus
d’organisations adoptent une stratégie hybride. Elles combinent des modèles
propriétaires et open source, auto-hébergés ou managés, selon les cas d’usage
et les exigences métiers. Cette approche permet de conjuguer flexibilité,
sécurité et performance. Mais cette hybridation ajoute une couche de
complexité. Elle nécessite une gouvernance claire, une définition précise des
responsabilités et une architecture capable d’absorber cette diversité sans
générer de silos ou d’incohérence.
Les vraies questions à se poser pour faire un choix
1. Quels sont les véritables atouts de l’open source pour l’IA ?
Le principal avantage
de l’open source réside dans la transparence. Contrairement aux modèles
propriétaires souvent opaques, les modèles ouverts peuvent être audités,
compris, modifiés. Cela permet de garantir une meilleure traçabilité,
essentielle pour répondre à des exigences réglementaires ou sectorielles
strictes. L’innovation communautaire est un autre moteur puissant. Des
écosystèmes comme Hugging Face ou PyTorch dynamisent la recherche et
l’expérimentation, tout en rendant accessibles des modèles de plus en plus
performants. L’ouverture de ces outils permet de créer des IA sur-mesure,
adaptées aux réalités des métiers ITSM, plutôt que d’imposer des solutions
génériques. Enfin, des initiatives comme le protocole MCP vont dans le sens
d’une standardisation des échanges entre outils IT et briques d’IA. Cela
pourrait simplifier considérablement les intégrations et favoriser l’émergence
d’un socle technologique commun.
2. L’open source peut-il garantir la qualité des modèles d’IA face aux géants du cloud ?
Les géants du cloud
disposent d’une avance technologique et d’une puissance de calcul
considérables. Leurs modèles sont robustes, entraînés à grande échelle, et
continuellement améliorés. Face à cela, les modèles open source évoluent
rapidement, mais souffrent de moyens plus limités pour les tests et la
production. Le choix entre un grand modèle généraliste et un petit modèle
spécialisé dépend du contexte. Dans l’ITSM, un modèle léger, entraîné sur des
tickets internes, peut être plus pertinent qu’un modèle très large mais peu
contextualisé. Il s’agit donc de faire un arbitrage entre ampleur, précision et
adaptabilité. L’un des leviers de l’open source reste la mutualisation. Partage
de jeux de données, outils de fine-tuning collaboratif, modèles open weights :
ces mécanismes permettent à l’écosystème open source de progresser de manière
collective, sans dépendre d’un acteur unique.
3. L’open source est-il
un gage de souveraineté technologique en matière d’IA ?
La question de la
souveraineté est aujourd’hui centrale pour les DSI. Avec un marché dominé par
quelques plateformes, l’open source semble offrir une issue. Elle permet de
garder la main sur les modèles, les données, et l’infrastructure. Mais cette
souveraineté n’est réelle que si l’entreprise dispose des compétences et des
ressources pour exploiter pleinement ces outils. La maîtrise de la chaîne de
valeur, depuis l’entraînement jusqu’au déploiement, est une condition
indispensable. Les régulations comme l’IA Act viendront renforcer cette
exigence de contrôle. Elles imposeront davantage de documentation, de
transparence, et de responsabilité sur l’usage des IA. Les modèles open source
devront s’y conformer s’ils veulent rester crédibles dans des environnements
critiques.
4. Quel équilibre entre
modèle économique durable et logique communautaire ?
L’open source ne
signifie pas gratuité. L’IA, en particulier, nécessite de la puissance de
calcul, de l’énergie, du stockage, du réseau. Ces ressources ont un coût,
souvent invisible à première vue, mais bien réel. Le financement de cette
infrastructure repose en partie sur des acteurs privés. Certains grands
fournisseurs cloud soutiennent activement des projets open source… tout en les
intégrant à leurs propres offres commerciales. Cette captation peut être perçue
comme une menace pour la neutralité de l’écosystème, ou comme une opportunité
de diffusion à grande échelle. Les modèles comme Llama 2 illustrent cette
évolution. Semi-ouverts, encadrés par des licences restrictives, ils incarnent
une forme d’hybridation entre open source et modèle propriétaire. Cela soulève
la question : sommes-nous en train de sortir de l’utopie open source au profit
d’un modèle plus réaliste, mais aussi plus ambigu ?
5. L’IA open source
est-elle vraiment plus éthique et durable ?
L’accessibilité est
souvent mise en avant comme un facteur d’inclusion. En théorie, l’open source
démocratise l’accès à l’IA. En pratique, seuls les acteurs capables de
mobiliser des compétences et des moyens peuvent en tirer une valeur réelle.
L’ouverture ne suffit pas à combler le fossé entre les organisations. Sur le
plan environnemental, l’IA open source n’échappe pas aux critiques. La
prolifération de modèles, l’entraînement systématique, les tests multiples
génèrent une empreinte énergétique significative. La notion d’IA “sobre”
commence à émerger, avec des approches plus légères, plus ciblées, mais encore
marginales. Enfin, la question de la propriété intellectuelle reste floue. De
nombreux modèles sont entraînés sur des données publiques, sans que leur statut
soit toujours clair. Qui détient réellement les droits sur ces contenus ? Et
que se passe-t-il lorsqu’un modèle, entraîné sur ces données, est commercialisé
? L’open source doit encore clarifier ces zones grises pour asseoir sa
légitimité.
L’open source
représente un levier stratégique pour construire des systèmes plus agiles, plus
transparents et mieux alignés sur les réalités métier. Dans le domaine de l’IA,
cette conviction se renforce : l’open source permet de garder la main sur les
données, de comprendre les décisions automatisées, et de choisir les bons
niveaux d’automatisation. Mais l’IA reste un choix. Un choix qui engage. Un
choix qui, bien utilisé, peut faire gagner un temps considérable aux équipes
support, améliorer l’expérience utilisateur et fluidifier les opérations. Ce
gain de temps a une valeur, et il est normal qu’il ait un coût. Ce que nous
refusons, en revanche, c’est que l’IA devienne un prétexte à la flambée des
prix ou à l’enfermement technologique.
Delphine Coille chez
Combodo, conclut : « Forte d’une expérience de plus de 20 ans dans
les systèmes d’information, orientée à la fois projets, processus et qualité,
j'ai toujours fait preuve d’un état d’esprit tourné vers la valeur aux
utilisateurs et la satisfaction client, que ce soit dans mes expériences comme
consultante ou Business Manager dans une ESN, comme responsable d'un
département Customer Success puis Responsable marketing produit et Community
Manager chez des éditeurs de solutions open source.
Aujourd’hui Responsable Produit chez Combodo, je mets ma connaissance du domaine des systèmes d'information et logiciel ainsi que ma culture de l’open source au service d’iTop et de ses utilisateurs. Cela en fédérant toutes les équipes pour faire évoluer les solutions qui répondent aux besoins de leurs utilisateurs et maximiser ainsi leur satisfaction »


