Le point de vue de Mehdi Kharab chez Colibri.
Le marché de la data
science connaît actuellement une forte montée en puissance de la demande en
machine learning dans tous les secteurs. La prévision des ventes n’y échappe
pas : les algorithmes dopés au machine learning sont de plus en plus présentés
comme le nouveau standard ultime. Il est vrai que l’essor de modèles de machine
learning très performants ces dernières années est indéniable. Cependant, il
reste essentiel de conserver une distance critique face aux discours marketing,
aussi séduisants soient‑ils. Comprendre la portée et les limites de l’approche,
savoir quand l’utiliser selon les besoins métier et les capacités internes, et
être capable d’interpréter les résultats sont des conditions indispensables
pour réellement créer de la valeur.
Histoire du Machine
Learning en Prévision
Le machine learning et
l’intelligence artificielle sont souvent présentés comme des technologies
révolutionnaires suscitant un engouement disproportionné. Pourtant, le machine
learning apparaît dès les années 1950‑1960 et gagne en maturité à partir des
années 1980. Son utilisation en prévision remonte aux années 1960 avec les
arbres de décision, et s’est nettement renforcée dans les années 1990.
Depuis 1982, les
compétitions Makridakis rassemblent des chercheurs du monde entier pour
comparer les méthodes de prévision. Pendant près de 40 ans, aucun modèle
classique n’avait été surpassé. Notamment, lors de l’édition 2020, les dix‑sept
modèles de machine learning testés ont obtenu des résultats inférieurs à ceux
du modèle Naïf le plus simple — un résultat surprenant. Pourtant, en l’espace
d’un an, le paysage a changé radicalement. De nouveaux modèles intégrant des
variables explicatives supplémentaires (« features ») et des mécanismes avancés
pour éviter le surapprentissage ont commencé à dépasser toutes les approches
précédentes.
En retail, ces features incluent notamment les prix, les tendances
historiques, les promotions, les ruptures de stock ou les canaux de
distribution. La qualité et la pertinence de ces données enrichies améliorent
considérablement la précision des prévisions.
Depuis 2021, la
recherche en machine learning a fortement accéléré : jeux de données plus
volumineux, capacités de calcul accrues, compétitions internationales et
mobilisation de larges communautés. Les modèles riches en variables
explicatives ont rapidement gagné en cohérence et en rapidité, dépassant
souvent les méthodes classiques. Des compromis subsistent néanmoins. Ces
modèles sont gourmands en ressources, plus sensibles au surapprentissage et
fortement dépendants de données propres et bien structurées. Une donnée de
mauvaise qualité peut dégrader leurs performances. Ils sont aussi moins
robustes, plus instables et parfois difficiles à interpréter. Contrairement aux
modèles classiques, souvent immédiatement applicables, les approches avancées
nécessitent une configuration experte et une supervision continue.
Deep Learning et
émergence des Foundation Models
En parallèle, le deep
learning a connu une transformation rapide grâce à des architectures comme les
Transformers et les stratégies d’apprentissage auto‑supervisé. Ces avancées ont
permis l’émergence de foundation models à grande échelle, capables de se
généraliser à de nombreuses tâches de prévision en apprenant à partir de jeux
de données massifs et diversifiés. En se développant, ces modèles acquièrent
des capacités émergentes : meilleure compréhension, robustesse accrue et
gestion multimodale.
Un exemple marquant est
Chronos‑2, un modèle de séries temporelles de 120 millions de paramètres conçu
pour la prévision en zero‑shot. Gérant les tâches univariées, multivariées et
enrichies de covariables, il utilise un encodeur inspiré de T5 et des
mécanismes d’attention groupée pour capturer les dépendances entre séries.
Chronos‑2 atteint des performances de pointe sur des benchmarks tels que fev‑bench
et GIFT‑Eval tout en restant efficace en calcul.
Comparé aux approches classiques comme XGBoost, le deep learning — et les foundation models en particulier — offre plusieurs avantages :
·
apprentissage
automatique de motifs temporels complexes et non linéaires
·
traitement
natif d’interactions multivariées
·
généralisation
à de nouvelles tâches sans réentraînement
Chronos‑2 illustre cela
en modélisant directement les dépendances à long terme et les covariables
externes, tandis que XGBoost nécessite une ingénierie de features manuelle, des
réentraînements, et peine avec des structures temporelles très dimensionnelles.
Si XGBoost reste un
excellent choix pour des ensembles de données tabulaires, petits et très
interprétables, les foundation models dominent désormais les scénarios
complexes et de grande échelle nécessitant flexibilité, adaptabilité et
intelligence inter-domaines.
Adopter le Machine
Learning avec Sagesse
L’essentiel n’est pas «
d’utiliser du machine learning pour le principe ». Brûler les étapes est
contreproductif.
Une approche
pragmatique commence par :
·
définir
des objectifs métiers clairs
·
comprendre
les besoins en données
·
garantir
la qualité et la segmentation des données
·
déterminer
si le machine learning est réellement adapté au contexte de prévision
Une fois les modèles avancés introduits, il est crucial que les organisations s’assurent que les résultats
— souvent issus d’algorithmes complexes — soient interprétables et
exploitables. Cela renforce la confiance, l’adoption et un suivi pertinent,
aligné sur les réalités métiers.
Le machine learning n’est pas utile de manière homogène dans tous les contextes. Sa valeur émerge uniquement lorsque le modèle choisi correspond précisément aux besoins du scénario de prévision ciblé. Entre modèles statistiques simples et architectures neuronales sophistiquées, une large palette existe.
Le succès
repose sur une préparation rigoureuse des données, une discipline
méthodologique et une mise en œuvre progressive.
Dans ce paysage, des
solutions comme Colibri peuvent fournir un cadre structuré, aidant les
organisations à identifier le bon niveau de sophistication et à adopter le
machine learning au rythme de leur maturité data et de leurs objectifs
opérationnels.
Une fois le modèle de
machine learning mis en place il faut s’attacher à rendre explicites et
intelligibles aux utilisateurs finaux, des résultats issus de modèles
complexes. Cette compréhension constitue non seulement un vecteur de confiance
et d’adhésion mais elle permet aussi de piloter le contrôle de la pertinence du
modèle en fonction de son contexte (validité des hypothèses, mise à jour
des algorithmes en fonction des variables, …)
Le machine learning ne bénéficie pas à tous de manière identique et dans les mêmes proportions. Il ne présente d’ailleurs un intérêt que si le modèle correspond en tous points au métier visé. Entre l’utilisation de modèles simples et accessibles dans Excel et le recours intensif aux modèles basés sur des réseaux neuronaux très prometteurs, il existe une multitude de nuances. Le secret de la réussite ? Réaliser un important et minutieux effort de travail sur la data, savoir faire preuve de mesure, de pragmatisme et avancer progressivement … tout en étant bien accompagné.


