Etude mondiale menée par BSI, acteur
mondial des normes et de la certification.
Un « déficit de
gouvernance » de l’IA se dessine à mesure que les entreprises investissent
massivement dans des outils et des produits d’IA sans mettre en place de
dispositifs d’encadrement ni de protection. Alors que les dirigeants
d’entreprise recherchent des gains de productivité et des réductions de coûts
en injectant des sommes importantes dans l’IA, de nouvelles preuves suggèrent
que beaucoup se dirigent en somnambules vers des défaillances de gouvernance
majeures, selon des recherches menées par BSI.
Cette étude mondiale,
qui combine une analyse assistée par IA de plus de 100 rapports annuels de
multinationales et deux sondages mondiaux auprès de plus de 850 cadres
dirigeants, menés à six mois d’intervalle, offre une vue d’ensemble de la
manière dont l’IA est abordée publiquement dans les communications, ainsi que
des éclairages au niveau exécutif sur sa mise en œuvre.
Des lacunes de
gouvernance apparaissent
55% des dirigeants en
France s’attendent à augmenter leurs investissements dans l’IA au cours de
l’année à venir, et lorsqu’on leur demande pourquoi, une majorité cite
l’amélioration de la productivité et de l’efficacité (68%), la moitié (51%)
visant la réduction des coûts. Près de la moitié (47%) considèrent désormais
l’IA comme cruciale pour la croissance de leur organisation, soulignant le rôle
essentiel que les dirigeants attribuent à l’IA dans la réussite future de leurs
entreprises.
La frappante absence de
garde-fous ressort clairement : moins d’un quart (21%) des répondants français
indiquent que leur organisation dispose d’un programme de gouvernance de l’IA,
même si ce taux monte modestement à près de la moitié (46%) dans les grandes
entreprises, un schéma que l’on retrouve dans l’ensemble de l’étude. Si 40%
déclarent que l’usage de l’IA est encadré par des processus formels, seuls un
quart (26%) disent recourir à des codes de conduite volontaires. Seuls 21%
disposent de processus pour évaluer les risques introduits par l’IA et les
mesures d’atténuation nécessaires. À peine une entreprise sur cinq (19%)
restreint l’utilisation d’outils d’IA non autorisés par ses employés. L’analyse
assistée par IA confirme ce déficit de gouvernance en formation.
Un élément clé de la
gouvernance et de la gestion de l’IA réside dans la manière dont les données
sont collectées, stockées et utilisées pour entraîner les grands modèles de
langage (LLM). Or seulement 36% des dirigeants français savent quelles sources
de données leur entreprise utilise pour entraîner ou déployer ses outils d’IA.
Un quart (25%) seulement en France indiquent que leur entreprise dispose de
processus clairs concernant l’utilisation de données confidentielles pour
l’entraînement de l’IA – contre 40% à l’échelle mondiale.
Selon David Fardel,
Country Manager, BSI France : « Le tissu entrepreneurial français
approfondit progressivement sa compréhension de l’énorme potentiel de l’IA,
mais le déficit de gouvernance est préoccupant et doit être comblé. Si elle
peut être une force positive, l’IA ne sera pas une panacée contre la croissance
atone, la faible productivité et les coûts élevés sans pilotage stratégique et
garde-fous clairs – et en l’absence de ces éléments, de nouveaux risques pour
les entreprises peuvent émerger. La divergence des approches entre
organisations et marchés crée de réels risques d’applications nocives. Une
confiance excessive, couplée à des approches de gouvernance fragmentées et
incohérentes, expose nombre d’organisations à des défaillances évitables et à
des atteintes à leur réputation. Il est impératif que les entreprises
françaises dépassent la conformité réactive pour instaurer une gouvernance de
l’IA proactive et globale. »
Les risques et la
sécurité restent insuffisamment traités
Un quart des dirigeants
français (23%) estiment que l’IA a été une source de risque ou de fragilité
pour leur entreprise, et une entreprise sur cinq (19%) seulement dispose d’un
processus standardisé que les employés doivent suivre lorsqu’ils introduisent
de nouveaux outils d’IA – contre 33% à l’échelle mondiale. La capacité à gérer
ces risques semble également faible : seuls 28% des répondants français
déclarent que leur organisation intègre les risques liés à l’IA dans ses
obligations de conformité plus larges – contre 49% dans le monde. Seuls 21%
indiquent disposer d’un processus formel d’évaluation des risques pour
déterminer où l’IA peut introduire de nouvelles vulnérabilités.
Dans leurs rapports
annuels, les organisations de services financiers (SF) accordent la plus grande
importance aux risques et à la sécurité liés à l’IA (25% de focus en plus par
rapport au suivant, l’environnement bâti). Les entreprises de SF soulignent
particulièrement les risques de cybersécurité associés au déploiement de l’IA,
reflétant probablement leurs responsabilités traditionnelles en matière de protection
des consommateurs et les conséquences réputationnelles des violations de
sécurité. À l’inverse, les entreprises des secteurs de la technologie et du
transport accordent une importance nettement moindre à ce thème, soulevant des
questions sur les divergences sectorielles dans les approches de gouvernance.
Peu d’attention portée
aux erreurs et à la valeur
L’attention portée aux
scénarios où l’IA se trompe est également limitée. Seul un tiers affirme que
leur organisation dispose d’un processus pour consigner les problèmes lorsqu’ils
surviennent ou signaler des préoccupations ou des inexactitudes liées aux
outils d’IA afin qu’elles puissent être traitées (23%), tandis qu’un cinquième
(21%) seulement en France cite l’existence d’un processus de gestion des
incidents liés à l’IA et d’une réponse rapide. Un tiers (30%) estime que si les
outils d’IA générative étaient indisponibles pendant un certain temps, leur
entreprise ne pourrait pas poursuivre ses activités.
Deux cinquièmes (40%)
des dirigeants français déclarent que les investissements dans l’IA ont
mobilisé des ressources qui auraient pu être affectées à d’autres projets.
Pourtant, seuls 17% disposent d’un processus pour éviter la duplication des
services d’IA dans les différents services de l’organisation.
La supervision humaine
et la formation reléguées au dernier plan
Dans l’ensemble des
rapports annuels, le terme « automatisation » apparaît près de sept fois plus
souvent que « montée en compétences », « formation » ou « éducation ».
Globalement, la moindre importance relative des sujets liés aux collaborateurs
suggère que les entreprises sous-estiment la nécessité d’investir dans le
capital humain parallèlement aux avancées technologiques.
Une incertitude
subsiste chez les dirigeants français quant à la capacité de la main-d’œuvre à
faire face aux bouleversements induits par l’IA et aux nouvelles compétences
nécessaires pour en tirer le meilleur parti. Seul un quart (26%) sont
convaincus que le personnel débutant dispose des compétences nécessaires pour
utiliser l’IA – contre 56% dans le monde. 28% estiment que l’ensemble de leur
organisation possède actuellement les compétences nécessaires pour utiliser
efficacement les outils d’IA dans les tâches quotidiennes – 57% le pensent à
l’échelle mondiale. Et un tiers (34%) seulement disent être confiants dans la
capacité de leur organisation à former les équipes à utiliser l’IA générative
de manière critique, stratégique et analytique.
Un tiers (28%) dispose
d’un programme dédié d’apprentissage et de développement pour soutenir la
formation à l’IA en France. Une proportion plus élevée (51%) indique avoir reçu
une formation pour utiliser ou gérer l’IA de façon sûre et sécurisée, ce qui
suggère qu’une forme de crainte de l’IA pourrait susciter des formations
réactives plutôt que le développement proactif des capacités. Ce rapport fait
suite à des recherches antérieures de BSI sur l’impact du déploiement de l’IA
générative sur les rôles et les modes de travail, publiées en octobre 2025.


