Connexion
/ Inscription
Mon espace
Etudes & Enquêtes
ABONNÉS
Partager par Linked-In
Partager par Xing
Partager par Facebook
Partager par email
Suivez-nous sur feedly

[Expertises] IA : les entreprises avancent à l’aveugle

Etude mondiale menée par BSI, acteur mondial des normes et de la certification.

 

Un « déficit de gouvernance » de l’IA se dessine à mesure que les entreprises investissent massivement dans des outils et des produits d’IA sans mettre en place de dispositifs d’encadrement ni de protection. Alors que les dirigeants d’entreprise recherchent des gains de productivité et des réductions de coûts en injectant des sommes importantes dans l’IA, de nouvelles preuves suggèrent que beaucoup se dirigent en somnambules vers des défaillances de gouvernance majeures, selon des recherches menées par BSI.

 

Cette étude mondiale, qui combine une analyse assistée par IA de plus de 100 rapports annuels de multinationales et deux sondages mondiaux auprès de plus de 850 cadres dirigeants, menés à six mois d’intervalle, offre une vue d’ensemble de la manière dont l’IA est abordée publiquement dans les communications, ainsi que des éclairages au niveau exécutif sur sa mise en œuvre.

 

Des lacunes de gouvernance apparaissent

55% des dirigeants en France s’attendent à augmenter leurs investissements dans l’IA au cours de l’année à venir, et lorsqu’on leur demande pourquoi, une majorité cite l’amélioration de la productivité et de l’efficacité (68%), la moitié (51%) visant la réduction des coûts. Près de la moitié (47%) considèrent désormais l’IA comme cruciale pour la croissance de leur organisation, soulignant le rôle essentiel que les dirigeants attribuent à l’IA dans la réussite future de leurs entreprises.

 

La frappante absence de garde-fous ressort clairement : moins d’un quart (21%) des répondants français indiquent que leur organisation dispose d’un programme de gouvernance de l’IA, même si ce taux monte modestement à près de la moitié (46%) dans les grandes entreprises, un schéma que l’on retrouve dans l’ensemble de l’étude. Si 40% déclarent que l’usage de l’IA est encadré par des processus formels, seuls un quart (26%) disent recourir à des codes de conduite volontaires. Seuls 21% disposent de processus pour évaluer les risques introduits par l’IA et les mesures d’atténuation nécessaires. À peine une entreprise sur cinq (19%) restreint l’utilisation d’outils d’IA non autorisés par ses employés. L’analyse assistée par IA confirme ce déficit de gouvernance en formation.

 

Un élément clé de la gouvernance et de la gestion de l’IA réside dans la manière dont les données sont collectées, stockées et utilisées pour entraîner les grands modèles de langage (LLM). Or seulement 36% des dirigeants français savent quelles sources de données leur entreprise utilise pour entraîner ou déployer ses outils d’IA. Un quart (25%) seulement en France indiquent que leur entreprise dispose de processus clairs concernant l’utilisation de données confidentielles pour l’entraînement de l’IA – contre 40% à l’échelle mondiale.

 

Selon David Fardel, Country Manager, BSI France : « Le tissu entrepreneurial français approfondit progressivement sa compréhension de l’énorme potentiel de l’IA, mais le déficit de gouvernance est préoccupant et doit être comblé. Si elle peut être une force positive, l’IA ne sera pas une panacée contre la croissance atone, la faible productivité et les coûts élevés sans pilotage stratégique et garde-fous clairs – et en l’absence de ces éléments, de nouveaux risques pour les entreprises peuvent émerger. La divergence des approches entre organisations et marchés crée de réels risques d’applications nocives. Une confiance excessive, couplée à des approches de gouvernance fragmentées et incohérentes, expose nombre d’organisations à des défaillances évitables et à des atteintes à leur réputation. Il est impératif que les entreprises françaises dépassent la conformité réactive pour instaurer une gouvernance de l’IA proactive et globale. »

 

 

Les risques et la sécurité restent insuffisamment traités

Un quart des dirigeants français (23%) estiment que l’IA a été une source de risque ou de fragilité pour leur entreprise, et une entreprise sur cinq (19%) seulement dispose d’un processus standardisé que les employés doivent suivre lorsqu’ils introduisent de nouveaux outils d’IA – contre 33% à l’échelle mondiale. La capacité à gérer ces risques semble également faible : seuls 28% des répondants français déclarent que leur organisation intègre les risques liés à l’IA dans ses obligations de conformité plus larges – contre 49% dans le monde. Seuls 21% indiquent disposer d’un processus formel d’évaluation des risques pour déterminer où l’IA peut introduire de nouvelles vulnérabilités.

Dans leurs rapports annuels, les organisations de services financiers (SF) accordent la plus grande importance aux risques et à la sécurité liés à l’IA (25% de focus en plus par rapport au suivant, l’environnement bâti). Les entreprises de SF soulignent particulièrement les risques de cybersécurité associés au déploiement de l’IA, reflétant probablement leurs responsabilités traditionnelles en matière de protection des consommateurs et les conséquences réputationnelles des violations de sécurité. À l’inverse, les entreprises des secteurs de la technologie et du transport accordent une importance nettement moindre à ce thème, soulevant des questions sur les divergences sectorielles dans les approches de gouvernance.

 

Peu d’attention portée aux erreurs et à la valeur

L’attention portée aux scénarios où l’IA se trompe est également limitée. Seul un tiers affirme que leur organisation dispose d’un processus pour consigner les problèmes lorsqu’ils surviennent ou signaler des préoccupations ou des inexactitudes liées aux outils d’IA afin qu’elles puissent être traitées (23%), tandis qu’un cinquième (21%) seulement en France cite l’existence d’un processus de gestion des incidents liés à l’IA et d’une réponse rapide. Un tiers (30%) estime que si les outils d’IA générative étaient indisponibles pendant un certain temps, leur entreprise ne pourrait pas poursuivre ses activités.

Deux cinquièmes (40%) des dirigeants français déclarent que les investissements dans l’IA ont mobilisé des ressources qui auraient pu être affectées à d’autres projets. Pourtant, seuls 17% disposent d’un processus pour éviter la duplication des services d’IA dans les différents services de l’organisation.

 

La supervision humaine et la formation reléguées au dernier plan

Dans l’ensemble des rapports annuels, le terme « automatisation » apparaît près de sept fois plus souvent que « montée en compétences », « formation » ou « éducation ». Globalement, la moindre importance relative des sujets liés aux collaborateurs suggère que les entreprises sous-estiment la nécessité d’investir dans le capital humain parallèlement aux avancées technologiques.

 

Une incertitude subsiste chez les dirigeants français quant à la capacité de la main-d’œuvre à faire face aux bouleversements induits par l’IA et aux nouvelles compétences nécessaires pour en tirer le meilleur parti. Seul un quart (26%) sont convaincus que le personnel débutant dispose des compétences nécessaires pour utiliser l’IA – contre 56% dans le monde. 28% estiment que l’ensemble de leur organisation possède actuellement les compétences nécessaires pour utiliser efficacement les outils d’IA dans les tâches quotidiennes – 57% le pensent à l’échelle mondiale. Et un tiers (34%) seulement disent être confiants dans la capacité de leur organisation à former les équipes à utiliser l’IA générative de manière critique, stratégique et analytique.

 

Un tiers (28%) dispose d’un programme dédié d’apprentissage et de développement pour soutenir la formation à l’IA en France. Une proportion plus élevée (51%) indique avoir reçu une formation pour utiliser ou gérer l’IA de façon sûre et sécurisée, ce qui suggère qu’une forme de crainte de l’IA pourrait susciter des formations réactives plutôt que le développement proactif des capacités. Ce rapport fait suite à des recherches antérieures de BSI sur l’impact du déploiement de l’IA générative sur les rôles et les modes de travail, publiées en octobre 2025.

Lire la suite...


Articles en relation