L’analyse de Jérôme Beaufils, CEO de Sasety.
Une adoption rapide, un
risque souvent sous-estimé
L’intelligence artificielle s’est diffusée dans les organisations à une vitesse inédite. En quelques mois, les outils de génération de contenu, d’assistance au développement ou d’automatisation métier sont devenus des réflexes quotidiens. Les directions métiers expérimentent. Les équipes IT tentent d’encadrer.
Les
usages se multiplient.
Cette dynamique est
positive. Elle crée de la valeur et améliore la productivité. Mais elle ouvre
aussi une nouvelle surface d’exposition cyber.
L’IA ne se limite pas à
une application supplémentaire dans le système d’information. Elle modifie la
manière dont les données circulent. Des informations sensibles sont copiées
dans des prompts. Des documents internes sont transmis à des services externes.
Des agents intelligents accèdent à des API ou interagissent avec des
applications critiques. Et tout cela se fait souvent sans cadre formel.
Les risques deviennent
alors bien réels : fuite involontaire de données stratégiques, détournement via
prompt injection, perte de traçabilité, multiplication du “Shadow AI”. L’IA
crée un nouveau périmètre de sécurité.
L’AI Act : la
régulation s’invite dans la gouvernance IA
À cette dimension cyber
s’ajoute désormais un cadre réglementaire structurant. Avec l’entrée en
application progressive de l’AI Act, l’Union européenne encadre clairement le
développement et l’usage des systèmes d’intelligence artificielle. Le texte
repose sur une approche par niveau de risque et impose, pour certains usages,
des obligations strictes de gouvernance, de transparence, de supervision
humaine et de contrôle des données.
Pour les entreprises,
cela change la perspective. Il ne suffit plus d’expérimenter. Il faut démontrer
que les usages sont maîtrisés. Il faut être capable de tracer les interactions,
de documenter les choix et d’apporter des garanties en matière de protection
des données. L’IA devient donc un sujet à la croisée de la cybersécurité, de la
conformité et de la stratégie d’entreprise.
Intégrer la sécurité de
l’IA dans l’architecture existante
Face à ces enjeux, la
tentation pourrait être d’ajouter un outil spécialisé supplémentaire. Mais
multiplier les briques techniques crée souvent plus de complexité que de
sécurité.
L’approche retenue par
Cato Networks consiste à intégrer la sécurité de l’IA directement au sein de sa
plateforme SASE cloud-native. L’idée est simple : traiter les usages IA
comme un flux supplémentaire à gouverner, au même titre que le trafic réseau ou
les applications SaaS.
L’intégration des
technologies issues du rachat fin 2025 de la société Aim Security permet
d’apporter une visibilité fine sur les usages d’IA, d’identifier les
applications non référencées et de contrôler les interactions avec les modèles.
Les politiques sont unifiées. Les contrôles sont appliqués de manière cohérente
aux utilisateurs, aux sites et aux accès distants. L’IA cesse ainsi d’être un
angle mort. Elle s’inscrit dans une logique Zero Trust globale, avec une
gouvernance centralisée et une traçabilité consolidée.
Rendre la sécurité IA
réellement opérable
La technologie est un
socle. Mais elle ne suffit pas. Entre les capacités d’une plateforme et la
réalité opérationnelle d’une entreprise, il existe toujours un écart. Cet écart
se comble par la méthode, la gouvernance et l’exploitation continue.
C’est dans cette
logique qu’intervient SASETY, en tant qu’opérateur de services managés SASE et
cybersécurité. L’accompagnement commence par une cartographie des usages IA
existants. Il se poursuit par la définition de règles claires, alignées à la
fois sur les exigences de sécurité et sur le cadre réglementaire européen. Les
contrôles sont déployés progressivement, ajustés, supervisés.
La supervision 24/7, le
suivi des alertes, l’affinage des politiques et la production d’indicateurs
pour les RSSI et les directions conformité permettent de transformer une
capacité technique en dispositif réellement maîtrisé. L’objectif n’est pas de
freiner l’innovation. Il est de la rendre durable.
En conclusion :
innovation et maîtrise doivent avancer ensemble
L’intelligence artificielle représente une opportunité majeure pour les entreprises européennes. Mais cette opportunité s’accompagne d’une exigence nouvelle : celle de la cohérence et de la maîtrise. Adopter l’IA est une décision stratégique. La sécuriser et la gouverner correctement en est désormais la condition indispensable.


