Connexion
/ Inscription
Mon espace
Tribunes & Témoignages
ABONNÉS
Partager par Linked-In
Partager par Xing
Partager par Facebook
Partager par email
Suivez-nous sur feedly

[Tribune] Les utilisations malveillante de l'IA: comment les fournisseurs d'IA et les gouvernements peuvent-ils unir leurs forces contre ce phénomène ?

Commentaire d'Antoine Fraysse-Soulier, responsable de l'analyse de marchés chez eToro.

 

L'essor de l’intelligence artificielle transforme profondément nos sociétés, apportant des avancées majeures dans de nombreux secteurs. Mais cette même puissance algorithmique peut être exploitée à des fins malveillantes, comme le phishing hyper-ciblé, malwares sophistiqués, campagnes de désinformation massives ou encore attaques autonomes. Face à ces menaces, la coopération entre fournisseurs d’IA (Microsoft, OpenAI, Google, Meta, Anthropic…) et gouvernements apparaît essentielle pour construire une défense globale, réactive et coordonnée.

 

Il est important de rappeler que le risque ne concerne pas seulement l’IA : toute avancée technologique (blockchain, IoT, robotique, etc.) peut être détournée à des fins malveillantes. L’enjeu global reste donc de développer des garde-fous et des pratiques responsables pour l’ensemble de l’industrie, pas uniquement pour les modèles d’IA.

 

Des initiatives ont pris forme comme le European Cyber Threat Intelligence Framework (Microsoft & Europol-EC3) qui centralise les données techniques issues des environnements cloud et des CERT, accessibles en quasi-temps réel aux autorités nationales.

 

Microsoft a mis en place la Digital Crimes Unit (DCU), créée pour lutter contre les cybercrimes à l’échelle mondiale. Les enquêteurs sont accueillis actuellement à La Haye. OpenAI collabore avec le NIST (National Institute of Standards and Technology) pour encadrer et évaluer les risques IA, et Google DeepMind organise des hackathons internationaux dans ce but précis.

 

Par ailleurs, depuis le 4 juin 2025, le programme de sécurité européen (European Security Program) regroupe 30 pays (UE, AELE, Royaume-Uni…) autour d’un point de contact dédié, d’outils IA et de flux de renseignement partagés avec Microsoft. Il a réduit de 40% le temps de réponse aux incidents de phishing étatique.

 

De son côté OpenAI a créé l’Incident Response Task Force, il s’agit d’une cellule d’intervention rapide qui coordonne signalements, red teaming et échanges avec le FBI et Europol. En 2024, elle a permis de démanteler en 48h un bot d’extorsion alimenté par ChatGPT, publiant un rapport de transparence à destination du public et des régulateurs.

 

Il existe toutefois des défis persistants comme la fragmentation géopolitique. Les divergences réglementaires entre UE, États-Unis, Chine ou Russie compliquent l’harmonisation des normes et la portabilité des outils de défense. La souveraineté des données peut également poser problème, en effet, le partage des indicateurs de compromission implique la transmission de données sensibles, soulevant des enjeux de localisation et de conformité avec les législations nationales.

 

Et puis, certains États continuent de développer des « agents IA » autonomes pour la cyberguerre. La coopération actuelle se concentre davantage sur la prévention et la réponse que sur la limitation de la prolifération de ces technologies offensives.

 

Pour renforcer la collaboration entre les Etats, il serait nécessaire d'harmoniser internationalement les normes. Avec par exemple, la poursuite les accords G7/G20 sur des « standards minimaux de sécurité IA » pour faciliter la reconnaissance mutuelle des certifications et la coopération transfrontalière.

 

Créer un registre international des abus IA, piloté par Europol ou Interpol, assorti de sanctions coordonnées (gel de comptes, interdiction de marché, amendes) pour dissuader les acteurs malveillants, pourraient également constituer un pas en avant.


Articles en relation

loading