Commentaire d'Antoine
Fraysse-Soulier, responsable de l'analyse de marchés chez eToro.
L'essor de
l’intelligence artificielle transforme profondément nos sociétés, apportant des
avancées majeures dans de nombreux secteurs. Mais cette même puissance
algorithmique peut être exploitée à des fins malveillantes, comme le phishing
hyper-ciblé, malwares sophistiqués, campagnes de désinformation massives ou
encore attaques autonomes. Face à ces menaces, la coopération entre
fournisseurs d’IA (Microsoft, OpenAI, Google, Meta, Anthropic…) et
gouvernements apparaît essentielle pour construire une défense globale,
réactive et coordonnée.
Il est important de
rappeler que le risque ne concerne pas seulement l’IA : toute avancée
technologique (blockchain, IoT, robotique, etc.) peut être détournée à des fins
malveillantes. L’enjeu global reste donc de développer des garde-fous et des
pratiques responsables pour l’ensemble de l’industrie, pas uniquement pour les
modèles d’IA.
Des initiatives ont
pris forme comme le European Cyber Threat Intelligence Framework (Microsoft
& Europol-EC3) qui centralise les données techniques issues des
environnements cloud et des CERT, accessibles en quasi-temps réel aux autorités
nationales.
Microsoft a mis en
place la Digital Crimes Unit (DCU), créée pour lutter contre les cybercrimes à
l’échelle mondiale. Les enquêteurs sont accueillis actuellement à La Haye.
OpenAI collabore avec le NIST (National Institute of Standards and Technology)
pour encadrer et évaluer les risques IA, et Google DeepMind organise des
hackathons internationaux dans ce but précis.
Par ailleurs, depuis le
4 juin 2025, le programme de sécurité européen (European Security Program)
regroupe 30 pays (UE, AELE, Royaume-Uni…) autour d’un point de contact dédié,
d’outils IA et de flux de renseignement partagés avec Microsoft. Il a réduit de
40% le temps de réponse aux incidents de phishing étatique.
De son côté OpenAI a
créé l’Incident Response Task Force, il s’agit d’une cellule d’intervention
rapide qui coordonne signalements, red teaming et échanges avec le FBI et
Europol. En 2024, elle a permis de démanteler en 48h un bot d’extorsion
alimenté par ChatGPT, publiant un rapport de transparence à destination du
public et des régulateurs.
Il existe toutefois des
défis persistants comme la fragmentation géopolitique. Les divergences
réglementaires entre UE, États-Unis, Chine ou Russie compliquent
l’harmonisation des normes et la portabilité des outils de défense. La
souveraineté des données peut également poser problème, en effet, le partage
des indicateurs de compromission implique la transmission de données sensibles,
soulevant des enjeux de localisation et de conformité avec les législations
nationales.
Et puis, certains États
continuent de développer des « agents IA » autonomes pour la cyberguerre. La
coopération actuelle se concentre davantage sur la prévention et la réponse que
sur la limitation de la prolifération de ces technologies offensives.
Pour renforcer la
collaboration entre les Etats, il serait nécessaire d'harmoniser
internationalement les normes. Avec par exemple, la poursuite les accords
G7/G20 sur des « standards minimaux de sécurité IA » pour faciliter la
reconnaissance mutuelle des certifications et la coopération transfrontalière.
Créer un registre
international des abus IA, piloté par Europol ou Interpol, assorti de sanctions
coordonnées (gel de comptes, interdiction de marché, amendes) pour dissuader
les acteurs malveillants, pourraient également constituer un pas en avant.