Dans le cadre du projet européen MAMMOth, IDnow
démontre comment détecter et corriger les biais dans les systèmes d’IA, une
étape essentielle vers une vérification d’identité numérique plus équitable.
Après trois années de
recherche intensive, le projet européen MAMMOth (Multi-Attribute, Multimodal
Bias Mitigation in AI Systems) publie ses conclusions sur la réduction des
biais dans les systèmes d’intelligence artificielle. Financé par le programme
Horizon Europe, ce projet réunit des partenaires issus du monde académique, de
l’industrie et de la société civile : universités, centres de recherche, PME et
organisations européennes.
IDnow, l’un des
principaux fournisseurs européens de solutions de vérification d’identité, a
contribué activement à la mise en œuvre du projet en tant que partenaire
industriel. Grâce à des travaux de recherche ciblés et à de nombreux tests, un
modèle d’IA optimisé a été développé pour réduire significativement les biais
en reconnaissance faciale, désormais intégré aux solutions d’IDnow.
Lutter concrètement
contre les biais algorithmiques
La reconnaissance
faciale basée sur l’intelligence artificielle est de plus en plus utilisée pour
la vérification d’identité en ligne, par exemple lors de l’ouverture d’un
compte bancaire ou de l’inscription à un service d’autopartage. L’utilisateur
prend une photo de son visage, que l’IA compare avec celle figurant sur sa
pièce d’identité.
Cependant, ces systèmes
peuvent présenter des biais, entraînant des résultats moins fiables pour
certaines catégories de personnes. Cela s’explique notamment par la
sous-représentation de certaines populations dans les bases de données
publiques, ce qui peut générer des taux d’erreur plus élevés pour les personnes
à la peau foncée.
Une étude du MIT Media
Lab illustre l’ampleur de ces écarts ; si le taux d’erreur pour les hommes à
peau claire n’était que de 0,8%, il atteignait 34,7% pour les femmes à peau
foncée. Ces chiffres mettent en évidence le déséquilibre de nombreux modèles
d’IA, et la nécessité urgente de s’appuyer sur des données plus diversifiées et
représentatives.
Dans le cadre du projet
MAMMOth, IDnow a précisément travaillé à identifier et à minimiser ces biais
dans la reconnaissance faciale, avec pour objectif d’accroître à la fois
l’équité et la fiabilité des processus d’identification.
« Les projets de
recherche comme MAMMOth sont essentiels pour rapprocher l’innovation
scientifique de ses applications concrètes, souligne Montaser Awal, Directeur de
l’IA et du Machine Learning chez IDnow. En collaborant avec les
meilleurs experts européens, nous avons pu perfectionner notre technologie et
la rendre plus équitable. »
Des résultats concrets
et mesurables
Dans le cadre du
projet, IDnow a étudié les biais potentiels de son propre algorithme de
reconnaissance faciale, développé ses propres solutions pour les réduire et
testé différentes méthodes proposées par ses partenaires.
Les photos d’identité,
par exemple, font souvent l’objet d’ajustements de couleur au moment de leur
émission par les autorités. La teinte de peau peut alors poser un véritable
défi, surtout lorsque la calibration n’est pas adaptée aux carnations plus foncées.
Une telle mauvaise calibration peut entraîner des différences entre le selfie
de l’utilisateur et la photo figurant sur son document d’identité.
Pour pallier ce
problème, IDnow a utilisé une méthode de transfert de style permettant de
générer des photos d’identité artificielles représentant une grande diversité
de tons de peau. En élargissant ainsi le jeu de données d’apprentissage avec
des images synthétiques, le modèle est devenu plus robuste face à des
conditions variées, réduisant ainsi significativement les biais liés aux peaux
foncées.
Les tests menés sur des
ensembles de données publics et internes ont montré une hausse de 8% de la
précision de vérification, tout en utilisant seulement 25% du volume initial de
données d’entraînement. Plus encore, l’écart de précision entre peaux claires
et foncées a diminué de plus de 50%, une avancée majeure vers une vérification
d’identité plus juste, sans compromis sur la sécurité ni sur l’expérience
utilisateur.
Le modèle d’IA ainsi
amélioré a été intégré aux solutions de vérification d’identité d’IDnow en mars
2025 et est depuis pleinement opérationnel.
Vers une norme de
référence en matière d’IA responsable
Au-delà des
améliorations concrètes apportées à ses produits, IDnow prévoit d’utiliser un
toolkit, en open-source, MAI-BIAS, créé dans le cadre du projet, pour ses
futurs développements internes. Cet outil permettra d’évaluer et de documenter
la notion d’équité avant la mise sur le marché de tout nouveau modèle d’IA, une
contribution clé à la conception d’une IA véritablement responsable.
« Réduire les biais ne renforce pas seulement l’équité et la confiance, cela rend aussi nos systèmes plus robustes et plus faciles à adopter. Cela accroît la confiance dans nos modèles et prouve qu’ils fonctionnent avec la même fiabilité pour tous les utilisateurs, sur différents marchés. », conclut Montaser Awal.


