Connexion
/ Inscription
Mon espace
Initiatives
ABONNÉS
Partager par Linked-In
Partager par Twitter
Partager par Xing
Partager par Facebook
Partager par email
Suivez-nous sur feedly

[Initiative] Oui à l'IA... mais encadrée !

L'association eFutura aidera la Commission IA de l'AFNOR pour encadrer légalement l'IA et certifier une IA digne de confiance

eFutura, association regroupant les acteurs de la gestion de contenu dans la transition numérique, est engagée au sein de la Commission IA de l'AFNOR pour contribuer à la démarche de normalisation.

Cette commission rassemble plusieurs acteurs représentatifs de l'écosystème IA. L'AFNOR s'est vu confier par le gouvernement français le pilotage de la normalisation de l'AI Act, premier système de certification de l'intelligence artificielle émanant de la législation européenne dans une démarche visant à certifier une "IA digne de confiance". Un enjeu majeur pour les organisations.


I - L'AI Act s'inscrit dans un cadre politique européen

L'AI Act est le premier système de certification de l'intelligence artificielle
L'AI Act a pour objectif de créer le premier système de certification pour l'intelligence artificielle en conciliant sécurité juridique et stimulation de l'innovation. Cette législation européenne fournira aux citoyens européens la confiance nécessaire pour l'usage de l'intelligence artificielle et permettra aux entreprises européennes d'être compétitives à l'échelle mondiale grâce à un système de marquage certifiant d'une "IA digne de confiance".

L'AI Act fournira des règles uniformes pour les 27
L'AI Act permettra de mettre en place des règles uniformes pour les 27 pays membres de l'Union Européenne. Cette démarche garantira un environnement réglementaire stable et une sécurité juridique sur l'ensemble du marché unique. Cette uniformité des règles applicables à l'intelligence artificielle est cruciale pour les PME européennes.

L'AI Act contribue à libérer le potentiel de l'Intelligence artificielle
L'AI Act a pour objectif de libérer le potentiel de l'intelligence artificielle dans tous les domaines. Une technologie à vocation transversale, telle que l'intelligence artificielle, ne peut être efficacement réglementée que par des règles horizontales qui fournissent des solutions aux défis communs.

L'AI Act pour ne réguler que le strict nécessaire
Les règles définies par l'AI Act resteront proportionnées et limitées au strict nécessaire pour faire face aux risques. L'approche est fondée sur les risques et répond aujourd'hui aux préoccupations les plus importantes des citoyens, tout en conservant la souplesse nécessaire pour adapter le cadre réglementaire face aux risques émergents.

II - Les objectifs du règlement européen de l'AI Act

L'Union Européenne souhaite se positionner en leader politique en matière de technologies.
Le 21 avril 2021, la Commission Européenne a présenté une proposition de règlement sur l'intelligence artificielle (également appelé "Artificial Intelligence Act")

L'Artificial Intelligence Act a pour objet de :

  • Garantir que les systèmes d'Intelligence Artificielle sur le marché de l'Union Européenne soient sûrs et conformes à la législation existante sur les droits fondamentaux et les valeurs de l'Union Européenne ;
  • Garantir la sécurité juridique pour faciliter l'investissement et l'innovation dans l'Intelligence Artificielle ;
  • Améliorer la gouvernance et l'application effective de la législation et des exigences de sécurité applicables aux systèmes d'Intelligence Artificielle ;
  • Consolider un marché unique pour les applications d'Intelligence Artificielle licites, sûres et dignes de confiance afin de réduire et d'empêcher la fragmentation du marché européen.

Les domaines d'application de l'Artificial Intelligence Act
Le projet de règlement européen de l'AI Act a vocation à s'appliquer aux :

  • Fournisseurs d'Intelligence Artificielle s'ils mettent en service une IA dans l'Union Européenne ;
  • Utilisateurs d'IA situés dans l'Union Européenne ;
  • Fournisseurs et Utilisateurs d'IA situés dans des pays tiers qui utiliseraient les résultats d'une IA dans l'UE.

L'AI Act se concentre sur la Gestion par le risque
L'Artificial Intelligence Act tend à définir les termes et l'objet de la réglementation de la manière la plus neutre possible sur le plan technologique.

L'Artificial Intelligence Act classe les utilisations de l'IA selon qu'elles créent un risque inacceptable, élevé ou faible.

Une prohibition de certains types d'IA, qui créent un risque inacceptable (Article 5).

Sont ainsi interdites par principe :

  • Les IA utilisant des techniques de manipulation subliminale des personnes ou l'exploitation des vulnérabilités de groupes sensibles d'une manière susceptible de leur causer ou à causer à une autre personne un préjudice moral ou physique ;
  • Les IA qui créent des systèmes de notation généralisée des populations et qui seraient développées par les autorités publiques. Sont visés ici les systèmes tels que le tristement célèbre "système de crédit social" mis en place en Chine ;
  • Les IA contenant des systèmes d'identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins de maintien de l'ordre.

III - L'AI Act et la France

Le Secrétariat général pour l'investissement (SGPI) a initié le Grand Défi : « Sécuriser, fiabiliser et certifier des systèmes fondés sur l’intelligence artificielle ». Il a pour objectif de construire les outils garantissant la confiance placée dans les produits et services intégrant l’intelligence artificielle (IA) et entend ainsi fournir un cadre « technique » à la future proposition de réglementation européenne sur l’IA.

La confiance autour de l'IA va se construire par la réglementation, la normalisation et l'évaluation de conformité aux exigences règlementaires.

Le Secrétariat Général Pour l'Investissement (SGPI) a développé une approche basée sur trois piliers : la recherche, les applications et la normalisation. Le troisième pilier normatif a été confié à l'AFNOR et vise à "créer l'environnement normatif de confiance accompagnant les outils et les processus de certification des systèmes à base d'Intelligence Artificielle".

IV - L'AFNOR et l'AI Act

Le gouvernement français entend soutenir les acteurs de l’intelligence artificielle en créant, par la démarche d’influence qu’est la normalisation volontaire, les conditions d’accès et de succès de leurs solutions en France et à l’international.

Sous le pilotage d’AFNOR et du Secrétariat général pour l’investissement (SGPI), une feuille de route est en cours d’élaboration. Six axes stratégiques ont été définis :

  • Développer les normes portant sur la confiance
  • Développer les normes sur la gouvernance et le management de l'IA
  • Développer des normes sur la supervision et le reporting des systèmes d'IA
  • Développer des normes sur les compétences des organismes de certification
  • Développer la normalisation de certains outils numériques
  • Simplifier l’accès et l'utilisation des normes.

L'AFNOR, mandaté par l'État, a finalisé la feuille de route, la démarche employée consistant à mettre en place une plateforme de coopération entre acteurs français de l'IA, à implémenter des actions stratégiques en normalisation et à développer des coopérations européennes et internationales.


V - La Commission IA de l'AFNOR et l'AI Act

La commission de normalisation IA de l'AFNOR rassemble de nombreux acteurs représentatifs de l'écosystème IA.

Son objectif est d'établir une position commune française qui intègre les attentes et les besoins de toutes les parties intéressées. Le principe de normalisation volontaire s'appuie sur le principe du consensus. La démarche est ouverte à tous les acteurs privés et publics.

Le système français de normalisation s'appuie sur un réseau d'acteurs volontaires issus de tous les secteurs d'activités et engagés dans les commissions de normalisation. Le rôle de ces acteurs est de contribuer à l'élaboration des normes en apportant leur expertise et leur connaissance sur le sujet.

L'influence de la Commission IA est technique, stratégique et essentielle pour les organisations françaises.

eFutura, association regroupant les acteurs de la gestion de contenu dans la transition numérique s'est engagée au sein de la commission IA pour contribuer à la démarche de normalisation.

 

Lire la suite...


Articles en relation