Une analyse de Marianne Mazaud, cofondatrice et directrice
générale du Sommet international AI ON US, et Mark Ribbing, président de
Nascent Wave.
Même si l’intelligence
artificielle (IA) devient de plus en plus performante et influence davantage
d’aspects de notre vie quotidienne, la réaction dominante face à cette
évolution semble moins marquée par la célébration que par une incertitude et
une ambivalence profonde.
Ce sentiment a été
confirmé par plusieurs études récentes et approfondies. En début d’année, KPMG
et l’Université de Melbourne ont publié les résultats d’une vaste enquête sur
les attitudes mondiales envers l’IA, menée auprès de plus de 48 000 personnes dans
47 pays. À l’échelle mondiale, 54% des répondants ont déclaré se méfier de
l’IA, avec des niveaux de défiance légèrement plus élevés dans les économies
avancées et plus faibles dans les pays émergents, comme la Chine, l’Inde, le
Nigeria, l’Égypte et les Émirats arabes unis.
L’équipe de KPMG et de
l’Université de Melbourne a constaté que la confiance globale dans l’IA avait
diminué dans la plupart des pays à mesure que la technologie se répandait. Selon
le rapport, « cette adoption accrue s’accompagne d’une tendance des
individus à se sentir davantage préoccupés et moins confiants à l’égard de
l’IA. Plus de gens déclarent s’inquiéter des risques liés à l’IA et se
préoccupent des dangers potentiels, tandis que moins de personnes considèrent
que les bénéfices de l’IA l’emportent sur ces risques. »
Une méfiance qui
dépasse les consommateurs
Cette incertitude ne se
limite pas aux particuliers. Bien que les grandes entreprises mettent en avant
les avantages de l’IA dans leurs communications publiques, un rapport publié en
juillet par l’Autonomy Institute, basé à Londres, révèle que les entreprises du
S&P 500 expriment des préoccupations croissantes concernant les dangers
liés à l’IA pour leurs résultats financiers.
Par exemple, en
l’espace d’une seule année, trois entreprises du S&P 500 sur quatre ont
ajouté ou élargi leurs déclarations sur les risques liés à l’IA. Le nombre
d’entreprises citant les deepfakes comme un risque commercial a doublé, passant
de 16 à 40, tandis que celles mentionnant les dangers liés aux biais de l’IA
ont également doublé, passant de 70 à 146.
Ces résultats montrent
que, même si les consommateurs et les entreprises adoptent clairement l’IA pour
répondre à un éventail croissant de besoins, ils le font tout en nourrissant
des inquiétudes réelles quant à ce que représente cette technologie et à la
direction qu’elle prend.
La confiance : un socle
indispensable pour un avenir prospère
Cette ambivalence, tant
chez les consommateurs que chez les entreprises, découle d’une réalité de plus
en plus évidente : si les gains potentiels en matière de performance et
d’efficacité offerts par l’IA sont indéniablement séduisants, les risques le sont
tout autant.
Ces risques, qui
occupent une place centrale dans les préoccupations exprimées non seulement
dans ces études récentes, mais aussi dans d’autres enquêtes publiques et
analyses d’experts, incluent :
• la désinformation et les biais
algorithmiques,
• la dégradation des systèmes politiques
démocratiques,
• la perte massive d’emplois,
• la diminution des capacités cognitives et
sociales humaines,
• l’impact environnemental des besoins
énergétiques colossaux de l’IA,
• et, de manière plus inquiétante encore, la
subordination de l’action humaine à une IA super intelligente, dont les
capacités et les motivations échapperaient à tout contrôle.
Cette liste, bien que
non exhaustive, illustre l’ampleur et la complexité des défis auxquels nous
sommes confrontés lorsque nous réfléchissons à l’avenir de cette technologie.
Un choix stratégique
pour les entreprises
Face à ces enjeux, il
pourrait être tentant pour les entreprises de privilégier la voie la plus
simple : tirer profit des gains à court terme offerts par l’IA, tout en
laissant à d’autres le soin de gérer les risques. Pourtant, cette approche,
bien qu’attrayante, pourrait rapidement compromettre les espoirs placés dans la
prospérité induite par l’IA.
Si le public perçoit
que cette technologie nous rapproche des scénarios de risque évoqués
précédemment, l’ambivalence, voire l’hostilité envers l’IA et les entreprises
qui la déploient de manière irresponsable, pourrait s’accentuer. Une telle
érosion de la confiance des consommateurs pourrait affecter les niveaux
d’adoption de l’IA, réduire les gains d’efficacité escomptés, et compromettre
des éléments essentiels de sa valeur globale.
Il ne faut pas non plus
négliger la question cruciale de l’attraction et de la rétention des talents.
Dans une compétition de plus en plus féroce pour attirer les meilleurs esprits,
les employeurs ont tout intérêt à se positionner comme des promoteurs de
pratiques responsables et constructives en matière d’IA. Cela est
particulièrement vrai pour les jeunes professionnels hautement qualifiés, qui
accordent une grande importance à l’authenticité, à la crédibilité et à
l’impact social.
Changer de posture : de
la conformité à la créativité stratégique
Si les entreprises
disposent d’incitations aussi fortes pour orienter l’IA vers une version plus
fiable et socialement acceptable, comment peuvent-elles concrètement y parvenir
?
Une solution consiste à
reconnaître l’importance cruciale du rôle des entreprises dans la promotion de
normes claires et efficaces pour le développement et le déploiement de l’IA.
Il ne s’agit pas de
minimiser le rôle de la réglementation nationale ou multilatérale, qui reste
évidemment nécessaire. Cependant, l’IA exige un rôle proactif particulier des
entreprises dans la définition des meilleures pratiques, et ce pour plusieurs raisons.
Parmi celles-ci, le rythme effréné du cycle d’évolution de l’IA : les
entreprises qui développent et utilisent cette technologie peuvent élaborer et
perfectionner des normes bien plus rapidement que les gouvernements ne peuvent
produire une réglementation significative.
Ces normes, une fois
établies, peuvent informer et enrichir les réglementations futures, réduisant
ainsi le risque que les politiques gouvernementales soient mal informées, trop
générales, incohérentes ou inadaptées aux problèmes réels.
Une norme solide et
visible offrirait également des incitations concrètes. Les entreprises et
instituts de recherche reconnus pour leur adhésion à un tel système
disposeraient d’un moyen pratique de signaler leur fiabilité aux consommateurs,
aux régulateurs, aux fournisseurs et aux talents potentiels.
Cette forme de
validation est particulièrement précieuse dans un secteur où la confiance est à
la fois de plus en plus recherchée (comme le souligne l’étude KPMG/Melbourne :
« l’importance des mécanismes organisationnels de garantie comme fondement de
la confiance a augmenté dans tous les pays »), mais aussi difficile à discerner
sans un système de validation largement accepté.
Un tel corpus de normes
pourrait s’appuyer sur un cadre international, comme la norme ISO 42001, et
s’adapter en fonction des évolutions rapides des technologies et des secteurs.
Ces standards ne seraient pas de simples mécanismes de signalement de vertu,
mais des pratiques reconnues permettant à l’industrie de rester en avance sur
sa propre évolution technologique, tout en favorisant un marché concurrentiel
qui ne compromette pas ses propres sources de vitalité future.
Un tournant décisif
Nous sommes à un
tournant décisif. Les technologies les plus puissantes jamais créées peuvent
soit renforcer et exacerber les inégalités, soit contribuer à un monde plus
juste. Les entreprises peuvent choisir de se limiter à une conformité minimale,
ou bien saisir l’opportunité stratégique d’une IA responsable.
L’avenir n’est pas
quelque chose à subir. C’est quelque chose à construire. Ensemble. Dès
maintenant.


