S'inscrire à la Newsletter

L’enjeux d’une Intelligence Artificielle responsable (La Française)

02/06/2025

Par Vincent GOUSSARD, analyste, pôle de recherche crédit et ESG, Crédit Mutuel Asset Management, Groupe La Française.

Les freins à l’adoption de l’IA

Parfois présentée comme la 4ème révolution industrielle (après celle de l’internet), l’Intelligence Artificielle (IA) constitue un important vecteur d’amélioration de la productivité. Si le champ des possibles qu’elle offre n’est pas encore pleinement intégré dans tous les modèles d’affaires, son essor suscite des inquiétudes légitimes. En effet, selon des données récentes d’Eurostat , les questions et incertitudes liées à la réglementation de son usage figurent en bonne place parmi les principaux freins à l’adoption par les entreprises de plus de 250 employés dans l’Union Européenne.

Ces données mettent en lumière le besoin, pour l’IA, de se développer dans un cadre sécurisé. Les risques juridiques et réglementaires présentés par l’IA, y compris ceux ayant trait à la propriété intellectuelle, à la protection des données, à la vie privée et à l’éthique, peuvent être regroupés sous le chapeau de la gouvernance de l’IA, c’est-à-dire de l’ensemble des processus et des normes qui permettent d’en garantir une utilisation sécurisée et l’éthique . Une bonne gouvernance de l’IA est susceptible d’en favoriser l’adoption.

Le besoin de gouvernance : AI Act

En l’absence d’une gouvernance mondiale, l’Union Européenne (UE) a instauré le 1er règlement sur l’IA (AI Act ) en juin 2024 pour une application progressive jusqu’en décembre 2030. Ce règlement a pour objectif de garantir une utilisation de l’IA qui soit sûre, éthique, transparente et respectueuse des droits fondamentaux. Pour cela, les usages de l’IA ont été catégorisés par niveaux de risque (minimal, limité, élevé, inacceptable) et associés à des obligations destinées à réduire voire supprimer, ces derniers. L’UE a poussé très loin le champ d’application de l’AI Act afin que la nature numérique de l’IA ne permette pas de contourner ce règlement. L’AI Act vise non seulement les fournisseurs et entités utilisatrices de systèmes d’IA implantés dans l’UE mais également ceux dont les « sorties », produites par des systèmes d’IA, sont utilisées dans l’UE. L’expression de « sorties », où « output » en anglais, fait figure de filet dérivant ; ce terme étant suffisamment vague pour capturer un large spectre de situations : « des prévisions, du contenu, des recommandations ou des décisions ».

Pour éviter que les IA ne fonctionnent à la manière de boîtes noires, l’AI Act vise principalement à protéger les citoyens européens contre une utilisation biaisée en leur garantissant la transparence et traçabilité du processus d’inférence qui doit, par ailleurs, rester sous supervision humaine. 

Appliquée au domaine des ressources humaines, un usage considéré comme à « risque élevé », cette réglementation vise à obliger une entreprise qui utiliserait un système d’IA pour trier des candidatures, d’en informer les postulants et d’être en mesure d’expliquer le fonctionnement de l’algorithme utilisé. Par ailleurs, afin de prévenir la survenance d’éventuels disfonctionnements, tels que des « hallucinations » , l’ensemble du processus doit être réalisé sous supervision humaine.

Si elle pose les bases d’une gouvernance de l’IA, cette réglementation n’est pas exempte de critiques. Pour les plus libéraux, au sens économique du terme, sa complexité et son coût pourraient constituer des freins à l’innovation. Et ce, d’autant plus que ces nouvelles obligations doivent s’intégrer aux obligations préexistantes : les droits fondamentaux, la protection des données à caractère personnelles, la protection des consommateurs ou encore la protection de la propriété intellectuelle. Pour d’autres, plus sensibles au respect des droits de la personne, elle est jugée encore trop laxiste et sa mise en place, trop lente.

Intérêt d’une gouvernance mondiale

L’extraterritorialité de l’AI Act et l’importance des amendes auxquelles pourraient être exposées les sociétés (jusqu’à 7% du chiffre d’affaires mondial pour des utilisations interdites) sont de nature à interférer avec les intérêts d’autres zones économiques. Ainsi, l’administration américaine actuelle qui a, par ailleurs, relâché la bride aux fournisseurs d’IA au motif qu’il ne faut pas freiner l’innovation , fait également pression, selon Bloomberg, sur les autorités européennes pour qu’elles abandonnent le Code de bonnes pratiques en matière d’IA à usage général , attendu , d’ici le mois d’août. Sans caractère contraignant, ce document, corédigé par différentes parties prenantes, dont les fournisseurs de modèles d’IA eux-mêmes, détaille les bonnes pratiques à adopter. 

Ce rapport de force illustre la nécessité de s’accorder pour éviter qu’une juxtaposition de règles et standards nationaux ne finisse par entraver le développement de l’IA. Toutefois, compte tenu des biais culturels et idéologiques existants, il est probable qu’un modèle de gouvernance mondial de l’IA ne puisse être déterminé que sur la base du plus petit dénominateur commun. C’est le rôle qui semble avoir été dévolu au Pacte Numérique Mondial  (Global Digital Compact), adopté par 193 pays lors du Sommet de l’Avenir qui s’est tenu en septembre 2024. Tout comme son ainé (UN Global Compact) avait vocation à faire progresser les droits de l’homme, les normes du travail, la gestion de l’environnement et la lutte contre la corruption, le Pacte Numérique Mondial a vocation à « définir des principes partagés pour un avenir numérique ouvert, libre et sécurisé pour tous » . En son sein, le comité intelligence artificielle vise à « renforcer la gouvernance internationale des données et réguler l'IA pour le bien de l'humanité ». 

Conclusion 

Dans son ouvrage « 1984 », Georges Orwell met en scène un monde où les citoyens sont sous la surveillance constante d’un pouvoir autoritaire, représenté par la figure de Big Brother. A l’heure du tout numérique, les empreintes digitales que nous laissons, combinées aux avancées de l’IA, exposent chaque citoyen / consommateur à un traitement équivalent. Pour éviter que la dystopie orwellienne ne se transforme en réalité, il apparait nécessaire de réguler l’utilisation de cette technologie. La notion d’investissement responsable implique donc de s’assurer que les entreprises qui créent ces systèmes d’IA et celles qui les déploient mettent en place des « pare-feux » opérationnels adéquats sous la supervision d’organes de gouvernance disposant des compétences pour comprendre ces enjeux et pour réduire les risques qui leurs sont liés. 



Zoom Invest est la plateforme dédiée aux conseillers en investissements financiers. Ils y retrouvent l’actualité des marchés financiers, des produits, du patrimoine et des acteurs de la Finance. Les informations disponibles sur le site ont un caractère exclusivement indicatif. Elles ne constituent pas une incitation à investir et ne peuvent pas être considérées comme des conseils d’investissements. Elles ne représentent pas non plus des offres de produits ou de services pouvant être assimilés à un appel public à l’épargne, ni à des sollicitations à l’achat ou à la vente d’OPCVM ou de tout autre produit d’investissement. Zoom Invest ne saurait être tenu responsable de toute décision d’investissement fondée sur une information mentionnée sur le site.