Les enjeux juridiques et éthiques de l’Artificial Intelligence Act. À propos de la proposition de règlement européen établissant des règles harmonisées concernant l’intelligence artificielle
https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206
En raison de son impact croissant sur les entreprises et la société, la transition numérique pose de nouveaux défis à l’Europe. Si l’Union européenne (UE) entend soutenir l’innovation et les compétences numériques, afin de tirer profit du marché unique numérique, elle place le citoyen au coeur de ses préoccupations, en visant à garantir la sécurité, la transparence et la responsabilisation du secteur. Les plateformes numériques, le cloud computing, l’internet des objets et, plus encore, l’intelligence artificielle (IA) font partie des technologies numériques qui suscitent un vif intérêt et appellent une réponse appropriée de l’Union européenne, au regard des risques et des opportunités qui leur sont attachés. C’est dans ce contexte que le 21 avril 2021, la Commission européenne dévoilait son projet de règlement visant à établir des règles harmonisées concernant l’intelligence artificielle. Un an après la publication de cette proposition législative, force est de constater les nombreuses difficultés auxquelles se heurte l’Union européenne en matière de réglementation des systèmes d’IA. Ces difficultés, d’ordre conceptuel et politique, mettent en évidence la complexité technique du domaine en question. Elles dévoilent aussi les limites du droit — du droit en général et du droit de l’UE en particulier — en même temps qu’elles exigent de combiner des approches souples et contraignantes afin de prévenir les risques inhérents aux nouvelles technologies, à l’instar des biais discriminatoires, des erreurs de décision et de l’opacité des algorithmes. Ces risques propres aux systèmes d’IA appellent un régime de responsabilité et des obligations de transparence spécifiques pour faire de l’UE un acteur mondial de premier plan dans le développement d’une IA sûre, fiable et éthique. La présente note ne prétend pas dresser une analyse exhaustive du texte de la proposition, mais propose d’exposer les enjeux normatifs qui se posent à l’UE face à l’urgence d’adopter un cadre réglementaire de l’IA, à la fois éthique et juridique. Le premier défi concerne l’ambition d’établir un cadre législatif de l’IA au niveau de l’UE à l’heure où les stratégies nationales sur la souveraineté numérique se multiplient (I). Le second défi, au cœur de la stratégie européenne visant à promouvoir une IA digne de confiance, a trait à la garantie des droits fondamentaux et impose une approche « par les risques » qui soulève, en termes juridiques, plus d’interrogations qu’elle n’apporte de réponses (II). Enfin, l’équation complexe d’une IA made in Europe cherchant à assurer la protection des principes éthiques tout en favorisant un cadre normatif propice à l’innovation, constitue un dernier défi susceptible de cristalliser les débats sur les enjeux attachés à l’Artificial Intelligence Act (III).
Sommaire:
I- Le défi d’un cadre législatif de l’intelligence artificielle au niveau de l’Union européenne
II- La question insoluble des droits fondamentaux : les limites juridiques de l’approche par les risques
III- L’équation complexe d’une IA made in Europe : entre protection des principes éthiques et soutien à l’innovation
