Accueil>[Policy Brief d'étudiants] L'explicabilité dans l'IA
31.05.2024
[Policy Brief d'étudiants] L'explicabilité dans l'IA
Par Janine Ecker, Paul Kleideinam, Claudia Leopardi, Anna Padiasek, Benjamin Saldich
La Chaire Digital, Gouvernance et Souveraineté publie régulièrement les meilleurs essais et articles rédigés par les étudiants de Sciences Po dans le cadre de leurs études.
Ce Policy Brief a été sélectionné comme l’un des meilleurs travaux rédigés dans le cadre du cours enseigné par le Pr Suzanne Vergnolle « Comparative Approach to Big Tech Regulation » (approche comparée de la régulation des big tech) au printemps 2024, dans le cadre de la spécialité Digital, New Technologies and Public Policy de l'Ecole d'affaires publiques.
À une époque où l’intelligence artificielle (IA) est appelée à jouer un rôle de plus en plus important dans notre société, il est impératif de maintenir un certain niveau de contrôle humain sur les systèmes d’IA. L’explicabilité – définie de manière générale comme un niveau de compréhension ou d’explication du fonctionnement et des décisions des systèmes d’IA – est une composante essentielle de ce contrôle humain. Pourtant, les universitaires, les éthiciens et les législateurs ne sont pas parvenus jusqu’à présent à se rallier à une stratégie unique pour réglementer l’explicabilité dans le domaine de l’IA. Cette note politique, produite par notre groupe de réflexion européen, synthétise les connaissances universitaires et les approches réglementaires internationales afin de proposer des recommandations applicables aux décideurs politiques américains. Notre objectif est de trouver un équilibre entre les impératifs éthiques et les considérations pratiques, afin de garantir la transparence, la responsabilité et la confiance de la société dans les technologies de l’IA.
Après avoir examiné la compréhension actuelle des notions de transparence dans les systèmes d’IA « boîte blanche » et « boîte noire », le document analyse la manière dont les organisations et les pays ont cherché à définir et à réglementer l’explicabilité de l’IA, en se concentrant plus particulièrement sur l’UE, la Chine et les États-Unis. Cette analyse fait ressortir trois stratégies politiques principales, dont les forces et les limites sont examinées.
S’inspirant des récents efforts de réglementation de l’UE, ce document recommande une approche équilibrée de l’explicabilité de l’IA qui vise à réglementer la gouvernance de l’IA en fonction des niveaux de risque, en reconnaissant les limites techniques tout en garantissant la responsabilité et la transparence. Nous proposons quatre stratégies politiques clés que le Congrès américain devrait prendre en compte lors de l’élaboration de la législation sur l’IA :
- Mettre en œuvre une approche fondée sur le risque : L’adoption d’un cadre structuré semblable à la loi européenne sur l’IA garantit la cohérence, la transparence et la proportionnalité de la réglementation en matière d’IA.
- Imposer des obligations contraignantes aux systèmes à haut risque : Renforcer la transparence et les approches centrées sur l’humain pour les systèmes d’IA à haut risque, afin de garantir la responsabilité et d’atténuer les risques.
- Établir des règles claires en matière de responsabilité : Introduire des règles de responsabilité pour faciliter la réparation des dommages causés par les systèmes d’IA, en équilibrant les mesures préventives et les mécanismes de réparation des dommages.
- Création d’un groupe de travail de la Federal Trade Commission : Créer un groupe de travail spécialisé au sein de la FTC pour superviser la gouvernance de l’IA, garantir la conformité et encourager la collaboration entre les parties prenantes.
Ce document souligne également la complexité et la nature évolutive du secteur de l’IA, qui pose des défis uniques à la conception et à la mise en œuvre d’une réglementation centrée sur l’explicabilité. L’obtention d’explications fiables pour la prise de décision en matière d’IA reste un défi important et doit être abordé dans le cadre de recherches futures.