[ETUDE] La souveraineté européenne dans l’intelligence artificielle : une perspective fondée sur les compétences, par Ludovic Dibiaggio, Lionel Nesta et Simone Vannuccini
8 novembre 2024
[ANALYSE] Digital Fairness Act : le prochain projet de l’UE pour garantir un environnement numérique plus équitable aux consommateurs
26 novembre 2024

[PODCAST] Comment réguler l’intelligence artificielle générative ?

Florence G’sell, titulaire de la chaire, a été invitée sur France Culture mercredi 6 novembre 2024. Le podcast est accessible ici.

Comment améliorer la réglementation des plateformes en ligne et quels sont les défis juridiques posés par les technologies émergentes telles que la blockchain et le métavers ?

Avec

  • Florence G’Sell, Professeure de droit privé à l’Université de Lorraine, titulaire de la Chaire Digital, Gouvernance et Souveraineté de Sciences Po et professeur invité au Cyber Policy Center de l’Université de Stanford

La régulation de l’intelligence artificielle est un sujet urgent et nouveau – rappelons que l’on s’accorde à fixer la naissance de l’IA générative à la date du 30 novembre 2022, jour où fut mis en service le fameux programme Chat GPT. Ce sujet prend un nouveau tour avec l’élection de Donald Trump. Plusieurs directions se présentent :

– Soit l’auto-régulation du secteur par lui-même, mais les codes de conduites et les déclarations vertueuses s’amoncèlent dans un milieu à la fois hyper compétitif, et dans un contexte de plus en plus tendu sur le plan géopolitique. Cela revient à confier la régulation de l’IA générative à la loi du marché ou à l’état de nature.

– Soit une régulation gouvernementale ou internationale, plus contraignante donc, voie qu’a choisi l’Union européenne. Florence G’sell nous explique « l’Europe est aujourd’hui à l’avant-garde de la régulation de la technologie. Le législateur californien suit ce qui se passe en Europe, il l’a fait pour la protection des données, il s’est beaucoup inspiré du RGPD européen. Cet été, un sénateur démocrate de Californie a déposé une loi centrée sur les risques critiques, à savoir le risque que des modèles avancés permettent de créer des armes chimiques, de générer des cyberattaques massives. C’est un texte qui se concentrait vraiment sur les modèles les plus avancés, les plus puissants, ce faisant, c’est un texte qui était particulièrement contraignant par rapport à ce qu’on a l’habitude de voir ici, puisqu’il imposait des obligations de cybersécurité très lourde sur les développeurs et qu’il avait aussi un volet de responsabilité, c’est-à-dire qu’il rendait les développeurs des plus grands modèles responsables de ce que l’on pouvait faire avec leur outil ».

– Soit une voie intermédiaire, qu’on peut appeler « co-régulation », qui mise sur un dialogue entre les grands groupes de l’industrie de la tech, de façon à écrire des standards de bonne conduite, un peu généraux et mous.

– Soit, enfin, d’attendre que des dommages majeurs surviennent et que la régulation résulte de la jurisprudence des tribunaux qui en imputent la responsabilité aussi bien personnelle que commerciale à la hauteur des dégâts.

On ne sait quelle voie triomphera, mais ce qui est certain, c’est que le risque à ne rien faire est à la fois très grand et très incertain. C’est peut-être cela qui est nouveau : décider de normes pour un monde que l’on ne connaît pas encore, plus incertain aujourd’hui qu’hier.

Esprit de justice propose de réfléchir à solutions et à leur probabilité dans le nouveau contexte qui s’ouvre aujourd’hui, en compagnie de Florence G’sell, Professeur de droit à l’université de Lorraine, mais qui est aujourd’hui Professeure invitée à l’université de Stanford au cœur de la Silicon Valley donc, où elle dirige le programme sur la Gouvernance des technologies émergentes au Stanford Cyber Policy Center. Elle vient de signer en mars dernier un rapport majeur intitulé « Réglementer dans l’incertitude : les différentes solutions pour l’IA générative ».