Accueil>L’intelligence artificielle est-elle un danger pour l’enseignement supérieur ?
24.03.2023
L’intelligence artificielle est-elle un danger pour l’enseignement supérieur ?
GPT4, Google Bard, Copilot… Comment penser et adapter les enseignements aux outils de l’Intelligence Artificielle (IA) et aux nouvelles normes du XXIe siècle ?
Mathias Vicherat, directeur de Sciences Po, a posé la question à ChatGPT : quels sont les grands enjeux de l’IA pour l’enseignement supérieur et la recherche ?
Quatre défis majeurs ont été indiqués par l’outil : une amélioration de l’expérience d’apprentissage grâce à un espace plus collaboratif, une automatisation de certaines tâches des enseignants afin qu’ils se concentrent sur le plus important, une analyse systématique des données pour améliorer l’enseignement et enfin la formation aux outils de l’IA qui va devenir un prérequis pour l’insertion professionnelle. ChatGPT a précisé que son utilisation devait être “une ressource supplémentaire et pas une solution à tous les problèmes”.
Afin d’enrichir le débat public sur ces thèmes, Sciences Po a lancé un cycle de conférences sur ce lien complexe entre outils de l’IA et enseignement supérieur.
“Ne devenons pas les outils de nos outils”
La première conférence a eu lieu le 16 mars 2023 en présence de cinq invités parfois inquiets mais tous passionnés par ce sujet : Cécile Badoual (Vice-présidente Formation, Université Paris Cité), Dominique Boullier (professeur des universités, chercheur au Centre d'études européennes et de politique comparée de Sciences Po), Alain Goudey (Directeur Général Adjoint en charge du numérique à Neoma BS, professeur en marketing), Valentin Goujon (doctorant en sociologie au médialab de Sciences Po) et Asma Mhalla (membre du Laboratoire d'Anthropologie Politique de l'EHESS/CNRS, enseignante à Columbia GC, à l’École Polytechnique et à Sciences Po). Alice Antheaume (journaliste et directrice exécutive de l'École de journalisme de Sciences Po, membre du Comité Relatif à l'honnêteté, à l'indépendance et au pluralisme de l'information et des programmes de Radio France) était la modératrice du débat.
Le directeur de Sciences Po a affirmé lors de son discours d’introduction l’importance d’appréhender tout nouvel outil, et particulièrement ceux de l’IA, en faisant preuve d’esprit critique. Il s’est déclaré surpris de la “réduction médiatique” de l’obligation rappelée par Sciences Po à ses étudiants de citer leurs sources, dont l’utilisation de ChatGPT.
En tant qu’université de recherche internationale en sciences sociales, Sciences Po est convaincue de l’apport de ces nouveaux outils dans le domaine de la pédagogie comme de la recherche et ne néglige en rien sa mission de “former les étudiants à ce type d’outils”. Ainsi, un nouveau cours sur l’IA sera dispensé à tous les étudiants en première année de master dès le printemps 2024.
Mathias Vicherat a également précisé que Sciences Po s'appuierait sur son Institut des Compétences et de l’Innovation pour former les enseignants aux enjeux des outils de l’IA. La recherche sur l’IA existe par ailleurs au sein de l’institution depuis de nombreuses années, que ce soit au cœur du médialab fondé par Bruno Latour, de l’Institut McCourt ou encore du projet pluridisciplinaire “Shaping AI” porté en partenariat avec l’Allemagne, le Canada et le Royaume-Uni.
The winner takes it all : marché contre éthique
Asma Mhalla, Alain Goudey et Dominique Boullier ont souligné la frénésie d’annonces et de mises sur le marché déclenchées par la sortie de ChatGPT en novembre 2022. Pour la première, cette innovation n’est “pas tellement une disruption technologique” mais bénéficie “d’effets d’échelle et d’adoption des ses usages extraordinaires”. Pour le second, cette “extrême médiatisation”, alors que l’IA existe depuis 1956, tient à une logique de compétition commerciale sur un marché où, pour le dernier, le plus rapide gagnera : “the winner takes it all”.
Cette adoption rapide, autour d’usages “ludiques et sympathiques” ne doit pas, pour Asma Mhalla, créer une “accoutumance” qui dépolitise des outils dont les usages sont en réalité à double tranchant et qui peuvent rapidement être utilisés à des “fins militaires, policières” (avec l’exemple parmi d’autres de la reconnaissance faciale). La question essentielle à se poser pour l’enseignante-chercheuse est “quelle vision du monde est encapsulée dans ces outils ?”, qui sont loin d’être neutres et aujourd’hui produits par des entreprises américaines privées. Dominique Boullier s’est accordé avec sa consoeur en affirmant qu’une technologie “se fait toujours vecteur de normes”. Cécile Badoual les a rejoint en soulevant la question des données, qui est vastement ignorée par les utilisateurs de ces outils et qui est pourtant prioritaire : “que fait-on en donnant nos données à ces outils et à qui les donne-t-on ?”.
Si Valentin Goujon a salué l’essor “qualitatif et quantitatif” des outils de l’IA – grâce notamment aux progrès technologiques de l’IA connexionniste et de l’architecture neuronale, mais aussi à l’explosion du volume des données –, Dominique Boullier s’est désolé que le débat public se porte sur “des modèles de très mauvaise qualité”. Pour le professeur et chercheur, la logique de marché, du “rough consensus” (tout le monde est à peu près d’accord) et du “running code” (cela fonctionne à peu près), l’a emporté sur l’éthique. Ces outils “auraient dû être testés avant leur diffusion”. Il serait crucial de passer à “une modernité réflexive pour anticiper les conséquences de nos décisions et choix scientifiques”. Alain Goudey est aussi convaincu qu’il faudra “positionner” ces outils qui vont faire partie de notre quotidien (citant GPT4 mais aussi Google Bard, Microsoft Copilot, le Lama de Meta ou encore l’Alpaca de Stanford University), un quotidien où collaborateurs humains et non humains coexisteront.
Sortir de la culture de la bonne réponse
Le journal The Atlantic, cité par Alice Antheaume, identifie le dialogue avec l’IA comme la compétence-clé du siècle. Dès lors, comment l’enseigner ? La banalisation des outils de l’IA appelle pour Alain Goudey à “réimaginer le rôle du pédagogue”, “la place du professeur et celle de l’outil”.
La question des sources se pose de façon centrale. D’une part, dans le cas des sources qui sont “données en entrées aux modèles”, comme “corpus d'entraînement”, a pris le temps d’expliquer Valentin Goujon. Ces sources peuvent poser problème de diverses façons, lorsque leur fiabilité est en question, comme pour Wikipedia ou Common Crawl, mais aussi lorsque des principes de droits d’auteurs ou de droits à l’image sont bafoués. Le chercheur a mis en garde l’assistance contre le phénomène nommé “hallucination” qui consiste à jouer sur l’anthropomorphisme en donnant des traits humains aux outils de l’IA, qui jouent alors sur une véracité qui peut cacher de vraies erreurs. D’autre part, la question de l’honnêtet é intellectuelle se pose aussi aux étudiants. Cécile Badoual en est persuadée, l’apprentissage de l’honnêteté passe par “le sourcing”, quand on cite, il faut pouvoir préciser d’où viennent nos informations. La pensée humaine serait innovante par sa capacité à chercher et à critiquer.
Une limite principale des outils de l’IA dans leur forme contemporaine, qui est aussi un danger, serait leur objectif de donner une réponse unique, le plus rapidement possible et la plus neutre possible. Dominique Boullier a affirmé que le “débat est mal posé” car aucun enseignant n’a pour ambition que ses étudiants fournissent des résumés automatiques, tous identiques. Les priorités des outils de l’IA ne seraient en rien les “priorités éducatives” des universités. Il s’est amusé en citant Google qui a déjà bouleversé le métier des enseignants, et qui est aussi devenu un “moteur de réponses et plus seulement de questions”, qui a nécessité “d’apprendre à poser les bonnes questions”. Les grands défis contemporains comme les transitions numérique et écologique nécessitent “d’entrer dans la complexité” et de “restituer le pluralisme”... Les outils de l’IA seraient sur des “rails opposés” qui peuvent apparaître comme dangereux pour l’avenir.
Enfin, Asma Mhalla a appelé à ne pas mettre de côté l’enjeu de la “fracture numérique”, comment permettre à chacun “d’être plus intelligent que la machine” ? Si l’enseignante, à l’instar de ses pairs présents à la conférence, n’a pas l’obsession de la réponse, elle a développé en revanche une “obsession de la conviction”. Elle attend de ses étudiants qu’ils métabolisent une compréhension intime et une vision personnelle du monde, qui ne peut se dérouler que dans des lieux comme l’école ou l’université et auprès d’humains, de professeurs, d’étudiants. Cela permettra d’éviter la fracture numérique mais c’est aussi de cette confrontation des idées que naîtra la singularité humaine, qu’on pourra fonctionner avec les outils de l’IA et qu’on ne sera pas “condamné à se rapprocher de l’animal”. Citant un éditorial du New York Times, l’enseignante et chercheuse s’est désolée : “à chaque fois qu’on essaye de trouver l’axe différenciant entre l’homme et la machine, en fait on retrouve les caractéristiques de l’animal – l’intuition, les émotions, le reptilien… non, non, notre seule force n’est pas que là, ou alors c’est une rétrogradation totale de l’humanité”.
EN SAVOIR PLUS :