par Virginie Tournay, CEVIPOF*
La place importante prise par le numérique et les algorithmes dans la vie collective est souvent analysée sous des angles technologiques, organisationnels et économiques, mais la façon dont l’intelligence artificielle transforme substantiellement le politique est plus rarement discutée. C’est pourtant une question fondamentale. Plutôt que de voir dans la globalisation de ces outils, l’expression de dérives néocapitalistes, mon ouvrage L’intelligence artificielle. Les enjeux politiques de l’amélioration des capacités humaines (Ellipses, mars 2020) envisage ce phénomène comme une transition historique qui, bien qu’elle signe un renouvellement radical des manières d’appréhender la vie collective, renvoie à une constante de l’humanité : la volonté d’améliorer les capacités humaines, tant sur un plan individuel que social. J’y propose une synthèse des travaux existants dans l’idée de mieux comprendre comment advient l’État de notre civilisation numérique.
En accélération depuis ces dix dernières années, la révolution numérique témoigne d’une transformation de la perception collective du monde qui nous entoure. Elle passe désormais par le filtre d’algorithmes de plus en plus nombreux et invisibles aux utilisateurs, d’objets et de services connectés ; elle s’accompagne d’une nouvelle économie marquée par la montée en puissance des plateformes qui en définissent les unités organisationnelles. Ainsi en va-t-il des géants du web, où figurent les entreprises américaines GAFAM (pour Google, Apple, Facebook, et Microsoft) qui dominent le marché par leur présence dans toute l’infrastructure d’internet et du web. Des plateformes telles qu’Uber dans les transports, Twitter dans les réseaux sociaux, Netflix dans la culture audiovisuelle, si elles sont plus récentes, connaissent une croissance exponentielle. Leur force est de s’appuyer sur « l’expérience client» afin de développer des services individualisés de plus en plus précis.
À ces acteurs, il faut ajouter les entreprises chinoises – Baidu, Alibaba, Tencent et Xiaomi – qui ne cessent de s’affirmer comme incontournables. Outre les développements de la programmation informatique, la révolution numérique est surtout de nature organisationnelle et managériale. Elle se traduit par une nouvelle économie informationnelle et par une refonte des rapports du citoyen à cette République « numérique ». De l’ouverture des données publiques à l’usage des outils numériques dans l’expertise régalienne, en passant par la défense, l’information juridique et les services publics, les algorithmes impactent sur la fabrique d’un monde commun et sur le processus démocratique lui-même.
Définie en 1956 par des experts du domaine, l’intelligence artificielle s’enracine d’abord comme discipline académique dont l’objectif est de simuler et de reconstituer artificiellement des processus cognitifs par l’intermédiaire de « machines pensantes ». Cette lecture historique, bien connue des spécialistes, associe aujourd’hui une définition sociale qui en fait un objet plus difficile à documenter de façon à la fois précise et exhaustive. Si on reprend la définition du mathématicien Gilles Savard, l’intelligence artificielle concerne tout ce qui relève de l’algorithmique, c’est-à-dire qu’elle renvoie à une série d’instructions appliquées à de gigantesques masses de données. Il s’agit des logiciels et des dispositifs techniques qui fournissent des fonctionnalités supplémentaires au téléphone, à l’ordinateur, au robot etc. Cela peut nous amener à prêter des capacités cognitives à des machines comme l’apprentissage automatique, la reconnaissance visuelle ou la traduction automatique.
Le terme générique d’intelligence artificielle porte autant sur les méthodologies des algorithmes que sur les domaines d’application de ces outils. Mais au-delà de cette définition opératoire, la notion d’intelligence artificielle reste difficile à appréhender car ses formes de production et ses usages sont multiples. Des algorithmes utilisés pour prédire des épidémies à ceux de l’industrie culturelle qui génèrent des recommandations de livres (Amazon) ou de films (Netflix), on voit bien que leur production, leur usage et régulation ne mobilisent pas les mêmes acteurs, des objectifs partagés, ni même une infrastructure technique commune.
Ainsi, pour saisir les enjeux politiques de l’intelligence artificielle, il faut questionner la diversité des pratiques impactées par ces usages, les contextualiser dans leur rapport au temps et à l’espace, tout en intégrant la matérialité et l’impact de ces systèmes d’aide à la décision devenus « performants ». Identifier des zones criminogènes qui retiennent l’attention de la police à l’aide d’algorithmes ou quantifier l’évolution probable d’une pathologie complexe soulèvent des questions de responsabilité : cette responsabilité doit-elle porter sur la machine ou assumée par le médecin ? Le suivi de certains délits va-t-il être privilégié au détriment d’autres méthodes, plus classiques ?
Il convient également de distinguer les effets politiques qui découlent de la nouvelle économie informationnelle « algorithmique » des préoccupations liées à la diversification des interfaces homme-machine. Les transformations engagées à ces deux niveaux sont de nature très différente. Dans le premier cas, la survenue de l’intelligence artificielle est une tendance de fond destinée à s’inscrire dans la durée. La disponibilité et l’accessibilité des données (comme le propose le site data.gouv.fr, la plateforme des données publiques françaises, en application de la loi sur la République numérique de 2016), leur traitement par différents opérateurs, et le suivi en temps réel des activités avec une précision toujours plus fine, sont porteurs de rationalités politiques dont on ne mesure pas encore pleinement les conséquences.
Dans le second cas, la relation hommes-machines, même si ces dispositifs médicaux sont à la source de progrès notables (dialyse rénale, défibrillateurs, assistance au diagnostic, suivi de pathologies chroniques comme le diabète, neurostimulation etc.), relève plutôt d’une forme de sensationnalisme médiatique autour de « l’humain augmenté » ou du transhumanisme.
Si l’histoire de l’intelligence artificielle est indissociable des grands progrès réalisés en informatique dans les dernières décennies, son évolution ne peut plus être reliée au seul état des connaissances de cette discipline. Parce que ces applications touchent désormais l’ensemble des citoyens, l’intelligence artificielle est devenue un objet social. Elle rencontre également l’histoire de l’information et ses grandes ruptures.
L’accélération des temporalités de transmission de l’information avec internet et la transformation du citoyen, qui, en ligne, devient à la fois producteur, informateur et récepteur de récits médiatiques, témoignent de l’importance des algorithmes de tri et de recommandation dans la structuration des foules numériques et la recomposition de l’espace public. Instrument potentiel de contrôle social, l’algorithme concourt ainsi à la structuration des formes d’opinion publique et des moyens de la mesurer. Le politique devient-il soluble dans l’expertise algorithmique ?
L’intelligence artificielle est un objet politique car ses développements mettent au défi l’organisation de notre société (polity), sa communication politique (politics) et ses politiques publiques (policy). De nombreux rapports émanant d’institutions publiques ont été publiés ces trois dernières années. Pour l’essentiel, ils visent à caractériser les tendances générales du développement de ces technologies, en les distinguant de celles qui relèvent de pures spéculations. Le ton juste est difficile à trouver car les représentations collectives de l’intelligence artificielle sont duales. D’une part, elles malmènent l’imaginaire prométhéen en opposant l’homme à la machine : on parle de dérive, de danger, de tsunami. Mais d’autre part, elles sont marquées par de fortes promesses et d’attentes sociales en matière de santé, d’éducation ou dans le monde de l’énergie. Comprendre les enjeux du numérique exige de replacer la quête de l’amélioration humaine dans la longue durée historique.
Nos activités quotidiennes sont de plus en plus « médiées » par les algorithmes, qu’il s’agisse de rechercher une information sur un moteur de recherche, de communiquer sur les réseaux sociaux ou de réserver un spectacle en ligne. Cette appropriation massive du numérique ne suscite paradoxalement que très peu de mobilisations ou d’oppositions démocratiques. Une «passivité» qui s’explique par les effets généraux du numérique, souvent peu perceptibles sur un plan collectif, mais aussi parce que les médias d’information sont eux-mêmes tributaires des régulations algorithmiques.
L’usage gouvernemental des algorithmes entrouvre ponctuellement des débats, comme par exemple l’application numérique Parcoursup conçue pour préinscrire les candidats à l’admission dans l’enseignement supérieur, ou encore l’application mobile StopCovid destinée à avertir d’un éventuel contact avec une personne infectée. Néanmoins, il n’y a pas encore de contestations sociales, ni de clivages partisans constitués autour de l’usage généralisé des algorithmes dans la société. Cet état de fait tranche singulièrement avec le déferlement médiatique autour des promesses liées aux technologies de l’intelligence artificielle.
Popularisée sous la bannière « fracture numérique », la démocratisation inachevée de l’accès et des usages du numérique est soulignée dans les discours publics et associatifs. Bien qu’une stratégie nationale pour une société numérique inclusive ait été amorcée en France dès 2013, l’accessibilité des citoyens à la connectivité et au maniement des ressources numériques est loin d’être totale. Dans un contexte de dématérialisation massive et rapide des services publics, plus d’un français sur trois en 2017 rencontre des obstacles dans l’usage du numérique et n’est pas en mesure d’effectuer des démarches administratives en ligne. Une fracture qui s’est révélée particulièrement problématique lors du confinement, notamment sur un plan éducatif.
Pour apporter des éléments de réponse à cette question, je suis partie d’une anthropologie de l’objet technique. En effet, l’amélioration des capacités humaines, individuelles et sociales, n’est pas une question récente.
Elle est au cœur du rapport que l’homme entretient avec la technique depuis le XVIIIème siècle. Sa fonction sociale s’inscrit dans l’idéal particulier des Lumières, notamment « la perfectibilité indéfinie de l’esprit humain » telle que l’exprime Condorcet dans son Esquisse d’un tableau historique des progrès de l’esprit humain. Fondamentale dans son œuvre, cette notion de « perfectibilité » inscrit un triple objectif : la destruction de l’inégalité entre les nations, les progrès de l’égalité dans un même peuple, et enfin, le perfectionnement réel de l’homme. Ces trois dimensions sont présentes en filigrane dans les attentes sociales liées au développement de l’intelligence artificielle. Elles renvoient au mythe du progrès, fondateur de nos sociétés modernes, dont la réactivation collective effraie autant qu’elle émerveille. Cet imaginaire social véhiculé par l’intelligence artificielle va ainsi bien au-delà de ce que l’on rencontre traditionnellement dans les innovations de rupture (génie génétique, technologie nucléaire, exploration spatiale). C’est pour cela que la formulation des enjeux politiques de l’intelligence artificielle suppose d’examiner le poids des mythes structurants et de mesurer la portée politique réelle de cet univers technologique, en démarquant ce qui constitue un réel progrès, des annonces sensationnalistes. La longue durée historique permet de mettre en perspective ce qui relève de véritables bouleversements sociétaux et ce qui constitue la prolongation, voire la répétition, de controverses plus anciennes, comme par exemple celles qui relèvent de la protection de la vie privée avec la vidéosurveillance, l’utilisation des données personnelles par les assurances ou la régulation des « fake news ».
Le développement d’une culture critique des algorithmes, pour reprendre l’expression de Dominique Cardon, est une nécessité sociale. Elle doit intervenir à plusieurs niveaux.
Le premier est de souligner que leur élaboration n’est pas indépendante des normes de la société, ni des rapports de force géopolitiques qui sont également des rapports de force culturels. Cela suppose, pour chaque citoyen, de mettre en œuvre les capacités de discernement et d’esprit critique dans son rapport quotidien au monde.
Le second est de pondérer les capacités prédictives des algorithmes en insistant sur les limites à la fois empiriques (qualité, exhaustivité des banques de données) et épistémologiques (le cheminement décisionnel des algorithmes ne peut pas toujours être retracé).
Enfin, si on aborde la régulation de l’intelligence artificielle sur un plan politique (production, intervention et régulation des algorithmes), il reste à déterminer la partition entre ce qui s’inscrit dans une politique parlementaire (débats devant être soumis à la représentation nationale) et ce qui relève d’une politique réglementaire (prise en charge par les technostructures d’État)..
C’est seulement à ces conditions, qu’un humanisme opérationnel autour des enjeux du numérique pourra se mettre en place.
Virginie Tournay est directrice de recherche CNRS au Centre des recherches politiques à Sciences Po (CEVIPOF). Biologiste de formation, elle est aussi sociologue, établissant ainsi le mariage de plus en plus nécessaire entre sciences dites exactes et sciences sociales. Elle est membre du conseil scientifique de l’OPECST (Office parlementaire de l’évaluation des choix scientifiques et technologiques). Armée de ces savoirs, ses recherches portent sur les politiques du vivant (administration du corps biologique, biotechnologies médicales et agricoles, biodiversité) et sur les relations entre expertise scientifique et décision publique.