Propos recueillis par Eléonore de Vulpillières
L’IA va-t-elle tuer la presse ou lui permettre de se perfectionner ? Dans cet entretien, Craig Forman développe l’impact de l’IA sur les médias, en matière de fiabilité de l’information et de confiance du public.
Quels sont les principaux changements que l’intelligence artificielle apporte à la manière dont les médias travaillent aujourd’hui ? Comment cela affecte t-il leur mode de fonctionnement traditionnel ?
Les premières formes d’intelligence artificielle (avant le développement de l’IA générative) sont utilisées depuis des années pour créer et distribuer des informations en ligne. Les grandes salles de rédaction tirent parti de l’automatisation depuis des années pour rationaliser la production et les tâches routinières, qu’il s’agisse de produire des rapports sur les résultats et des résumés sportifs ou de produire des tags et des transcriptions. Ces pratiques ont désormais fait leur chemin dans de nombreuses rédactions plus petites. L’IA a également été utilisée par des entreprises technologiques pour automatiser certaines tâches liées à l’actualité et à l’information, telles que la recommandation et la modération de contenu, ainsi que la génération de résultats de recherche et de résumés.
Le développement récent de systèmes d' »IA générative » beaucoup plus sophistiqués a suscité des inquiétudes quant à leur capacité à déstabiliser les emplois de cols blancs et le travail des médias, à abuser des droits d’auteur (à la fois contre et par les salles de presse), à fournir au public des informations inexactes et à éroder la confiance. Dans le même temps, ces technologies offrent de nouvelles opportunités. Elles créent de nouvelles voies pour la durabilité et l’innovation dans la production d’informations, y compris la génération de bulletins d’information, la distillation et l’analyse de documents archivés, la présentation d’articles, la traduction dans d’autres langues pour une distribution ultérieure, etc.
Ces évolutions posent également de nouveaux défis juridiques et éthiques aux journalistes, aux créateurs, aux décideurs politiques et aux plateformes de médias sociaux. Il s’agit notamment de savoir comment les éditeurs utilisent l’IA dans la production et la diffusion des informations, comment les systèmes d’IA s’inspirent du contenu des informations et comment la politique en matière d’IA dans le monde façonnera ces deux aspects.
Les nouvelles utilisations de l’IA dans le journalisme nécessiteront de nouveaux types d’informations et de transparence vis-à-vis du public. Il est important que ces informations soient élaborées de manière à ce qu’elles soient significatives pour le public et qu’elles l’aident à évaluer le travail journalistique en question.
Certains analystes estiment que l’intelligence artificielle pourrait réduire le pluralisme et la diversité (ou du moins l’impact) des informations fournies par les médias en encourageant une personnalisation extrême du contenu, par le biais de bulles de filtre. Quel est votre point de vue à ce sujet ?
Les défis liés à la personnalisation extrême et aux bulles de filtres sont sérieux et auront un impact sur la manière dont nos sociétés fonctionnent, partagent des idées et trouvent des solutions possibles aux défis actuels. Une telle consommation cloisonnée peut également entraîner une diminution de l’intérêt – et donc des revenus – pour un large éventail d’informations. Toutefois, ces préoccupations existaient déjà avant l’utilisation de l’IA dans les médias. Les médias d’information sont déjà confrontés à ces défis dans le cadre du modèle économique actuel de l’industrie de l’information, alors que les organes d’information locaux et indépendants sont de moins en moins nombreux. Et l’exposition sélective aux médias selon des critères partisans ou générationnels est en augmentation depuis des années, parallèlement à l’élargissement des choix et à l’accroissement de la partisanerie politique. L’une des questions sur lesquelles nous devrions nous pencher ensemble est de savoir si l’IA pourrait réellement contribuer à diversifier l’exposition aux médias et à accroître l’importance que le public accorde à un contenu d’information de qualité.
Les algorithmes utilisés par les plateformes de médias sociaux peuvent souvent favoriser la diffusion de contenus sensationnalistes ou polarisants destinés à susciter davantage d’engagement. Cette tendance pourrait-elle avoir un impact sur le paysage médiatique dans son ensemble ?
Là encore, il ne s’agit pas d’un phénomène propre à l’IA. Les algorithmes et le défi que représentent les plateformes de médias sociaux qui favorisent les contenus générant le plus d’engagement ont un impact sur le paysage médiatique depuis des années. Oui, cette tendance pourrait avoir un impact sur le paysage médiatique dans son ensemble. Il est essentiel que les décideurs politiques, les entreprises technologiques et les chercheurs collaborent pour veiller à ce que la sélection algorithmique encourage autant que possible la diffusion d’informations de haute qualité sans pour autant franchir la ligne de la modération de contenu qui pose problème à la liberté d’expression, à l’indépendance de la presse et à l’accès du public à une pluralité d’informations fondées sur des faits. Il serait également utile d’accroître la transparence du processus de sélection algorithmique, encore une fois pour que les avantages l’emportent sur les risques de détournement du système par des personnes mal intentionnées.
Les plateformes numériques sont le lieu central où de nombreuses personnes dans le monde entier trouvent et partagent des nouvelles et des informations. L’étendue de la portée des plateformes numériques pour le partage de l’information a, à bien des égards, considérablement élargi la portée des informations de qualité, la capacité à se concentrer sur les communautés minoritaires et plus encore, mais les utilisations algorithmiques comportent également le risque que les résultats favorisent un média ou un type de contenu par rapport à un autre – ainsi que de renforcer les prédilections d’un individu. Une plus grande transparence des processus algorithmiques est importante pour atténuer certains de ces risques, même si les exigences et/ou les normes doivent être élaborées de manière à préserver la vie privée et à empêcher les utilisations susceptibles de causer du tort.
L’intégration croissante de l’intelligence artificielle dans les médias influence-t-elle la confiance du public dans l’information consommée ? Des risques de manipulation ou de partialité peuvent-ils émerger de cette convergence ?
La plupart des études menées à ce jour (et il en faudrait davantage !) font état d’une méfiance générale du public à l’égard des contenus créés par l’IA. Ce qui est moins clair, cependant, c’est la part de ce sentiment négatif qui est largement due à la couverture médiatique et à d’autres discussions auxquelles le public a été exposé. Le manque de sensibilisation du public à l’éventail des utilisations de l’IA dans l’information – et aux façons dont elle est utilisée depuis des années – y compris celles qui sont bénéfiques pour fournir des informations de haute qualité au public en temps opportun, a influencé négativement la confiance du public dans le contenu de l’information.
Les entreprises technologiques et la société civile ont commencé à incorporer des étiquettes ou des filigranes dans les contenus pour tenter d’assurer la transparence auprès du public. Comme l’a écrit le CNTI dans son dernier rapport sur l’IA dans l’information, les filigranes peuvent être utiles, mais ils ne constituent pas une solution miracle pour gérer les inconvénients et permettre les avantages de l’IA dans le journalisme et peuvent en fait se retourner contre le public lorsqu’il s’agit de la confiance dans la couverture journalistique de l’information. Des recherches préliminaires menées par nos collègues Felix Simon et Benjamin Toff suggèrent que les filigranes et les étiquettes indiquant l’utilisation de l’IA dans le journalisme peuvent en fait conduire à une perte de confiance du public si les sources utilisées pour créer le contenu ne sont pas fournies. Il est essentiel que le public dispose d’un style d’étiquetage plus nuancé afin qu’il puisse évaluer avec précision les contenus auxquels il peut faire confiance et ceux auxquels il ne peut pas faire confiance. Il est essentiel de poursuivre la recherche et l’expérimentation pour déterminer quels types de labels auront la plus grande valeur.
Face à l’émergence de l’IA dans les médias, quelles mesures les professionnels des médias et les régulateurs devraient-ils prendre, selon vous, pour garantir l’intégrité, la diversité et la fiabilité des informations qu’ils diffusent ? Quels sont les défis éthiques et juridiques posés par l’utilisation de l’IA ?
Les professionnels des médias, les entreprises technologiques, les chercheurs et les régulateurs doivent travailler ensemble pour s’assurer que la gestion de l’IA – que ce soit par le biais de politiques juridiques ou d’autres types de normes – contribue à l’intégrité, à la diversité et à la fiabilité de l’information. Le CNTI a récemment organisé une réunion mondiale de leaders d’opinion de tous les domaines sur ce sujet précis. Nous en avons extrait six thèmes clés :
1. Il n’existe pas de solution miracle pour remédier aux inconvénients de l’IA tout en permettant d’en tirer profit. Plusieurs limites et incertitudes liées aux techniques d’étiquetage actuelles ont été évoquées, notamment le fait que les recherches préliminaires montrent que les étiquettes relatives à l’IA dans les pays en voie de développement ne sont pas toujours faciles à utiliser. Les techniques d’étiquetage actuelles ne font pas la différence entre les utilisations de l’IA qui contribuent à informer plutôt qu’à désinformer, et les publics visés et les éléments d’identification (provenance, filigrane, empreintes digitales et détection) doivent être clarifiés et mieux compris.
2. Outre les labels, nous devons expérimenter un certain nombre d’outils possibles.
Quelques idées partagées par les participants :
● Secure Sockets Layer (SSL) pour l’IA : conçu à l’origine comme un outil de cryptage pour le commerce électronique, SSL est aujourd’hui utilisé par pratiquement tous les sites web comme outil de confidentialité et d’authentification. Comme l’a déclaré un participant, il n’y a pas de « détermination des valeurs », mais seulement une détermination de l’origine du contenu.
● Des structures d’incitation accessibles pour l’adoption des normes : en faisant un clin d’œil à l’optimisation des moteurs de recherche (SEO) en tant qu’exemple imparfait, quelles structures pourraient fonctionner pour encourager la participation de tous, à l’exception de ceux qui sont mal intentionnés ? Et comment pourrions-nous en mesurer l’efficacité ?
● Éduquer et former le public : les recherches menées jusqu’à présent montrent que la majorité du public semble se méfier de toute utilisation de l’IA dans les contenus d’information. Une compréhension plus nuancée, par le biais de programmes de formation à l’IA, est importante pour permettre aux journalistes d’utiliser l’IA de manière à servir le public.
3. Les décideurs politiques pourraient envisager de commencer par des normes industrielles, de nouvelles structures réglementaires potentielles et des moyens de montrer l’exemple. Par le passé, les normes industrielles ont contribué à créer des pratiques partagées et reconnues qui peuvent également évoluer en quelques années. Un tel développement serait mieux servi par « l’implication d’un large éventail de parties prenantes ». Il est également important de reconsidérer la forme que devraient prendre les structures réglementaires lorsque la technologie progresse constamment. Enfin, il a été souligné que les organismes publics devraient eux-mêmes être les premiers à adopter diverses normes, règles ou politiques.
4. Les entreprises technologiques doivent s’impliquer activement dans la création et la mise à disposition d’outils « pour aider l’industrie des médias à détecter ce que nous ne pouvons pas détecter nous-mêmes » et pour aider les utilisateurs à comprendre les avantages et les risques de certaines technologies d’IA. Les entreprises technologiques doivent également travailler en collaboration avec les médias, les chercheurs et d’autres acteurs. L’un des domaines clés sur lequel les entreprises technologiques doivent se concentrer est l’amélioration de la transparence, comme nous l’avons vu plus haut et plus bas, et dans les discussions collaboratives sur l’utilisation de matériel journalistique dans l’élaboration de modèles. Les droits d’auteur, l’utilisation équitable et l’octroi éventuel de licences font l’objet de nombreux débats. Nous devons nous réunir pour déterminer les positions juridiques et morales sur ces questions.
5. Il est essentiel d’approfondir la recherche. La recherche actuelle est un début, mais elle est limitée. Nous avons besoin de beaucoup plus de données pour comprendre pourquoi et comment certaines approches politiques et technologiques fonctionnent mieux que d’autres.
6. Les rédactions devraient utiliser l’IA pour innover, mais avec une certaine prudence. Les journalistes doivent appliquer des niveaux de transparence dans leur travail, tout comme ils l’attendent des personnes et des organisations qu’ils couvrent. Il faut prendre en compte et traiter tous les éléments de l’utilisation de l’IA, y compris les acteurs, les comportements et le contenu, c’est-à-dire les « ABC de la désinformation« .
La transparence, la manipulation, la crédibilité et la compensation sont quelques-uns des problèmes éthiques et juridiques posés par l’utilisation de l’IA. En ce qui concerne la transparence, le public s’inquiète de ne pas savoir quel contenu est généré par l’IA ou si le contenu a utilisé du matériel protégé par des droits d’auteur pour entraîner son modèle de langage étendu (LLM). Comme je l’ai déjà mentionné, une plus grande transparence dans la formation à l’IA et la distribution du contenu de l’IA sera essentielle pour soutenir cette ère numérique de l’information. Comme pour de nombreuses formes de technologie, certains acteurs abusent de l’IA et l’utilisent pour nuire à d’autres. Comme vous l’avez sans doute constaté dans les médias, les médias synthétiques tels que les « deepfakes » se sont multipliés. Les deepfakes renforcent les préoccupations éthiques liées à l’IA, car des acteurs utilisent l’IA pour manipuler des images susceptibles de nuire à la réputation d’autrui et pour diffuser des informations erronées et de la désinformation. Le récent guide du CNTI sur les « deepfakes » souligne la nécessité d’une réponse collaborative de la part des gouvernements, des chercheurs, de l’industrie technologique et des journalistes pour atténuer les risques des « deepfakes », tout en tenant compte de la liberté d’expression et de la sécurité.
Quels sont les défis en matière de protection de la vie privée, de manipulation de l’opinion publique et de responsabilité des médias ?
Les préoccupations relatives à la protection de la vie privée des utilisateurs se sont considérablement accrues au fur et à mesure que notre société devenait plus dépendante du numérique. À l’instar de la question de la transparence de l’IA, le public et les entreprises technologiques sont confrontés à des défis en matière de protection de la vie privée des utilisateurs en ligne. La question reste complexe car un média en ligne indépendant est essentiel à la protection d’un internet ouvert et connecté de manière critique, mais un internet ouvert augmente également les vulnérabilités en matière de sécurité des données des utilisateurs. Comme le montrent les récentes affaires judiciaires et la législation, la question de savoir si les plateformes numériques, les gouvernements ou les utilisateurs eux-mêmes sont responsables de la protection de la vie privée fait l’objet d’un débat permanent. Alors que les gouvernements du monde entier s’efforcent de réglementer la gouvernance de l’internet, ils doivent veiller à ce que les cadres politiques tiennent compte des distinctions entre les différentes formes de fragmentation de l’internet.
Les droits d’auteur constituent un autre problème très controversé lié à l’essor de l’IA, qu’il s’agisse de l’utilisation de contenus journalistiques pour la construction de modèles ou de l’utilisation par les journalistes d’autres contenus dans leurs reportages. Des inquiétudes ont été exprimées quant au fait que les LLM sont formés sur des documents protégés par des droits d’auteur et que les contenus produits par les LLM portent atteinte à ces documents. Les questions relatives à l’IA et aux droits d’auteur sont très complexes et varient d’un pays à l’autre. Dans un premier temps, il est essentiel que les développeurs d’IA fassent preuve de transparence et mentionnent les détenteurs de droits d’auteur le cas échéant. Les médias sont également confrontés à la question de la violation des droits d’auteur dans leurs reportages. À mesure que notre société progresse sur le plan numérique, nos lois sur le droit d’auteur devraient être modernisées de manière à favoriser un journalisme indépendant et compétitif ainsi qu’un internet ouvert. Il doit y avoir plus d’informations sur les droits d’auteur et des discussions approfondies entre les éditeurs, les entreprises technologiques et les décideurs politiques pour structurer de nouvelles lois de manière à protéger le travail journalistique tout en reconnaissant la manière dont le public accède et interagit avec les œuvres créatives dans nos sociétés numériques.
L’IA a un grand potentiel pour améliorer la diffusion d’informations factuelles, opportunes et pertinentes au public, à condition que les garanties nécessaires soient mises en place. Par exemple, l’IA a la capacité d’accélérer la productivité dans la recherche et la création de contenu par les journalistes, ce qui peut les aider à produire des articles rapidement. Cela peut être très bénéfique pour les journalistes, car leur travail est très sensible au temps, mais il est important qu’ils vérifient les faits et s’assurent que le contenu produit est exact. Comme indiqué précédemment, nous devrions envisager un cadre dans lequel l’IA aide les journalistes, et non les remplace. Les journalistes doivent également être tenus de collaborer avec l’IA qu’ils utilisent afin de garantir la production de reportages exacts et fondés sur des faits.
L’intelligence artificielle est parfois présentée comme un outil responsable de la désinformation en ligne. Qu’en pensez-vous ? Y a-t-il un risque de censure des informations qui ne répondent pas à certains critères ?
L’IA peut certainement constituer les deux faces d’une même pièce. Elle peut être utilisée – et l’a déjà été – pour créer davantage de désinformation en ligne et un éventail plus large de celle-ci, notamment avec les « deepfakes » et d’autres formes de médias synthétiques. Des « deepfakes » ont récemment été utilisés lors du processus de nomination présidentielle aux États-Unis et dans la politique européenne (par exemple, en Slovaquie et au Royaume-Uni). L’augmentation du nombre de deepfakes a même conduit l’Union européenne à adopter un code volontaire pour que les partis politiques n’utilisent pas de contenu trompeur lors des élections européennes de l’été prochain et à demander aux plateformes technologiques de commencer à étiqueter le contenu généré par l’IA. D’autre part, les modèles d’IA retiennent également une grande variété de données et peuvent servir d’outil pour identifier la désinformation là où un humain ne pourrait pas le faire. Les êtres humains seront toujours nécessaires pour générer et vérifier les informations, mais l’IA peut et doit être utilisée de manière responsable en tant qu’outil pour faciliter ce processus.
Que la désinformation ait été générée par l’IA ou non, l’atténuation de la désinformation présente également le risque de restreindre l’indépendance de la presse ou la liberté d’expression. Pour garantir la protection de ces droits humains fondamentaux, les éditeurs, les plateformes et les décideurs politiques doivent partager la responsabilité de répondre aux préoccupations croissantes concernant la désinformation, en particulier en cette année électorale.
Comment les médias traditionnels peuvent-ils s’adapter à l’ère de l’intelligence artificielle pour rester pertinents et compétitifs dans un paysage médiatique en constante évolution ? Quelle serait la meilleure recette pour combiner harmonieusement l’utilisation de l’IA et de l’intelligence humaine ?
Je ne suis pas sûr qu’il existe une « meilleure recette » pour que l’IA et les humains travaillent en parfaite harmonie. Les experts et les chercheurs sont encore en train d’apprendre et d’analyser cette technologie nouvelle et émergente, et il faudra encore du temps et des recherches pour déterminer la meilleure façon d’intégrer l’IA dans un paysage de l’information enrichi par l’IA. Ce qui semble contre-productif, c’est de l’ignorer ou de s’opposer à toute intégration de l’IA dans la société. Un certain nombre d’impacts extrêmement positifs ont déjà été observés dans d’autres secteurs de la société, tels que les sciences de la santé, le divertissement et même les arts. Au lieu de cela, nous devrions collaborer entre les industries et les zones géographiques pour a) créer une meilleure compréhension, b) créer une plus grande égalité d’accès, c) fournir un étiquetage nuancé autour des types d’utilisation et d) expérimenter de nouvelles utilisations de l’intelligence humaine pour faire progresser la société. Il en va de même pour l’utilisation de l’IA dans le secteur de l’information. Il faut réfléchir de manière créative à la façon dont elle peut aider les journalistes à recueillir des informations et à produire des reportages encore plus utiles pour une société informée.
Existe-t-il des exemples concrets où l’intelligence artificielle a été utilisée avec succès pour améliorer les opérations ou l’efficacité des médias (aux États-Unis, en Europe, ou en Asie…) ? Quels sont les résultats et les implications de ces cas d’utilisation ?
Oui, il existe de nombreux exemples concrets. De nombreuses rédactions ont commencé à utiliser l’IA pour effectuer des simulations afin de tester et d’améliorer la rédaction des titres par les rédacteurs, et pour créer des résumés automatiques d’articles longs. Depuis des années, les rédactions utilisent également l’IA pour tirer des conclusions à partir d’énormes ensembles de données et pour relever les défis posés par des tâches de gestion de contenu et de recherche aussi gigantesques que la compréhension des vecteurs d’enquête pertinents dans le cadre, par exemple, de la couverture des « Panama Papers », récompensée par le prix Pulitzer-Prize.
Le récent rapport du CNTI en présente d’autres : Les filigranes ne sont qu’un des nombreux outils nécessaires à l’utilisation efficace de l’IA dans les actualités.
L’une d’entre elles est particulièrement pertinente pour les journaux locaux : la numérisation des archives. Avec l’aide de la technologie de l’IA, les organisations médiatiques peuvent numériser efficacement les archives et utiliser ces données pour de futurs reportages ou recherches. Cet accès facile aux archives est important dans l’industrie des médias, car les nouvelles locales ont tendance à couvrir des sujets et des questions au niveau local qui ne bénéficient pas d’une couverture nationale.
* Schibsted, un réseau norvégien de médias et de marques, organise le développement d’un grand modèle linguistique norvégien (LLM). Ce modèle servira d’alternative locale aux autres modèles linguistiques généraux.
* Un participant à la récente réunion du CNTI a fait part d’une utilisation innovante de l’IA au Zimbabwe dans laquelle le modèle d’IA a été formé en utilisant les dialectes locaux. Le chatbot est plus représentatif des utilisateurs de cette région que d’autres modèles linguistiques d’IA générale.
* Un exemple d’utilisation innovante de l’IA dans la création de contenu est celui du Baltimore Times, qui a utilisé l’IA pour mieux communiquer avec son public.
La participante Aimee Rinehart a partagé un schéma directeur pour son projet CUNY AI Innovation. Ce projet vise à créer un modèle d’IA LLM spécifique au journalisme pour les journalistes et les salles de presse.
Le Tow Center for Digital Journalism de l’université de Columbia a publié un rapport récent de Felix Simon intitulé « Artificial Intelligence in the News : How AI Retools, Rationalizes, and Reshapes Journalism and the Public Arena » (L’intelligence artificielle dans les nouvelles : comment l’IA réoutille, rationalise et remodèle le journalisme et l’espace public).
Craig Forman est un entrepreneur américain, un dirigeant de médias et un ancien correspondant de presse à l’étranger. Il a été directeur général de la McClatchy Company, une société d’édition qui exploite 29 quotidiens dans quatorze États américains, après avoir travaillé comme journaliste au Wall Street Journal. Il est actuellement partenaire de NextNews Ventures, un fonds d’investissement privé basé à San Francisco. M. Forman a été chercheur non résident au Shorenstein Center de la Kennedy School of Government de l’université de Harvard. Il a co-fondé, et est Executive Chair of the Board of the Directors du Center for News, Technology & Innovation, un centre de recherche indépendant sur les politiques menées au niveau mondial, qui cherche à encourager les médias indépendants et durables, maintenir un internet ouvert et favoriser des conversations informées sur les politiques publiques.