Accueil>X, Instagram, Twitch, TikTok, Youtube, Bluesky : et si on considérait ces plateformes comme des médias ?

06.03.2025
X, Instagram, Twitch, TikTok, Youtube, Bluesky : et si on considérait ces plateformes comme des médias ?
Quitter X ou Facebook pour migrer vers d’autres réseaux obéissant aux mêmes logiques ne résoudra pas les problèmes posés par les plateformes. De nouvelles règles s’imposent. Exposé par Dominique Boullier, chercheur au Centre d'études européennes et de politiques comparées.
Dans le contexte de choc politique et médiatique lié à l’élection de Donald Trump et aux prises de position des magnats des médias sociaux, les alternatives proposées aux individus semblent peser de peu de poids face aux plateformes qui s’affranchissent de tout droit. Les initiatives ont fleuri récemment au moment où Musk a promu sur sa plateforme une orientation d’extrême droite qualifiant toutes les autres de « wokistes ».
Cependant, les problèmes étaient déjà là du temps du premier patron de Twitter, Jack Dorsey, ils ont été aggravés lorsque Musk a racheté la plateforme. La fuite actuelle soutenue par des opérations comme #quitteX marque un désaccord politique, mais n’est pas fondée sur la critique même de la fonction de ce type de plateforme virale, sur son architecture ni sur sa pertinence dans l’espace public.
Ainsi, se réfugier sur BlueSky, firme privée, qui reproduit l’ancien Twitter, sans questionner l’intérêt d’un tel système d’alerte cognitive permanente pour engendrer de la viralité, est une réaction à courte vue.
Les propagandistes du Kremlin (Colon, 2023 ont désorienté les opinions publiques sur Twitter. Ils recommencent déjà sur Bluesky. Rien ne justifie ce modèle de réseau et rien ne justifie que les politiques y soient présents encore alors que leurs quêtes de visibilité leur fait perdre tout contrôle à travers des réactions trop rapides, trop tranchées, non argumentées, et générant une réputation souvent illusoire ou alors délétère par la violence que cette viralité recherchée privilégie.
Mastodon constitue une alternative différente puisque complètement open source, contrôlée par les collectifs, et organisée en instance que l’utilisateur peut choisir, pour des effets de réseau plus limités et des effets de viralité nuls.
Quelles solutions ?
Les réseaux sociaux des années 2000 ont muté et doivent en fait être répartis en trois types de plateforme aux fonctions médiatiques et sociales bien différentes. Des régulations différentes doivent leur être appliquées sur le territoire européen ou même par pays, et non en fonction du nombre d’abonnés, comme veut le faire le DSA (Digital Services Act).
Premièrement, certaines plateformes sont devenues des médias qui organisent le débat autour de contenus. C’est le cas de Twitter, de Facebook, d’Instagram et YouTube, de Twitch, de Reddit ou encore de TikTok. Leur fonction d’amplification, de viralité selon une orientation éditoriale, est essentielle, mais on les traite encore comme de simples hébergeurs, sans responsabilité sur les contenus publiés.
La couverture de la section 230 du Decency Act états-unien, qui les traite comme de simples fournisseurs d’accès, doit être retirée. Leurs récents passages à l’acte, politiques, ont choqué mais ils ont le mérite de montrer qu’il s’agit de médias avec une politique éditoriale (algorithmique) délibérée et orientée.
Ces plateformes et leurs propriétaires doivent donc demander une autorisation de publier analogue à tout autre publication et se voir contrôlées de la même manière que les autres médias (leur passage sous la supervision de l’Arcom en France est un bon signe). Leurs propriétaires devront répondre devant les tribunaux de tous les contenus illégaux publiés sur leur support. Pour l’éviter, ils devront appliquer une modération a priori et un contrôle éditorial.
Il n’est donc pas question de les empêcher d’avoir leur ligne éditoriale, mais de leur demander de l’assumer et, pour cela, d’interdire, selon les lois des pays, des publications racistes, antisémites, sexistes, homophobes, discriminantes ou incitatrices à la haine et à la violence, ou au harcèlement. Ils devront sans doute faire payer leurs abonnés pour prendre en charge toute cette activité de modération.
Ce modèle de médias est simple, il existe, il fonctionne, il est inutile de chercher à inventer des règles de modération que les plateformes ne veulent pas appliquer ou qu’elles détournent – et qui exigent des moyens disproportionnés pour la police et la justice. Qu’attend-on pour le mettre en œuvre dans un pays, même si l’Europe ne veut pas se mettre d’accord ?
Deuxièmement, d’autres plateformes proposent des fonctions de messagerie : c’est le cas de Messenger, de WhatsApp, de Telegram, de Signal, etc. Les fonctions de téléphonie/visiophonie/échange de documents relèvent dans ce cas des télécommunications et restent réglées par les principes du fournisseur d’accès. Cependant, leur détournement en médias est déjà bien avancé sur Telegram ou sur WhatsApp puisque des vastes groupes de contact y sont autorisés. Il est facile d’interdire des groupes de plus de 150 comptes correspondant au maximum de l’interconnaissance possible.
Le passage au-delà de cette limite devrait entraîner le changement de statut vers celui de médias comme indiqué précédemment. Mais à la différence des plateformes médias, il serait possible de déléguer la responsabilité juridique aux administrateurs de ces listes, ce qui pourrait arranger les plateformes et reconnaître le rôle essentiel des collectifs et de leurs animateurs dans la régulation immédiate.
Troisièmement, enfin, d’autres plateformes peuvent continuer à fonctionner comme le faisaient les réseaux sociaux du Web 2.0, avec un nombre d’amis limité à l’interconnaissance (150 personnes) et une responsabilité des administrateurs de groupe pour réguler ce qui peut s’apparenter à du trolling, à du harcèlement ou à des contenus illégaux. Dans ce cas, en effet, une régulation spécifique est nécessaire, car c’est la seule innovation véritable par rapport aux régimes médiatiques précédents. Là aussi la viralité est contrôlée puisque rien ne sort directement du groupe.
L’essentiel reste que, dans toutes ces architectures, des dispositifs de ralentissement de la viralité soient rendus obligatoires.
En effet, la viralité est l’ennemi principal sur les plans cognitif, politique, culturel et civilisationnel. Cela n’empêche pas la lutte contre les émetteurs ou propriétaires extrémistes ni contre les désinformateurs professionnels des régimes autoritaires. Mais tous bénéficient plus que les autres de ces architectures toxiques de propagation accélérée.
Les dégâts cognitifs et culturels de ce rythme haché sous forme d’alerte permanente, de réactivité stimulée par les récompenses qu’affichent les vanity metrics (scores de like, de partage, de followers ou de commentaires) sont désormais visibles dans l’espace public. Chacun apprend à provoquer les réactions avec des contenus stimulants et choquants, dont le score de nouveauté (Vosoughi, 2018) est élevé.
Les plateformes jouent sur les deux tableaux : la durée d’exposition, en maintenant les utilisateurs sur la plateforme en flattant leurs habitudes (la bulle de filtre) mais aussi le choc en les encourageant à réagir et à faire réagir par des contenus surprenants (le score de nouveauté).
Ralentir ce processus oblige à viser les processus cognitifs de base, en exigeant des plateformes qu’elles mettent en place un tableau de bord permanent pour monitorer sa propre activité et sa vitesse de réaction, comme on le fait pour tout véhicule. Chaque signal constitue une alerte permanente qui peut ensuite être équipée de seuils pour choisir son niveau de réactivité, puis de règles qui imposent un ralentissement général de la réactivité et donc de la viralité.
Cela donne ensuite un outil pour les plateformes responsables qui veulent ralentir la viralité dans certaines situations, pour certains thèmes. Ces dispositifs doivent faire partie du cahier des charges à imposer à toutes les plateformes qui veulent opérer sur le territoire européen.
L’interdiction de la publicité serait la mesure radicale qui casserait le modèle économique de ces plateformes qui menacent la santé mentale et le débat public. Car, c’est le moteur des rémunérations publicitaires qui entraîne le paramétrage des algorithmes en faveur de la viralité, et cela en toute opacité, ce qui empêche d’auditer correctement ces algorithmes. Mais cela semble difficile à imposer alors même que les médias de masse dépendent eux aussi de la publicité.
L’Europe et la France ont les moyens d’agir
L’Europe et la France ont les moyens de réagir et de restructurer ce paysage médiatique numérique laissé en roue libre qui finit par détruire les principes mêmes du débat démocratique. À condition de définir ce que sont ces réseaux et de leur appliquer les règles existantes sans adhérer à la manœuvre libertarienne de prétendue menace sur la liberté d’expression états-unienne. Le contrôle doit porter sur la viralité (le free reach) et non sur l’expression (« free speech »), et cela change tout en matière d’acceptabilité de ces mesures.
Dominique Boullier, Professeur des universités émérite en sociologie. Chercheur au Centre d'Etudes Européennes et de Politique Comparée, Sciences Po
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
Légende de l'image de couverture : Facebook, Instagram, WhatsApp, Bluesky, X (crédits : Miss.Cabul/Shutterstock)