Par Fabien Lechevalier
Avec le Digital Services Act (DSA) et l’arrivée prochaine du Digital Fairness Act (DFA), l’Union européenne renforce ses efforts pour garantir un numérique plus équitable et transparent. Basé sur les conclusions récentes du « Digital Fairness Check », le DFA ambitionne de protéger les consommateurs contre les pratiques en ligne inéquitables, comme les dark patterns (interfaces trompeuses et manipulatrices) et le marketing d’influence.
À mesure que les expériences numériques deviennent centrales dans nos vies, l’Union européenne s’engage à bâtir un environnement en ligne plus équitable et transparent. Avec l’entrée en vigueur du Digital Services Act (DSA), elle a amorcé un tournant vers une responsabilité numérique accrue. Le 3 octobre dernier, la Commission européenne a également publié les résultats de son “Digital Fairness Check”, une évaluation visant à déterminer si les règles actuelles de protection des consommateurs sont encore adaptées à l’évolution des pratiques en ligne. Ce rapport identifie plusieurs pratiques inéquitables, notamment les « dark patterns », les interfaces addictives et les procédures d’annulation d’abonnement complexes. Ces analyses guideront probablement la préparation du futur “Digital Fairness Act (DFA)”. Le texte qui sera porté par le nouveau Commissaire européen à la Démocratie, à la Justice et à l’État de droit vise, dans l’ensemble, à renforcer les droits des consommateurs, tout en ajoutant une couche supplémentaire à un paysage réglementaire déjà très dense. Pour les entreprises opérant dans l’UE et au-delà, ces nouvelles régulations constituent une opportunité unique de démontrer un engagement concret envers des pratiques véritablement centrées sur l’utilisateur.
Le Digital Services Act (DSA), entré en vigueur en février 2024, représente un changement majeur dans le fonctionnement des plateformes en ligne. De nombreuses entreprises, en particulier les Très Grandes Plateformes en Ligne (Very Large Online Platforms, ou VLOPs), ont été incitées à adapter leurs pratiques pour se conformer aux nouvelles réglementations. La phase initiale s’est concentrée sur la transparence, la modération des contenus et l’autonomisation des utilisateurs. Les plateformes doivent désormais fournir des informations plus claires sur leurs pratiques publicitaires et leurs recommandations algorithmiques.
Un des objectifs principaux du DSA est de renforcer l’autonomie des utilisateurs, et nous commençons à en voir les premiers résultats. Les utilisateurs disposent désormais de canaux plus directs pour signaler des contenus illégaux. Ce changement vise à créer un environnement plus ergonomique ou “convivial” encourageant les consommateurs à jouer un rôle actif dans leurs expériences en ligne. La Commission européenne a également commencé à mettre en place les cadres nécessaires pour surveiller la conformité. Cela inclut la nomination d’autorités dédiées pour superviser la mise en œuvre du DSA et veiller à ce que les plateformes respectent leurs nouvelles obligations.
Des actions ont déjà été entreprises contre certaines entreprises, démontrant l’engagement de l’UE à tenir les fournisseurs de services numériques responsables. Ainsi, Meta fait l’objet d’une enquête pour pratiques publicitaires trompeuses et gestion de contenus politiques, visant à protéger les processus démocratiques ; TikTok a déjà été impliqué dans deux enquêtes, l’une en février et l’autre en avril, pour non-respect des standards de protection de la vie privée et transparence, en particulier pour les mineurs ; Google est sous surveillance de l’autorité italienne de la concurrence pour pratiques de consentement ambiguës concernant les données personnelles ; X (anciennement Twitter) fait également l’objet d’une enquête pour la diffusion de contenus illégaux ; Amazon est visé par une action collective en lien avec un changement de son abonnement Prime, jugé trompeur ; enfin, la Commission européenne a lancé fin octobre une enquête sur la conformité de Temu au DSA, portant sur les listings de produits illégaux, les fonctionnalités addictives, la transparence des algorithmes de recommandation et l’accès restreint aux données pour les chercheurs. Cette série d’enquêtes souligne la détermination de l’UE à appliquer le DSA en faveur des droits des consommateurs.
En 2022, la Commission européenne a lancé une consultation publique appelée le Fitness Check, visant à évaluer l’efficacité des réglementations préexistantes au DSA pour protéger les consommateurs en ligne. Cette évaluation a porté plus précisément sur l’efficacité de trois directives européennes clés, à savoir la Directive sur les pratiques commerciales déloyales, la Directive sur les droits des consommateurs et la Directive sur les clauses abusives. Le 3 octobre, la Commission a publié son rapport tant attendu.
Ce rapport met principalement en lumière les pratiques de tromperies, de manipulation et addictives, qualifiées de “dark patterns” – pratiques déloyales dans la conception d’interfaces numériques qui incitent les consommateurs à des décisions qu’ils n’auraient pas prises autrement. L’impact de ces pratiques, intensifié par la personnalisation fondée sur des données comportementales, pose un enjeu majeur pour la protection des consommateurs en ligne.
Bien que ces pratiques ne soient pas nouvelles, leur prévalence et leur efficacité se sont amplifiées, suscitant une inquiétude, notamment aux États-Unis, au Royaume-Uni ou encore en Corée du Sud. Ces inquiétudes se sont généralisées pour finalement devenir une source de préoccupation mondiale. L’OCDE y a d’ailleurs consacré plusieurs rapports. En Europe, de très nombreux textes sont applicables à ces dark patterns, en tant que pratiques déloyales, certes, mais aussi contraires au droit de la protection des données personnelles, ou encore à la prohibition des abus de domination. Face aux risques importants de préjudices, la Commission a néanmoins jugé essentiel de les interdire plus expressément avec le DSA (1).
D’ailleurs, le récent rapport rappelle les principaux préjudices associés aux dark patterns : perte d’autonomie et de vie privée, surcharge cognitive, dommages mentaux, et diminution du bien-être collectif à travers des effets néfastes sur la concurrence et la transparence des prix. Fait marquant, la Commission évalue les coûts pour les consommateurs trompés en ligne à 7 milliards d’euros en 2023, comparés aux coûts de mise en conformité des entreprises, estimés entre 511 et 737 millions d’euros – ce qui plaide fortement en faveur de la régulation.
À la suite de cette évaluation, la lettre de mission d’Ursula von der Leyen adressée à Michael McGrath, le Commissaire européen à la Démocratie, à la Justice et à l’État de droit, et publiée en septembre dernier, a défini des priorités stratégiques pour renforcer la protection des consommateurs et promouvoir l’intégrité démocratique au sein de l’UE. Dans cette lettre, la Présidente Ursula von der Leyen évoque la nécessité de créer un futur Digital Fairness Act, “pour lutter contre les techniques et pratiques commerciales contraires à l’éthique, telles que les dark patterns, le marketing des influenceurs sur les réseaux sociaux, le design addictif des produits numériques et le profilage en ligne, en particulier lorsque les vulnérabilités des consommateurs sont exploitées à des fins commerciales.” Lors de son audition devant le Parlement européen le 5 novembre 2024, Michael McGrath a alors exposé sa vision du futur Digital Fairness Act (DFA). Dans sa déclaration d’ouverture, McGrath a souligné la nécessité de renforcer les droits des consommateurs dans le marché numérique (2). Il précise, en réponse aux inquiétudes exprimées par plusieurs députés européens, que le DFA aura vocation à combler des lacunes plutôt qu’à dupliquer les réglementations (3).
L’un des défis majeurs du projet est la protection des mineurs contre les pratiques en ligne nuisibles. En réponse aux questions sur la protection des mineurs, McGrath a mis en avant les défis uniques auxquels ils sont confrontés (4). Le DFA sera l’occasion d’ajouter une couche supplémentaire de responsabilisation des plateformes. Il est probable qu’elles devront prendre en compte les vulnérabilités des utilisateurs dans la conception de leurs interfaces en se fondant sur une évaluation des risques. On peut également imaginer que le DFA permettra aussi de créer de nouveaux droits subjectifs pour les mineurs ou leurs parents. On peut, par exemple, penser à un droit au paramétrage permettant aux utilisateurs et donc également aux parents d’enfants mineurs d’agir directement sur l’architecture des choix.
Ailleurs dans le monde, d’autres États ont déjà adopté des réglementations pour protéger spécifiquement les mineurs en tant qu’utilisateurs particulièrement vulnérables. Par exemple, le United Kingdom’s Age-Appropriate Design Code (UK AADC) et le California Age-Appropriate Design Code (CAADC) exigent que les entreprises en ligne évaluent les risques potentiels pour les jeunes utilisateurs sur leurs plateformes et mettent en place par défaut les paramètres de protection les plus forts pour ces utilisateurs.
Pour lutter contre les dark patterns et le design addictif, le Commissaire européen pourra également s’inspirer du travail mené par l’autorité britannique de la concurrence (Competition and Markets Authority, CMA) qui à l’occasion d’un rapport sur l’architecture des choix (5) avait proposé un nouveau principe directeur pour un environnement numérique plus équitable, celui de « fairness by design ». Ce principe invite les concepteurs d’interfaces à prendre en compte dès la conception à la fois les limites cognitives humaines, la sensibilité à la façon dont l’information est présentée, mais aussi la dichotomie entre les intentions et les actions des consommateurs.
Cette approche encourage un design qui facilite des décisions éclairées en rendant l’information accessible avec un minimum d’effort cognitif, en offrant un guidage contextuel et des options par défaut protectrices. Elle s’inscrit dans la lignée des méthodes de “Value-Sensitive Design” (VSD) (6), fondées sur la capacité d’adapter les pratiques de conception en fonction de la technologie, des valeurs ou du contexte d’utilisation. Des exemples de ces adaptations incluent le “Privacy by Design”, principe directeur du RGPD, qui se concentre sur le respect de la confidentialité des informations personnelles dans les systèmes et les processus.
Ces derniers mois, plusieurs pays européens, dont la France et l’Italie, ont intensifié la réglementation autour de l’influence en ligne pour protéger les consommateurs. Par ailleurs, des réglementations européennes encadrent déjà l’influence en ligne, comme la Directive sur les services de médias audiovisuels, le DSA et la Directive sur les pratiques commerciales déloyales. Cependant, des tensions persistent concernant l’harmonisation des législations nationales avec la réglementation européenne. Les références à la Directive sur les services de médias audiovisuels et au DSA ont été, par exemple, un point de désaccord entre la France et la Commission, car la loi influenceurs française ne fait pas référence à la première et crée une superposition à la seconde. Un nouveau règlement européen pourrait participer à l’harmonisation de la réglementation en fournissant un cadre explicite de régulation et une feuille de route commune.
Pour autant, l’idée d’une nouvelle réglementation ne fait pas l’unanimité. Le Groupe des régulateurs européens des services de médias audiovisuel (ERGA) considère que l’influence commerciale en ligne est déjà bien encadrée par les lois actuelles ; il recommande donc de renforcer les régulateurs nationaux avec davantage de ressources et de personnel spécialisé, plutôt que d’introduire de nouvelles législations. Dans un environnement où les lois se multiplient, le risque de chevauchement et d’incohérence législative est réel. En conclusion, le DFA est ambitieux mais devra non seulement être aligné avec les législations existantes, mais aussi contribuer à leur harmonisation en précisant ses champs d’application et en clarifiant son interaction avec les autres textes. Le défi majeur du texte est, en conséquence, de réduire la fragmentation réglementaire et offrir aux entreprises un cadre unifié, rendant leur conformité plus lisible.
Notes :
(1)Le DSA entérine une interdiction de la pratique avec son article 25 : « Les fournisseurs de plateformes en ligne ne conçoivent pas, n’organisent pas et n’exploitent pas leurs interfaces en ligne […] d’une manière qui, délibérément ou dans les faits, trompe ou manipule les destinataires du service, en altérant ou en compromettant leur autonomie, leur capacité de décision ou leurs choix ».
(2) “Je vais porter un Digital Fairness Act pour renforcer la protection des consommateurs dans des domaines ciblés, en complément du cadre réglementaire numérique de l’UE existant.”
(3) “Le Digital Fairness Act ne consiste pas à ajouter de nouvelles exigences déjà couvertes par d’autres réglementations, […] Il s’agit de combler les lacunes présentes afin de mieux protéger et soutenir les consommateurs.” a-t-il clarifié.
(4) “Le modèle économique des géants de la tech… ils veulent garder les gens en ligne en permanence, y compris nos enfants, et c’est ainsi qu’ils augmentent les revenus publicitaires dépensés sur leur plateforme. […] Nous comprenons ce modèle, et nous allons devoir y remédier dans le cadre du Digital Fairness Act. Je peux vous assurer que nous le ferons, car certaines fonctionnalités nuisibles sur ces plateformes ont un impact, en particulier sur les enfants durant leurs années de formation, et ces effets peuvent être durables.” a-t-il expliqué.
(5) Le concept d’“architecture des choix” a été popularisée par Richard Thaler et Cass Sunstein, v. Thaler, R. H. & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth and happiness. Yale University Press.
(6) Le « Value Sensitive Design » est une approche théorique de la conception des technologies, qui intègre les valeurs humaines. Elle a été développée à Washington par Batya Friedman, v. Friedman, B. & Hendry D. G. (2019). Value Sensitive Design: Shaping Technology with Moral Imagination. MIT Press.
Fabien Lechevalier est doctorant en droit à l’Université Paris-Saclay, chercheur au Centre d’études et de recherche en droit de l’immatériel (CERDI Université Paris-Saclay), et affilié au Transatlantic Technology Law Forum de l’Université de Stanford.