C’est l’occasion pour moi de faire l’historique de ce texte, dont j’ai été rapporteur pour mon groupe The Left en commission des affaires juridiques (JURI).
La portée du DSA est plus large que celle du DMA : bien davantage de services numériques sont concernés, peu importe leur part de marché. Il actualise la règlementation des services numériques sur le territoire de l’Union, qui n’avait pas été revue depuis 2000. Il met en place des obligations nouvelles pour les fournisseurs de services en ligne, visant à faire d’internet un lieu plus sûr, plus sain et plus transparent pour les internautes.
Le texte s’attache en particulier à harmoniser la modération des contenus et à faire œuvre de transparence, face à des développeurs qui font ce qu’ils veulent de leurs algorithmes, sans hésiter, hélas, à « attirer l’attention » en privilégiant le clash, le mauvais buzz, la haine en ligne, la désinformation et le complotisme.
Dans ce but, le DSA oblige les plateformes à coopérer avec les autorités nationales, à leur signaler toute infraction pénale et à se plier à leurs injonctions pour les faire cesser. En parallèle, des procédures sont instaurées pour prévenir les utilisateurs de leur exposition à des contenus illicites, au moyen de systèmes de notification efficients.
Le DSA : un texte plus qu’attendu
Lors de sa présentation par la Commission en décembre 2020, le texte avait reçu un bon accueil. Vingt ans après la directive « e-commerce » de 2000, le paysage numérique était complètement bouleversé et les attentes très nombreuses pour faire face à la nouvelle donne. Les vides juridiques étaient innombrables, dans lesquels les acteurs du numériques, au premier rang desquels les GAFAM, n’hésitaient pas à s’engouffrer. Bref, tout était permis pour faire du clic et du fric.
Vingt ans après l’émergence des premiers sites de e-commerce, nos données personnelles sont devenues une marchandise à la fois abondante et précieuse, qui a fait la fortune de Facebook et consorts. Revendues au plus offrant, ces données sont drainées par des systèmes d’information de plus en plus puissants, influençant de façon décisive nos achats, voire même, le scandale Cambridge Analytica nous l’a montré, nos votes.
Aujourd’hui, les GAFAM disposent même du pouvoir immense d’autoriser ou de censurer les opinions et les informations dans le débat public. L’illustration la plus spectaculaire en est la fermeture des comptes Facebook et Twitter de Donald TRUMP en janvier 2021, alors qu’il était toujours en fonctions. Même les médias classiques sont victimes de cet arbitraire. Il n’est donc pas exagéré d’identifier dans ces pratiques un péril pour la démocratie, d’autant plus grave et imminent qu’elles sont activées par des logiciels d’intelligence artificielle, sans intervention humaine, et qu’elles enfreignent même les libertés publiques de leur pays d’établissement, les États-Unis.
Pire : le « business model » des géants du net favorise délibérément la désinformation et les contenus illicites. Leurs algorithmes étant conçus pour mettre en avant les contenus qui maintiennent l’attention des utilisateurs et qui génèrent le plus de clics pour augmenter les revenus publicitaires, ils hésitent peu à orienter l’internaute vers des contenus illégaux (incitations à la haine, appels au meurtre, diffusions d’images et vidéos ultraviolentes, ou à caractère pédopornographique…).
D’autre part, la recherche du profit conduit les plateformes à afficher des résultats de recherche se préoccupant moins de la demande du consommateur que des marges que l’hébergeur escompte de ses produits. La valeur d’usage pour le consommateur s’efface complètement derrière la valeur d’échange pour le marchand. Autrement dit, la maximisation du gain financier par les plateformes dicte la conduite et les comportements des utilisateurs sans qu’ils s’en aperçoivent. Et cela par tous les moyens. Amazon par exemple, s’était vu reprocher en 2020 par la Commission européenne l’appropriation systématique des données (en théorie privées et non exploitables) des commerçants inscrits sur sa place de marché, de manière à favoriser la vente de ses propres produits (lesquels sont souvent des contrefaçons des articles vendus par les indépendants !).
En mettant en place un système efficace de responsabilité des plateformes pour les contenus qu’elles hébergent, l’UE garantit non seulement leur coopération pour modérer les contenus conformément à nos lois, mais surtout parvient à inverser les procédures au bénéfice des utilisateurs : plutôt que d’intenter des actions administratives ou judiciaires une fois que le mal est fait (contrôle a posteriori), le DSA impose un contrôle a priori. Sous peine de sanctions, les « marketplace » devront supprimer de leur propre initiative les contenus illicites et mettre tout en œuvre pour qu’ils ne réapparaissent plus.
Les GAFAM et leurs obligés ne s’y sont pas trompés, qui ont mobilisé des ressources considérables en lobbying parlementaire pour faire dévier nos débats et contrecarrer nos résolutions : près de 97 millions d’euros sont ainsi investis, chaque année, pour « orienter » la politique numérique de l’UE[1]. Ces montants surpassent de loin ceux de lobbies plus classiques, comme l’industrie pharmaceutique ou l’automobile. Il faut dire que les enjeux économiques sont considérables, vu la capitalisation de certains géants du numérique, qui se compte désormais en milliers de milliards de dollars. À titre d’exemple, la capitalisation boursière d’Apple a dépassé le PIB de la Suisse en 2018 et celui de la France en 2021.
L’examen du DSA en commission des affaires juridiques : des avancées importantes
Dès le démarrage des débats sur le DSA, j’ai eu à cœur de défendre une réglementation ambitieuse, protectrice des internautes, des créateurs et des artistes, et des libertés fondamentales.
La protection des artistes et des internautes : une problématique à distinguer de la liberté d’expression
S’il est indispensable de proposer un cadre harmonisé pour permettre une meilleure modération des contenus par les plateformes en ligne, il est aussi nécessaire de proposer une réglementation adaptée aux différents types de contenus. Le contenu d’opinion ne doit pas être modéré de la même manière que le contenu commercial. Trop souvent, les vendeurs de produits dangereux, illicites, voire de contrefaçons se cachent derrière le bouclier de la liberté d’expression pour faire prospérer leur commerce au mépris de la sécurité des consommateurs et de la propriété intellectuelle. Je le soulignais dans un article paru récemment sur mon blog : les produits vendus en ligne sont beaucoup plus dangereux que ceux que l’on trouve dans le commerce traditionnel. Cela concerne particulièrement les places de marché : le taux de non-conformité des produits vendus sur ces plateformes de type Amazon, Alibaba, Wish, s’élève à… 95 %.
La contrefaçon coûte chaque année 435 000 emplois en Europe[2]
Ces discussions ont aussi été l’occasion de poursuivre un combat qui m’est cher, celui de la lutte contre la contrefaçon (retrouvez mon rapport : Le rapport | Protéger les consommateurs de la contrefaçon en ligne : il faut agir rapidement et au niveau européen).
Dans l’UE la contrefaçon représente un manque à gagner de 60 milliards d’euros par an[3] et 6,8 milliards d’euros par an en France.
La lutte contre la contrefaçon est un enjeu économique, mais aussi de santé et de sécurité publiques. Elle ne se résume pas à la protection des consommateurs, l’autre versant, tout aussi important, est celui de la protection de la propriété intellectuelle. Le DSA met en place un statut de « signaleur de confiance » : les entités ainsi labellisées voient leurs notifications aux plateformes en ligne (signalement de contenu illicite, de produits dangereux) traitées de manière prioritaire. J’ai obtenu que les personnes physiques puissent bénéficier de ce statut, et non plus seulement les entités qui représentent des intérêts collectifs (comme les syndicats ou les associations). Cela me paraissait indispensable afin que les créateurs et les artistes puissent bénéficier de ce mécanisme afin de faire retirer les contrefaçons de leurs œuvres ou produits.
Pour mettre fin au commerce de produits dangereux en ligne, il faut pouvoir identifier les vendeurs professionnels qui jouissent d’une impunité quasi complète grâce à leur anonymat sur la toile. Le texte adopté en commission JURI contient de nombreuses avancées sur ce point, en renforçant notamment les obligations de contrôle qui incombent aux plateformes (pour s’assurer que les vendeurs ne fournissent pas de fausses informations) et en prévoyant la suspension du compte des vendeurs qui auraient publié des offres illicites à plusieurs reprises.
Les mécanismes de notification et d’action
À l’heure actuelle, les fournisseurs de services en ligne ont très peu de contraintes à respecter lorsqu’ils mettent en place un système de modération des contenus. Le DSA, à travers son article 14, oblige les fournisseurs de services en ligne à mettre à la disposition des utilisateurs un mécanisme de notification des contenus illicites. Aujourd’hui, les internautes ne peuvent pas toujours signaler un contenu illicite rencontré en ligne, ce qui rend sa détection plus difficile. Avec l’obligation de prévoir un tel système de notification, les plateformes ne peuvent plus se cacher derrière l’excuse qu’elles « ne savaient pas ». Une fois qu’un contenu illicite leur est signalé, elles doivent agir vite, potentiellement le retirer, et informer l’auteur de la notification des suites données à son signalement. J’étais en faveur d’un retrait rapide de tout contenu signalé comme illicite, dans l’attente de son évaluation par la plateforme, avec remise en ligne dans un délai de 30 minutes s’il était établi qu’il ne contrevenait à aucune législation. Il s’agissait d’une forme de principe de précaution qui garantissait l’efficacité de la modération.
Ce mécanisme a été repris par les députés en JURI : afin de garantir une modération rapide, juste et efficace, nous avons imposé un délai de 72h aux fournisseurs de services pour contrôler les contenus visés par des notifications, et prendre une décision définitive. Nous avons également adopté des mesures afin d’empêcher la réapparition (pratique très courante jusqu’à présent) d’un contenu illicite déjà suspendu ou retiré.
La protection de la vie privée ne doit pas connaître d’exception en ligne
La protection des données personnelles des utilisateurs est l’un des grands défis de l’ère numérique. Nos données personnelles sont l’objet de toutes les convoitises, et même si le RGPD (Règlement général sur la protection des données) a été un progrès majeur pour leur protection, c’est loin d’être suffisant. Le respect de la vie privée, notamment lors de la collecte et de l’utilisation de nos données personnelles, doit faire l’objet du même respect en ligne que hors ligne. L’espace numérique ne doit pas être le lieu d’une marchandisation totale et dérégulée de la vie privée des utilisateurs. Malheureusement, ma proposition d’interdiction du croisement des données personnelles pour l’affichage de publicités n’a pas été retenue. Nous avons cependant adopté l’interdiction de la publicité ciblée aux mineurs et renforcé les garanties de transparence concernant la publicité.
La défense de la pluralité des médias :
Légiférer en matière de liberté d’expression est un travail d’équilibriste qui demande à la fois prudence et mesure. D’un côté de la balance, la liberté d’expression, valeur cardinale, qu’il est cependant nécessaire de limiter dans certains cas (appel à la haine, pédopornographie…). De l’autre, les conséquences néfastes d’une limitation excessive de la liberté d’expression, notamment l’atteinte au pluralisme des médias.
Afin de préserver la liberté de ces derniers et de garantir à nos concitoyens l’accès à des médias libres et diversifiés, j’ai défendu une exemption aux règles du DSA pour les médias. Ce pluralisme est primordial dans une société démocratique. En commission JURI, nous avons adopté cette exemption, interdisant aux fournisseurs de services de retirer les contenus publiés sous la responsabilité d’un éditeur de presse. C’est une garantie solide pour la protection des médias et le maintien de leur pluralité.
Le passage en commission IMCO : l’affaiblissement du DSA
Lors de son passage en commission IMCO, le texte du DSA a été affaibli. Les délais de retrait de contenus illicites adoptés en commission JURI (24 heures en cas d’atteinte à la sécurité publique ou à la santé des consommateurs ; 72 heures dans les autres situations) et visant à garantir le retrait rapide n’ont pas été repris, diminuant considérablement l’efficacité du texte.
La critique principale que l’on peut faire au texte adopté le 14 décembre est le revirement opéré par les députés au sujet de l’article 14. Celui-ci obligeait les plateformes à mettre en place un système de notification des contenus illicites à disposition des utilisateurs. Elles avaient ensuite l’obligation de contrôler les contenus qui font l’objet de notification, garantissant ainsi une meilleure modération.
Dans la version du DSA adoptée en commission IMCO, une décision de justice préalable est nécessaire avant tout retrait d’un contenu illicite en ligne. Le contenu reste donc en ligne, peu importe les dangers qu’il présente, jusqu’à ce qu’une décision de justice autorise son retrait. On ne pourra donc plus reprocher aux fournisseurs de services en ligne leur inaction. Même la proposition de la Commission était plus ambitieuse. Ce retour en arrière va à l’encontre de l’esprit même du Règlement, qui rappelons-le, vise à assurer un environnement en ligne plus sain grâce à une meilleure modération des contenus. Tout justiciable sait que notre justice est trop lente et n’a pas les moyens humains, techniques et financiers de cette tâche : obtenir le retrait d’une publication raciste ou antisémite sur Facebook prend plusieurs semaines, voire des mois…C’est un grave recul pour les droits humains et pour la démocratie.
Certains éléments décisifs manquent encore à l’appel : mes amendements pour l’examen en session plénière
J’ai déposé 28 amendements afin d’améliorer le texte qui sera soumis au vote du Parlement européen le 20 janvier. Ces amendements s’inscrivent dans la continuité de mes combats et reprennent les positions que j’ai défendues tout au long des discussions autour du DSA.
Tout d’abord, il est indispensable de revenir sur les modifications apportées en commission IMCO au mécanisme de notification et d’action. Sans quoi, cela signifierait accepter de laisser une faille gigantesque dans la lutte contre les contenus illicites, dans laquelle il est certain que les personnes les plus mal intentionnées n’hésiteront pas à s’engouffrer… Les plateformes doivent pouvoir, et même êtres contraintes de, retirer les contenus illicites qui leur sont signalés.
En matière de protection des consommateurs, je propose de renforcer l’obligation de traçabilité des vendeurs professionnels, afin de renforcer les possibilités de recours en cas de non-respect de la sécurité des produits. Cette possibilité d’identification est une condition sine qua non de la protection des consommateurs et de la lutte contre la contrefaçon. La possibilité pour les ayants droit de bénéficier du statut de signaleur de confiance remplit le même objectif en donnant un outil important aux artistes dans la défense de leur travail. Les ayants droit, titulaires des droits de propriété intellectuelle, doivent pouvoir être considérés comme des signaleurs de confiance afin que leurs notifications signalant des contenus illicites soient traitées en priorité par les plateformes. Je soumets à nouveau cette proposition au vote.
Pour améliorer la sécurité et la santé des consommateurs qui achètent des produits en ligne, je propose d’obliger les places de marchés en ligne à prendre toutes les mesures raisonnables et proportionnées pour désactiver ou supprimer définitivement les offres pour des produits illicites lorsqu’une annonce identique a déjà été retirée. Cela évitera la réapparition d’offres illicites après leur retrait, phénomène largement répandu. C’est un pas important dans la lutte contre la contrefaçon. Dans le même esprit, je propose d’inscrire la possibilité de procéder au déréférencement des places de marchés qui manquent de manière répétée à leurs obligations dans le droit européen, de la sorte la plateforme n’apparaîtra plus dans les résultats de recherche que les utilisateurs font depuis un moteur de recherche (c’est ce que la France a fait récemment pour la place de marché Wish)
La protection de la vie privée des internautes doit aussi être améliorée : je propose d’interdire la collecte des données personnelles à des fins de publicité ciblée.
Pour lutter contre le modèle néfaste des réseaux sociaux qui mettent en avant les contenus controversés, car ceux-ci suscitent plus d’interactions et donc de bénéfices pour ces plateformes, je propose d’interdire les algorithmes qui donnent plus de visibilité aux contenus controversés. Les révélations de Frances HAUGEN, lanceuse d’alerte ex-employée de Facebook, à ce sujet sont édifiantes. Elle parle de “conflits d’intérêt entre ce qui était bon pour le public et ce qui était bon pour Facebook”, nous le savons, c’est la deuxième option qui est privilégiée avec la mise en avant de contenu polarisant, ce sont les publications qui ont obtenu le plus de réactions radicales qui apparaîtront le plus souvent dans les fils d’actualité des utilisateurs. L’adoption de cet amendement participerait donc à la lutte contre la désinformation : les contenus partageant des fake news auront plus de difficulté à devenir viraux.
Il me paraît également crucial de préserver le pluralisme médiatique des conséquences néfastes que la modération de contenu peut avoir (les exemples de médias censurés par des plateformes de partage de contenu sont nombreux). C’est un enjeu démocratique : je propose d’inscrire le respect de la liberté d’information et de la pluralité des médias dans le DSA.
Enfin, je soumets au vote des amendements visant à élargir le champ du texte, à le rendre plus contraignant et in fine à améliorer son efficacité : en supprimant les exemptions pour les petites entreprises et la référence aux lignes directrices de la Commission. En matière de numérique et de régulation des GAFAM l’heure n’est plus au droit mou, à l’auto-régulation.
En l’état, le DSA constitue déjà une avancée importante. Ce n’est pourtant pas une raison de s’en contenter : le retard accumulé de l’UE en matière de législation numérique demande une réponse franche et des mesures fortes. J’espère que les amendements que j’ai déposés permettront d’y contribuer.
Vers l’adoption prochaine du DSA ?
La prochaine étape, si le texte est adopté par les eurodéputés, sera celle des négociations entre le Conseil, la Commission et le Parlement (ce que l’on appelle le trilogue). Celles-ci auront lieu durant la présidence française de l’UE (du 1er janvier au 30 juin), dont on espère qu’elle influencera le texte final dans le bon sens. À Bruxelles, la France fait partie des États qui ont fait pression pour une réglementation stricte. Espérons que la position française sera tenue jusqu’au bout. Une ténacité à laquelle nous n’avons pas toujours été habitués depuis bien des années….
[1] D’après un rapport des ONG LobbyControl et Corporate Europe Observatory
[2] D’après les chiffres de l’Office de l’Union Européenne pour la propriété intellectuelle (EUIPO) de juin 2019
[3] Pour les 11 secteurs les plus touchés d’après l’EUIPO.