A quelles difficultés le praticien du droit des « plateformes » est-il confronté pour défendre ses clients ? D’abord l’anonymat. Quel que soit le contenu préjudiciable diffusé sur un réseau social ou une plateforme de vente en ligne (diffamation, dénigrement, harcèlement, atteinte à la vie privée, contrefaçon, produits dont la commercialisation est illicite, etc., etc.), le premier problème de la victime est qu’elle ne connait pas l’identité de l’auteur des faits. Il faut déployer de nombreux efforts pour obtenir des opérateurs de ces réseaux et plateformes des données qui – peut-être – donneront des informations sur l’identité de celui qui doit répondre des contenus. Et encore… car les opérateurs qui s’opposent aux injonctions des juridictions civiles et commerciales de fournir les données d’identification ne sont pas rares…
Deuxième difficulté, à côté des contenus les plus graves (terrorisme, pédopornagraphie par exemple), il y a une multiplicité de contenus illicites qui n’atteignent pas ce degré mais qui préjudicient cependant gravement aux personnes qui en sont victimes, notamment dans la vie des affaires ou professionnelle. Pourtant, obtenir leur retrait demande souvent la même pugnacité judiciaire.
Dernière difficulté (si l’on veut s’arrêter là) : l’exécution des décisions de justice contre des opérateurs situés hors de France, même au sein de l’Union européenne. A une époque où les contenus sont mis en ligne en quelques secondes, il faut encore des semaines, voire des mois, pour faire appliquer les décisions de justice obtenues contre les plateformes et réseaux sociaux situés hors de France.
Que propose le projet de règlement européen intitulé « Single Market For Digital Services (Digital Services Act) », rendu public mi-décembre 2020, face à ces problèmes ? Rien.
Du neuf avec du vieux : la responsabilité des plateformes
L’histoire du droit de l’internet se confond avec cette question : qui est responsable des contenus que l’internet véhicule ?
En 2000, avec la directive dite « commerce électronique », le législateur européen avait voulu appliquer un principe simple, hérité de près d’un siècle de droit de la communication publique : est responsable l’éditeur du contenu, en revanche celui qui ne fait que le diffuser techniquement (l’hébergeur) ne l’est, en principe, pas.
Sur ce terrain, le DSA ne propose rien de neuf et se contente de rempiler sur ces vieux principes - mot pour mot - adoptés à une époque où les réseaux sociaux n’existaient pas et alors qu’Amazon vendait des livres.
Les places de marché, les réseaux sociaux vont continuer à être qualifiés d’hébergeurs et ne verront leur responsabilité engagée pour des contenus illicites qu’après avoir été notifié dudit contenu et si ces opérateurs n’ont pas agi « promptement » pour le retirer. Il faut savoir que, dans les faits, la promptitude du retrait (quand il arrive) est toute relative, si l’on veut bien la comparer avec la promptitude de la diffusion.
L’article 14 du DSA prévoit bien que les plateformes doivent mettre en place un dispositif afin de permettre aux utilisateurs de signaler facilement des contenus qu’ils estiment illicites. La situation n’est en réalité pas différente de ce qui existe déjà dans les faits et est très proche de ce que prévoit déjà l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN) depuis 2004 !
L’article 8 du DSA prévoit toujours que les plateformes devront réagir en cas de notification d’un contenu illicite par les autorités judiciaires ou administratives, sans aller jusqu’à instituer une obligation claire de retrait du contenu. En somme, la situation est ici encore peu différente de celle résultant de l’actuel article 6-1 de la LCEN.
Las. On aurait attendu la révolution copernicienne du droit de l’internet qu’on nous a vantée dans la presse : que pèse enfin la responsabilité du contenu sur celui qui en profite économiquement…
Du droit toujours plus performatif et toujours moins normatif
Comme il faut bien s’évertuer à les réguler, le DSA n’est pas avare en obligations informatives et déclaratives que les plateformes devront (aisément) respecter.
On relèvera, sans vouloir être exhaustifs, l’obligation de répondre aux demandes d’informations en provenance des autorités judiciaires ou administratives concernant un utilisateur des services (art. 9). Une telle obligation existe déjà, peu ou prou, dans notre droit tant dans le Code de procédure pénale que dans le Code de la sécurité intérieure pour les infractions les plus graves. Rien de neuf donc à attendre ici.
Le DSA insiste particulièrement sur l’information due aux utilisateurs dont le contenu se voit retiré (art. 15) et sur l’obligation de mettre en place tant un processus interne (art. 17) qu’un processus externe de médiation en ligne (art. 18) pour le règlement des litiges qui peuvent intervenir avec l’utilisateur dont le contenu a été retiré et la plateforme. Étonnamment, une telle procédure n’est pas prévue pour les personnes qui voient leur demande de retrait de contenu rejetée…
Passons rapidement sur les « Trusted flaggers », entités qui seront des sortes de « super-signaleurs » de contenus illicites aux plateformes au regard de leurs compétences particulières dans un domaine. Certaines associations vont s’en donner à cœur joie.
Il ne manque rien à l’appel en termes de droit « mou » : les obligations de publication de rapports annuels ou semestriels, les obligations d’audit, de « compliance » avec la désignation d’un « compliance officer », quelques obligations de KYC, pas même le serpent de mer de la régulation de l’internet n’a été oublié : les « standards » et « codes de conduite ».
S’il faut trouver de l’innovation dans le DSA, ce n’est malheureusement pas là où on le souhaiterait. Le DSA consacre la force juridique des « règles », « chartes » ou « conditions d’utilisation » dont se dotent les plateformes pour réguler leur communauté. Celles-ci se voient « officialisées » dans l’article 12 du DSA et les plateformes se trouvent mêmes tenues d’en établir et de les faire respecter de manière « diligente, objective et proportionnée ». A l’heure où l’on attend que la question de la suppression des comptes, notamment le Twitter d’un certain président, fasse l’objet d’un débat démocratique et ne soit pas laissée à la discrétion des plateformes, l’Europe a choisi de ne pas se préoccuper d’un sujet pourtant au centre de nos libertés fondamentales.
Le Législateur européen semble avoir renoncé à la volonté d’une vraie régulation ex ante pour un droit purement performatif, où il suffirait de contraindre les acteurs économiques à énoncer pour que la réalité change. Elle ne changera pas. Le praticien du droit le sait.
Encore une autorité administrative indépendante : les Coordinateurs de Services Numériques
Les Etats membres devront désigner un Coordinateur de Services Numériques. Il pourra s’agir soit d’une nouvelle autorité administrative indépendante, soit d’une autorité existante qui en fera fonction.
Le Coordinateur est en charge de la coordination de l’application du DSA au sein de son Etat membre. Le Coordinateur sera doté de pouvoir d’enquête, de contrôle et de sanction sur les plateformes de sa juridiction. Le Coordinateur pourra être saisi directement, par tout justiciable. Si un manquement de la plateforme au DSA est relevé, les sanctions pécuniaires pourront aller jusqu’à 6% du chiffre d’affaires annuel de la plateforme.
Le DSA consacre de longues dispositions pour instituer un mécanisme de contrôle et, le cas échéant, de sanction des plateformes les plus importantes, envisagées comme celles ayant plus de 45 millions d’utilisateurs en moyenne par mois sur le territoire européen.
Là où le bât blesse sérieusement, ainsi que nous l’avons dit plus haut, c’est que les obligations à la charge de ces plateformes ont été mises à un niveau si bas qu’on peut légitiment se demander si le mécanisme de contrôle et de sanction aura vraiment lieu d’être appliqué. Gageons que cela sera un événement lorsque cela arrivera !
Qu’attendions-nous de ce DSA ?
Une régulation ex ante pragmatique et efficace. Les plateformes sont de formidables agrégateurs de contenus et constituent des canaux de distribution maintenant indispensables pour de nombreuses entreprises. Mais l’irresponsabilité de l’exploitant de la plateforme - de l’intermédiaire - est une vue de l’esprit. Imaginerait-on qu’une grande enseigne de distribution écoule des produits avariés sans engager sa responsabilité au motif qu’elle n’est que l’intermédiaire entre le producteur et le consommateur ? Imaginerait-on une campagne de publicité diffusée dans toutes les grandes villes de France pour des produits illicites et maintenue des mois durant sans que la régie publicitaire ne soit inquiétée car n’étant pas elle-même l’annonceur ? A l’heure où le monde a viré au digital, on attend dans le monde numérique la même effectivité du droit que dans le monde analogique.
Pour cela il faut des règles claires et contraignantes à l’égard de l’ensemble des opérateurs et des moyens judiciaires renforcés pour les faire respecter dans une temporalité cohérente au regard de l’immédiateté des réseaux.
20 ans après la directive commerce électronique, l’histoire du droit de l’internet patine.
Commentaire