Cet article est le premier de notre série estivale consacrée aux formes de justice privée dans l’univers numérique. Il illustre et anticipe les thématiques qui seront abordées lors du procès fictif “Jugé(e) par une plateforme ? Justice publique et justice privée à l’ère du numérique”, organisé par Aeon et Open Law le 26 novembre prochain dans le cadre de la quatrième édition du Village de la Legal Tech à Paris.
La tension est palpable, car sous couvert d’une simple histoire de tétons, la décision aura un retentissement international : c’est bien à une mise en balance entre, d’un côté, la liberté d’expression et la liberté artistique, et, de l’autre, les règles de protection de la communauté, que doit procéder la Cour ; les juridictions nationales ne pourront ignorer l’orientation qui aura été prise. Après tout, quelle juridiction peut aujourd’hui se targuer de rendre ses décisions au nom de plus de 3 milliards de personnes
Soudain, la page charge, et les premiers mots si familiers de chaque décision de la Cour s’affichent : “Au nom de la Communauté”. La page se déroule, le verdict tombe…
Revenons à la réalité – qui n’est cependant pas si éloignée. Coup sur coup, Facebook a récemment annoncé la création d’une cryptomonnaie et d’une “Cour suprême“. Il n’en fallait pas plus pour que fleurissent les scénarios de science-fiction imaginant la sécession du réseau social, son rejet complet de l’Etat de droit traditionnel et l’envol final de Mark Zuckerberg, devenu guide suprême intergalactique, dans un vaisseau spatial en forme de “like“, afin de guider l’humanité désormais unie sous le régime de la newsfeed vers d’autres galaxies. Si cette perspective laisse songeur, il est nécessaire de creuser ces projets pour en détailler les subtilités.
L’arbre qui cachait la forêt : les phénomènes de judiciarisation des plateformes, de Facebook à Riot Games
En l’occurrence, ce qui a été maladroitement appelé “Cour suprême” s’apparente plus à une externalisation par Facebook des choix de modération les plus compliqués qu’à une volonté de concurrencer les juridictions nationales. Le projet consiste en effet à créer un panel d’une quarantaine de personnes, le plus mixte possible et représentant autant que faire se peut la plupart des professions et régions du monde, afin de trancher une centaine de questions par an relatives à la modération sur le réseau. Surtout, afin d’être digne de confiance, l’organe ainsi créé devrait être complètement distinct de Facebook : aucun employé ne pourra y siéger, et si les membres du panel sont rémunérés, ce devrait être par une fondation indépendante. Le panel traitera à la fois de contestations de décisions de modération (faut-il supprimer ou maintenir en ligne tel ou tel contenu) et de questions qui lui seront directement soumises par Facebook, tout en notant que ce petit “tribunal” aura normalement la faculté de choisir ses propres dossiers. Facebook se dit ouvert à ce que les décisions prises par cet organe influencent ses politiques de retrait, et s’engage à se conformer à la “jurisprudence” qui se développera au fil du temps.
Ainsi, si ce projet de Cour suprême projet est loin de menacer la souveraineté de notre chère Cour de cassation, il n’en constitue pas moins la “judiciarisation privée” d’une fonctionnalité de la plateforme. La modération (a posteriori) du contenu, ainsi que nous le développerons plus bas, fait en effet intégralement partie, dans l’Union Européenne, des obligations de Facebook en tant qu’hébergeur. Avec sa Cour suprême, Facebook délaisse cette responsabilité en la confiant à un organe aux inspirations judiciaires, mais qui, bien que tiers à Facebook, n’en demeure pas moins une personne morale de droit privé, d’où le qualificatif de justice privée.
Les inspirations judiciaires sont d’ailleurs largement assumées : le rapport de planification produit par Facebook établit une comparaison de diverses instances décisionnelles de par le monde, comprenant d’ailleurs notre Cour de cassation, afin de s’en inspirer pour créer son panel. Le but de ce tribunal privé est tout aussi assumé. Le réseau ne souhaite pas prendre la responsabilité de choix de modération qui seront forcément critiqués – le débat entre liberté et sécurité fait rage partout dans le monde, et les solutions diffèrent grandement selon les pays ou les courants politiques. Facebook est tout aussi réticent à devoir adapter son produit à des myriades de réglementations nationales sur ce qui est permis en ligne ou non – les débats sur la loi Avia contre la haine montrent bien à quel point la définition des “contenus haineux” est compliquée, et il est peu probable que deux pays en adoptent la même définition au vu du caractère éminemment culturel de ces débats. Placée entre le marteau et l’enclume, c’est logiquement que Facebook tente une nouvelle porte de sortie : confier la régulation de sa modération à une entité unique, mais tierce, en s’inspirant de la rhétorique et de la symbolique judiciaire pour asseoir la légitimité de son projet.
Bien qu’elle soit très médiatisée, cette initiative de justice privée est loin d’être véritablement nouvelle ou isolée. En fait, la plupart des grandes plateformes du web opèrent aujourd’hui une forme de justice privée. Il s’agit même souvent de l’un de leurs principaux arguments de vente, et donc d’une cause de leur succès. La force d’AirBnB n’est pas d’avoir créé une plateforme de mise en relation entre locataires propriétaires et vacanciers mais bien d’internaliser et de régler les conflits qui pourraient survenir à l’occasion d’une location. De même, eBay n’est pas un site d’enchères en ligne, mais plutôt un tiers de confiance qui garantit et tranche les litiges en cas de défaut de paiement ou de livraison. Quel moyen a été trouvé par YouTube pour répondre aux critiques face à sa gestion permissive de la contrefaçon ? La création d’un système quasi automatisé de gestion des conflits entre ayants droit et utilisateurs, le célèbre ContentID. La proposition de valeur de la plupart des géants du net repose ainsi précisément sur les mécanismes de justice privée qu’ils offrent.
Même le sport électronique peut être régi par une forme de justice privée : Riot Games, l’entreprise qui édite le célèbre jeu vidéo League of Legends, est connue pour ses jugements publiés en ligne lorsqu’une infraction à ses règles a été commise par une équipe ou un joueur professionnel. La judiciarisation dans ce cas va même jusqu’au prononcé d’amendes de plusieurs dizaines de milliers de dollars ou l’expropriation d’un propriétaire d’équipe, et la liste des competitive rulings est longue.
De la directive Commerce électronique à la proposition de loi contre la haine : où l’on récolte ce que l’on sème
S’il peut sembler choquant, ou à tout le moins perturbant dans ses manifestations les plus “extrêmes” telles que ces sanctions pécuniaires prononcées par Riot Games, ce phénomène de prise en charge des contentieux internes par les plateformes elles-mêmes apparaît en réalité, dans un certain nombre de cas, voulu et encouragé par le législateur lui-même – qu’il soit français ou unioniste.
Témoin deux textes récents concernant, précisément, la responsabilité des plateformes à l’égard de la gestion des contenus de leurs utilisateurs – la directive Droit d’auteur, en son fameux article 17, et la proposition de loi dite “Avia” sur la lutte contre la haine sur Internet. Pour rappel, dans les deux cas, les dispositions nouvelles ou envisagées viennent refondre ou compléter, comme un “droit spécial”, celles déjà prévues par l’article 6 de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, pour des catégories de contenus jugées (à tort ou à raison) comme méritant un traitement particulier, à savoir respectivement les contenus allégués de contrefaçon d’un droit d’auteur et les contenus dits “odieux” ou “haineux”.
Or, dans ces deux hypothèses, la pratique a fait prendre conscience du double risque, symétrique, de sous-diligence et de sur-censure de la plateforme, placée en somme comme arbitre de deux prétentions contraires – celle de l’auteur du contenu, qui estime (si tant est qu’il soit de bonne foi) exercer sa liberté d’expression, et celle de l’auteur du signalement de ce contenu, qui l’estime illégal ou inapproprié. La solution prévue par les textes consiste chaque fois – ce n’est pas anodin – dans un mécanisme de “recours” interne à la plateforme, permettant à chaque partie d’exprimer ses éventuels griefs directement auprès du gestionnaire de cette plateforme.
Ainsi de l’article 2 du projet de loi Avia, dans sa version présentée en première lecture à l’Assemblée Nationale (dernière en date au jour de l’écriture de ces lignes), reprenant sur ce point les recommandations contenues dans l’avis du Conseil d’État :
[Les hébergeurs] mettent en œuvre un dispositif permettant :
- Lorsqu’ils décident de retirer ou rendre inaccessible un contenu ou d’en faire cesser le référencement, à l’utilisateur à l’origine de la publication du contenu retiré, rendu inaccessible ou déréférencé de contester cette décision ;
- Lorsqu’ils décident de ne pas retirer ou rendre inaccessible un contenu notifié ou de ne pas en faire cesser le référencement, à l’auteur de la notification de contester cette décision.
De façon plus explicite encore, l’article 17.9 de la directive Droit d’auteur envisage quant à lui la dimension nécessairement contradictoire de ces voies de recours “extrajudiciaires“, internes à la plateforme, en évoquant la notion tout à fait significative de “règlement des litiges” :
Les États membres prévoient la mise en place par les fournisseurs de services de partage de contenus en ligne d’un dispositif de traitement des plaintes et de recours rapide et efficace, à la disposition des utilisateurs de leurs services en cas de litige portant sur le blocage de l’accès à des œuvres ou autres objets protégés qu’ils ont téléversés ou sur leur retrait.
Lorsque des titulaires de droits demandent à ce que l’accès à leurs œuvres ou autres objets protégés spécifiques soit bloqué ou à ce que ces œuvres ou autres objets protégés soient retirés, ils justifient dûment leurs demandes. Les plaintes déposées dans le cadre du dispositif prévu au premier alinéa sont traitées sans retard indu et les décisions de blocage d’accès aux contenus téléversés ou de retrait de ces contenus font l’objet d’un contrôle par une personne physique. Les États membres veillent à ce que des mécanismes de recours extrajudiciaires soient disponibles pour le règlement des litiges. Ces mécanismes permettent un règlement impartial des litiges et ne privent pas l’utilisateur de la protection juridique accordée par le droit national, sans préjudice du droit des utilisateurs de recourir à des voies de recours judiciaires efficaces. En particulier, les États membres veillent à ce que les utilisateurs puissent s’adresser à un tribunal ou à une autre autorité judiciaire compétente pour faire valoir le bénéfice d’une exception ou d’une limitation au droit d’auteur et aux droits voisins.
L’internalisation des litiges par les plateformes et la juridictionnalisation de leur traitement s’inscrivent donc, dans ces hypothèses liées à la gestion des contenus utilisateur du moins, comme le prolongement “naturel” d’un mouvement initié par la directive dite “Commerce électronique” du 8 juin 2000, qui, pour limiter la responsabilité des intermédiaires techniques d’Internet, les a néanmoins placés comme premiers juges (en logique et en chronologie) du caractère manifestement illicite d’un contenu. Cette évolution trouve aussi ses raisons dans l’explosion du volume des contenus à traiter, et partant des contestations qui en découlent ; dans l’engorgement des tribunaux, et plus généralement l’impossibilité pour la justice étatique, avec les moyens qui sont les siens, d’appréhender efficacement cette masse de “petits litiges” ; enfin dans la quête de légitimation sociale des plateformes, dont les décisions et les méthodes de gestion sont de plus en plus fréquemment interrogées voire décriées. Sur ce dernier point, le cas de Facebook apparaît d’ailleurs tout à fait symptomatique, qui fait depuis peu l’objet d’un procès en violation de la liberté d’expression (“censure privée”) intenté par une ONG polonaise.
De l’obligation de créer du droit : la compliance comme modèle
Ce mouvement qui place entre les mains d’acteurs privés (les plateformes) le soin de trancher des litiges entre utilisateurs, et plus généralement de faire appliquer la loi, est à ranger selon nous dans celui, plus global, de l’essor des réglementations de type “compliance” et droit souple (“soft law”), par opposition aux normes législatives et réglementaires classiques. Ces réglementations se caractérisent en effet (entre autres) par l’édiction de principes et d’obligations relativement génériques, à charge pour les acteurs concernés de déterminer les meilleurs moyens de les mettre en pratique ; la bonne application de ces marges de liberté fait ensuite l’objet d’un contrôle a posteriori, principalement par le “régulateur”, c’est-à-dire le plus souvent une autorité de contrôle indépendante (accountability), mais aussi par les individus dont la réglementation vise à protéger les intérêts, lorsque ces derniers sont investis de droits en ce sens. La compliance signifie donc pour l’entreprise une obligation à deux niveaux : mettre en place non seulement des outils et procédures pour la traduction concrète des principes et obligations prévus par la réglementation, mais aussi des mécanismes de contrôle et de supervision de la bonne application de ces premiers outils et procédures.
L’exemple type de cette méthode de responsabilisation des acteurs privés (et publics) se trouve bien évidemment dans le (plus si) nouveau Règlement Général sur la Protection des Données (RGPD/GDPR), et tout spécifiquement dans ses dispositions relatives à la gestion des demandes d’exercice de droits des personnes concernées (aux articles 12 et suivants). Dans le cas du droit d’opposition, en particulier (article 21), ces dispositions imposent au responsable du traitement d’entrer dans une forme de dialogue et de pondération entre, d’une part, les “raisons tenant à la situation particulière” de la personne concernée, et d’autre part, ses propres “motifs légitimes et impérieux” (ou ceux découlant, par exemple, d’un intérêt général). Il est aisé de lire ici les germes d’un phénomène de “juridictionnalisation interne” : le responsable du traitement se voit en effet tenu d’accoucher d’une décision réfléchie, assortie qui plus est de délais contraignants (article 12.3) et d’une obligation de motivation, au moins en cas de rejet de la demande (article 12.4 : “Si le responsable du traitement ne donne pas suite à la demande formulée par la personne concernée, il informe celle-ci sans tarder et au plus tard dans un délai d’un mois à compter de la réception de la demande des motifs de son inaction et de la possibilité d’introduire une réclamation auprès d’une autorité de contrôle et de former un recours juridictionnel“). La figure archétypale de ce “juge dans l’entreprise” tient par ailleurs, rationae personae, dans la fonction de Délégué à la Protection des Données (DPO), lequel est chargé d’arbitrer, sous des conditions d’indépendance et d’absence de conflit d’intérêts qui ne sont pas sans rappeler celles que l’on exige des magistrats (article 38), entre les exigences contraires de l’activité économique du responsable du traitement d’une part (“nous avons besoin de ces données pour mener telle ou telle action“), et de la protection des droits fondamentaux des personnes concernées d’autre part.
Plus que de simples initiatives isolées prises par opportunité au gré d’évolutions législatives sectorielles, ce mouvement qui consiste pour les Etats/législateurs à responsabiliser les plateformes de manière croissante découle donc d’une volonté politique affichée, du moins pour ce qui concerne l’espace juridique unioniste. En effet, il s’agit là d’un des principaux axes de développement du marché unique du numérique tel qu’initié par la Commission Européenne. C’est ainsi que dans sa communication de 2016 “Les plateformes en ligne et le marché unique numérique – Perspectives et défis pour l’Europe”, la Commission présentait les mécanismes d’autorégulation et de corégulation des plateformes (comprendre, en tandem avec le législateur) comme le moyen “[d’]assurer le juste équilibre entre la prévisibilité, la souplesse, l’efficience et la nécessité d’élaborer des solutions à l’épreuve du temps […] [de] fournir de meilleurs résultats pour permettre le développement d’écosystèmes de plateforme solides en Europe et [de] compléter ou renforcer la législation qui régit déjà certaines activités des plateformes en ligne”, étant précisé que la même Commission souhaitait déjà favoriser ces mécanismes dès la première moitié des années 2010 avec la rédaction d’un code de bonne conduite pour l’auto- et la corégulation, visant à développer les dynamiques de responsabilité sociale de l’entreprise. C’est d’ailleurs, enfin, dans la perspective manifestement d’une généralisation de ces pratiques d’arbitrage interne, que la Commission envisage de clarifier le régime de responsabilité limitée des intermédiaires techniques, et de permettre une articulation plus fine entre la prise d’initiative sur l’autorégulation du contenu hébergé et la qualification de “rôle actif” historiquement utilisée pour déclencher la mise en oeuvre du régime de responsabilité de l’hébergeur :
Au cours de la consultation publique, plusieurs plateformes en ligne ont déclaré craindre que l’instauration de mesures volontaires ait pour effet qu’elles ne bénéficieraient plus de l’exonération de responsabilité des intermédiaires en vertu de la directive sur le commerce électronique. Il importerait donc de fournir aux plateformes en ligne des indications plus claires en ce qui concerne la mise en œuvre de cette exonération, dans les cas où elles prendraient d’éventuelles mesures volontaires, pour leur permettre de prendre des mesures d’autorégulation plus efficaces.
Que l’on décide de voir ici la simple application d’une logique d’efficience, l’aveu caché des États de leur propre déclin face aux “GAFAM”, ou encore une manière savante qu’ils auraient de lâcher du lest aux acteurs privés pour mieux les réguler a posteriori, il n’en reste pas moins que la responsabilisation croissante des plateformes procède bien d’une volonté du législateur de leur déléguer une partie de la production et de la gestion de la normativité dans notre espace juridique. De ce point de vue, les plateformes ont toujours disposé de leur propre domaine normatif “interne”, matérialisé par leurs conditions générales d’utilisation, souvent si difficiles à lire mais régissant pourtant toutes nos interactions en ligne. Le rôle concédé en sus est complémentaire et se rapprocherait presque, à grossir le trait, de celui d’une autorité administrative indépendante : l’édiction de normes quasi réglementaires, qui viendraient préciser de grands principes ou des lois plus générales, et le contrôle de leur mise en œuvre.
Les plateformes du net se voient donc devenir, presque naturellement, une forme nouvelle de régulateur, avec leurs CGU et l’adoption de codes de conduite et autres politiques de contenus. Ce droit que l’on appelle “souple” n’est pas si modulable ou mou que ce que son nom laisse à penser : Samsung France a récemment été mise en examen pour pratiques commerciales trompeuses, pour avoir affiché des engagements éthiques en réalité non respectés. De véritables sanctions judiciaires, voire pénales, se dessinent ainsi pour les entreprises qui ne respecteraient pas les engagements qu’elles ont pris, ce en plus des sanctions “réputationnelles” affectant l’image publique de l’entreprise (name and shame), catalysées par les exigences légales de transparence – l’article L. 111-7-1 du Code de la consommation, par exemple, impose aux grandes plateformes l’adoption d’un code de bonne conduite sur la transparence de leurs algorithmes de classement, et autorise la DGCCRF à “évaluer”, “comparer les pratiques”, et à rendre “publique la liste des plateformes en ligne qui ne respectent pas leurs obligations”. L’Etat se fait ainsi le garant et contrôleur de la bonne exécution de ces normes de droit souple issues de la compliance (telles, en l’occurrence précédente, que les codes de bonne conduite) ; les règles de la plateforme trouvent à ce jeu leur place, infra-réglementaire mais bien précise, dans la hiérarchie des normes.
Ce contrôle judiciaire étatique est toutefois nécessairement ex post, et sans préjudice du premier contrôle privé par la plateforme elle-même : la raison d’être des CGU comme des codes de conduite auto-édictés est bien en effet de fournir à la plateforme les instruments d’une première prise de décision “interne”, à mettre en oeuvre elle-même à l’égard de ses utilisateurs.
Ces pratiques juridictionnelles des plateformes, si elles n’échappent jamais complètement au cadre fixé par l’ensemble des normes supérieures, réglementaires, légales et supra-légales (dont l’un des principaux enjeux de cette série d’articles sera de saisir la teneur et les effets), prennent donc malgré tout une relative autonomie, à tout le moins en tant qu’elles peuvent produire des effets juridiques, virtuellement significatifs (tels qu’une exclusion de la plateforme), sur la personne des utilisateurs concernés, effets qui ne sont pas remis en cause avant l’intervention du juge étatique (laquelle peut d’ailleurs ne jamais advenir, pour des raisons de coût ou d’opportunité).
Analyser en quoi ces nouveaux modes de réglementation et de responsabilisation de l’activité des acteurs privés répondent à des évolutions économiques et sociales qui justifient, à tout le moins, de différer l’intervention du régulateur et du juge étatiques, on l’admettra, excèderait de beaucoup les plus humbles prétentions de cette série d’articles.
À ce stade, il importe seulement de relever que ces modes de réglementation et de responsabilisation existent, et induisent, dans les rapports entre les plateformes qui y sont soumises et leurs utilisateurs (puisque c’est de plateformes qu’il est question ici), les conditions d’un dialogue quasi-judiciaire (voire d’un trilogue lorsque le litige oppose en réalité plusieurs utilisateurs) : la plateforme, prise entre une somme d’intérêts contraires (dont les siens propres peuvent faire partie), se voit tenue de (p)rendre une décision et de s’en expliquer, le cas échéant, à l’égard des intéressés, voire d’un éventuel juge “supérieur” (le régulateur ou le juge étatique). Recourir pour ce faire aux méthodes du procès classique (dont en premier lieu les mécanismes du contradictoire) n’a dès lors rien d’innaturel, loin s’en faut – nous y reviendrons.
Dans le prochain épisode : de la médiation à l’arbitrage, où faut-il situer ce phénomène nouveau de justice privée numérique ? Quelle(s) typologie(s) permettent de distinguer (et d’évaluer) ses différentes itérations, d’une plateforme à l’autre ?