Il y a presque 20 ans, Lawrence Lessig écrivait la fameuse maxime “Code is law“ et mettait ainsi en avant cet aspect si particulier et si nouveau d’Internet : le réseau est difficile à appréhender par le droit, pour la bonne et simple raison qu’il est issu de choix techniques immuables et que c’est donc le code informatique et les choix d’architecture technique qui en guident le fonctionnement. Autrement dit, une fois que le choix technique est fait, le droit peut bien dire ce qu’il veut, il sera inefficace.
Quoi de plus effrayant, pour une règle de droit, que de ne pouvoir s’appliquer en aucune circonstance ? Ce que Lessig mettait alors en valeur, c’est que la règle de droit doit donc dicter le choix technique en lui-même, qu’il faut penser comme le reflet des choix sociétaux et éthiques que l’on veut porter.
Lessig prenait alors l’exemple du double protocole TCP/IP, qui est toujours à la base du fonctionnement du web : la combinaison de ces deux protocoles permet l’échange d’informations de manière neutre, à la fois par rapport au contenu (d’où les débats sur la préservation de la neutralité du net) et par rapport à l’expéditeur et au destinataire de ce contenu (d’où la question de savoir si l’adresse IP est vraiment une donnée personnelle). Lessig expliquait qu’il s’agissait d’un choix technique parmi d’autres, qui préservait certaines valeurs (la liberté d’expression, la vie privée), au détriment d’autres (la sécurité, la lutte contre les contenus illicites et haineux). En tout état de cause, puisque le fonctionnement du réseau (et donc, les possibilités qui nous sont offertes par ce réseau) dépendent du code informatique et de l’architecture réseau, il est logique de conclure que le code régule, que le code est droit.
Il faut changer les règles relatives à ces choix pour permettre d’aller à leur encontre : c’est dans ces conditions que la Federal Communications Commission, l’ARCEP étasunien, sous la tutelle d’un sbire de Donald Trump, est en train de réformer les règles relatives à la neutralité du net pour permettre aux fournisseurs d’accès Internet d’aller à l’encontre de la neutralité du réseau face aux contenus.
Beaucoup d’eau a coulé sous les ponts depuis Code is law, et Lawrence Lessig est désormais un candidat malheureux à l’investiture démocrate pour la présidentielle étasunienne de 2016. Il n’en reste pas moins un penseur du droit d’Internet, et ses interventions sont souvent pleines d’enseignements sur l’état actuel du réseau. Grand admirateur de sa pensée, j’étais donc présent le 24 septembre 2017 à l’Opéra Bastille, pour le Festival du Monde, où Lawrence Lessig est venu discuter un moment avec une salle comble. Si ses remarques sont toujours d’une grande clairvoyance, force est de constater que Lessig mérite quelque peu son surnom de “Cassandre d’Internet”, tant le discours est pessimiste. Au travers de certaines citations tirées de cette conférence, je vous invite à faire un état des lieux d’Internet et de la démocratie – rien que ça.
“Internet enables a market that flourishes through the politics of hate”
Après avoir manqué (de très très loin) l’investiture démocrate, Lessig s’est pleinement investi dans la campagne d’Hillary Clinton (qu’il considère comme “incomprise“). Il n’est donc pas étonnant qu’il soit toujours hébété de la victoire de Donald Trump. Ce n’est désormais plus un secret, celle-ci peut, en partie, être liée au fonctionnement des réseaux sociaux : même Mark Zuckerberg, qui disait que l’idée était “folle“, semble désormais accepter ce fait.
L’idée de base est simple : nous sommes majoritairement connectés, au travers des réseaux sociaux, à des personnes qui partagent nos idées, plus ou moins. Par ailleurs, nous avons tendance à interagir plus avec les contenus qui nous plaisent qu’avec les contenus qui nous déplaisent. Enfin, les algorithmes des réseaux sociaux ont pour but de nous servir du contenu qui nous plait, afin que nous cliquions, que nous passions du temps sur la plateforme, et, in fine, que ce temps passé aboutisse à des clics rémunérateurs sur des annonces publicitaires. Le cumul de ces trois faits aboutit à un constat sans appel : nous sommes dans une bulle informationnelle qui nous montre, très majoritairement, ce que nous voulons voir.
Ce raisonnement, qui fonctionne bien pour les réseaux sociaux type Facebook, est étendu par Lessig aux médias traditionnels de manière générale : il considère que, pour émuler le modèle des réseaux sociaux qui rapporte tant, les médias traditionnels font aussi de la bulle informationnelle, et ne présente plus qu’un type d’opinion, pour ne viser qu’un public particulier, qui sera le seul à consommer ce média. Le système politique et médiatique américain s’en trouve donc divisé en deux visions du monde, opposées en tous points, et sans zone tampon pour échanger. C’est dans ces conditions que Lessig considère qu’Internet permet au marché de fleurir grâce à la haine.
Je suis peut-être naïf, ou alors mal informé et emprisonné dans une bulle informationnelle très forte, mais je ne pense pas que ce constat sans appel puisse être transposé à l’identique de notre côté de l’Atlantique – ou, à tout le moins, en France. Si la bulle informationnelle est incontestablement présente sur les réseaux sociaux, je n’ai pas l’impression que nos médias soient aussi opposés que le sont CNN et Fox News. Il me semble surtout que la culture de la fake news n’est pas (encore ?) la norme en France : si des groupuscules tentent bien de recourir à cette technique qui a si bien fonctionné pour Trump (rappelons la campagne de Macron), l’impact sur les élections ne s’en est pas fait ressentir. Il n’en reste pas moins que la culture du troll est bien présente en France également, comme en témoigne cette très récente affaire du “numéro anti-relous”. Des deux côtés de l’océan se pose donc la question d’une éventuelle régulation des algorithmes et de la prolifération de contenus haineux ou faux.
“We are turning huge parts of our system to machines which we don’t understand and have no clue on how to regulate”
La question de la régulation des algorithmes a été évoquée directement par Lessig durant cette conférence, en partant de la récente révélation que les algorithmes publicitaires de Facebook permettaient de cibler des populations sur des critères haineux : par exemple, vous pouvez payer Facebook pour diffuser une annonce à des personnes antisémites.
Lessig prend l’exemple d’un film de science-fiction des années 70, Le Cerveau d’acier (Colossus: The Forbin Project). En pleine Guerre Froide, le docteur Forbin parvient à créer un superordinateur indestructible capable de contrôler l’arsenal nucléaire américain, présenté comme une solution pour amener la paix. Une fois mis en service, ce superordinateur se rend compte qu’un équivalent existe en URSS. Les deux ordinateurs demandent alors à être reliés l’un à l’autre, et commencent à échanger sous la supervision des humains. Ils finissent par développer un langage incompréhensible, puis par fusionner et prendre le contrôle de l’ensemble des têtes nucléaires sur Terre, avant d’exiger une obéissance totale : c’est en effet le seul moyen, selon le supermégaordinateur, d’assurer la paix sur Terre. Devant le refus d’obtempérer du docteur Forbin, l’ordinateur détonne plusieurs bombes nucléaires, tuant des milliers de personnes, afin de montrer sa détermination.
Lessig se sert de cet exemple pour indiquer que nous ne comprenons que mal, voire pas du tout, les algorithmes auxquels nous accordons aujourd’hui tant de pouvoir. Or, ceux-ci font désormais partie intégrante du processus démocratique, et l’influencent même fortement. Le rôle des algorithmes de mise en avant de contenus est ainsi un enjeu majeur de nos sociétés contemporaines. Facebook teste en ce moment une newsfeed revisitée, au sein de laquelle seuls les posts de nos amis apparaitraient – il faudrait faire une démarche positive d’aller explorer (sic) du contenu pour voir les posts de pages et de médias. C’est le signe que la remise en cause de cet effet de bulle est très forte.
Est-ce un sujet à régulation ? Pour l’instant, la Commission Européenne travaille principalement sur la lutte contre les contenus haineux, ayant récemment publié à ce sujet un communiqué de presse sur l’état de sa réflexion. La prolifération de contenus haineux et le trolling par la fake news ne sont pas sans lien, mais ils n’en restent pas moins deux problèmes différents : la fake news peut être haineuse comme elle peut être anodine et insidieuse. Il y aurait donc bien matière, si l’on veut préserver nos élections de l’influence de trolls russes, à tenter de réguler la diffusion de news sur Internet.
La piste évoquée par la Commission Européenne comprend notamment le retrait automatisé de ces contenus. Il y a là un serpent qui se mord la queue : on tente de pallier la prolifération de contenus haineux et trollant, favorisée par la bulle informationnelle créée par des algorithmes, par d’autres algorithmes de retrait de contenu, au détriment du principe du contradictoire et de la liberté d’expression.
La vraie question est donc : comment réguler ? Peut-on juste énoncer qu’un algorithme ne doit présenter que des faits objectifs ? La notion est risible, tant la mise en œuvre serait complexe, voire impossible. La France fait figure de meneuse sur ce sujet, avec la tentative d’Axelle Lemaire et de sa loi pour une République numérique imposant des obligations de loyauté et de transparence aux plateformes. Cependant, si l’effort et l’intention sont louables, le texte risque d’être inefficace, comme nous le montrerons prochainement dans un article sur le sujet. Concrètement, le problème de la fake news ne pourra être simplement résolu en forçant Facebook à expliquer comment un article apparait sur un fil d’actualités. A l’inverse, des mesures trop drastiques seraient non seulement impossibles à mettre en œuvre, mais risqueraient également d’avoir un impact négatif sur l’économie. La réponse à la question de la régulation des algorithmes se trouve donc quelque part entre ces deux extrêmes.
“Internet can be the best or the worst of all technologies. Which it will be is a function of what we demand it to be.”
Une question posée à Lessig a porté sur l’utilisation d’Internet pour surveiller les opposants à un régime et censurer leur discours. Internet, qui à sa naissance était censé permettre une liberté d’expression totale, se retrouve utilisé pour museler un discours politique. La question posée était donc de savoir si ce dévoiement de la technologie était dû à la fameuse neutralité de la technique, qui peut être bonne ou mauvaise selon son utilisation mais ne l’est pas elle-même intrinsèquement, ou si au contraire quelque chose avait raté dans le développement d’Internet et l’avait détourné de son chemin initial.
C’est en réponse à cette question que Lessig a affirmé qu'”Internet pouvait être la meilleure comme la pire de toute les technologies – laquelle elle deviendra est fonction de ce que nous lui demanderons d’être“. C’est l’occasion pour Lessig de revenir sur Code is law : à l’époque, il s’agissait pour lui d’avertir les techno-utopistes que si Internet pouvait bien servir la liberté d’expression grâce aux choix techniques effectués par les fondateurs d’Internet, il était possible qu’Internet serve au contraire à permettre une surveillance de masse ou à censurer l’expression, dès lors que les gouvernements auraient repris contrôle du code au cœur du fonctionnement et de la régulation d’Internet.
Pour Lessig, les révélations de Snowden sont l’exemple même de ce dévoiement : le code ne permettait pas au régulateur d’intercepter facilement et massivement des communications, donc le régulateur est allé voir les grandes entreprises contrôlant le code et les a forcées à installer des backdoors permettant l’accès à ces communications. Le code est ainsi devenu un outil de surveillance massif et secret.
Le pessimisme de Lessig le pousse ainsi à se méfier à la fois du gouvernement, corrompu, ne vivant que pour se faire réélire et n’ayant que cet objectif en tête, et des entreprises privées qui contrôlent de facto le web par leur taille, obnubilées par leur seul objectif, l’argent. Les faits semblent lui donner raison en partie.
D’un côté, les révélations de Snowden ont bien montré l’étendue du contrôle et du pouvoir qu’un gouvernement pouvait acquérir grâce à Internet. Plus récemment, les fermes à trolls russes et leur impact sur les élections américaines, la cyberarmée nord-coréenne ou encore la censure généralisée chinoise sont autant d’exemples du pouvoir que renferme Internet et des dérives que le réseau peut permettre.
De l’autre, on ne peut qu’assister avec une appréhension respectueuse au développement titanesque des grandes entreprises du web : Amazon qui rachète Whole Foods sans sourciller, Apple qui construit un campus de la taille de cents terrains de foot, ou Google qui se démultiplie pour devenir la première entreprise cyberpunk de l’histoire… Comment garder confiance dans des sociétés dont le pouvoir ne cesse de croître ?
Mon analyse est plus nuancée. J’ai tendance à apprécier le développement de contre-pouvoirs privés face à l’administration publique. L’exemple des réactions des géants d’Internet aux révélations Snowden est pour moi révélateur de l’aspect positif du contre-pouvoir privé : une fois révélées, les backdoors étatiques ont été immédiatement supprimées. Certains diront que la réaction n’a été guidée que par la peur que la réputation de ces sociétés soit ternie – et ils auront sûrement raison. Quoi qu’il en soit, les GAFAM sont depuis une source d’équilibre et de préservation de certaines libertés publiques : Apple s’est illustrée en refusant de déchiffrer un iPhone pour le FBI, tandis que Google et Microsoft se battent régulièrement contre le Ministère de la Justice étasunien pour empêcher que celui-ci ne saisisse des données personnelles stockées dans des serveurs situés en Europe – l’affaire Microsoft est désormais devant la Cour Suprême.
Au fond, la relation de je-t’aime-moi-non-plus qu’entretiennent la CNIL et Google me semble être l’exemple parfait de cet équilibre que l’on peut trouver autour d’Internet entre le pouvoir public et le pouvoir privé : si les amendes régulièrement infligées par la CNIL à Google sont bien connues, un autre aspect de la relation est la coopération qui a lieu entre les deux entités pour mettre en œuvre le fameux “droit à l’oubli” issu de la décision Google Spain de la CJUE (lire notre article sur la comparaison entre ce droit dégagé par la jurisprudence et son pendant dans le GDPR). La CNIL et Google se battent devant la CJUE pour savoir quelle est la portée territoriale de ce droit, mais échangent régulièrement sur des cas particuliers et tombent très souvent d’accord sur les suites à donner – ou non – à des demandes de déréférencement. Preuve en est que les deux “ennemis” se trouvent d’ailleurs du même côté de la barre dans une affaire, également remontée devant la CJUE, portant cette fois sur les données sensibles : la CNIL avait alors confirmé les décisions de Google, et c’est ce choix de la CNIL qui est contesté par les demandeurs.
Cette relation ambivalente entre un régulateur assidu et son meilleur adversaire me laisse à penser que le fameux principe de séparation des pouvoirs entre l’exécutif, le législatif et le judiciaire, trouve une interprétation moderne en ce qui concerne Internet : la sainte trinité de la régulation du réseau serait alors le pouvoir public d’un côté, le pouvoir privé de l’autre, et le code au milieu. Après tout, le code est loi, n’est-ce pas ?