“Si je te donne un cookie, je vais devoir en donner à tout le monde également“. Qui n’a jamais entendu cet argument dans la bouche d’une personne en position d’accepter ou refuser un quelconque bienfait – et n’en a senti, sur le moment, le caractère quelque peu arbitraire, en tous cas très discutable ? Il s’agit en effet d’une itération de l’argument dit de la pente glissante (ou slippery slope argument, si vous préférez la version sans sous-titres), généralement reconnu, en logique, comme un cas de raisonnement fallacieux : le problème est ici que l’on se refuse à voir la possibilité d’une ou plusieurs positions médianes entre un simple état de fait A (je te donne un cookie) et un autre état de fait B, assorti de conséquences intolérables (je me retrouve moralement voire juridiquement obligé à reproduire le même geste envers une quantité virtuellement illimitée de personnes).
L’exemple est grossier, en tous cas badin, on vous l’accorde. Il est pourtant symptomatique d’un certain type de rapport au monde, plus particulièrement au droit, et plus particulièrement encore au droit de la protection des données à caractère personnel et de la vie privée, dont l’actualité nous fournit quelques exemples.
Le malade et le mobile
En premier lieu, l’utilisation d’outils dits de “traçage” (souvent de manière assez impropre et excessivement anxiogène, lorsque ces outils reposent en réalité entièrement sur un stockage de l’information en local) dans le cadre de la lutte contre le développement de l’épidémie de Covid-19 : un argument régulièrement soulevé contre cette utilisation tient à l’accumulation de potentialités indésirables et mal maîtrisées tels que la surveillance d’employés par leurs employeurs, ou pire encore de citoyens par l’Etat et ses administrations.
Indésirables, nous ne le nions pas qu’elles le soient, ces potentialités ; mal maîtrisées, c’est déjà moins certain, et à cet égard le discours en question se fait souvent moins prolixe – ne pouvons-nous pas nous montrer imaginatifs dans la création de remparts techniques et sociaux (chinese walls) suffisamment étanches pour endiguer le partage des données avec ceux-là mêmes qui pourraient (selon nous) en mésuser ? Telle serait une position médiane entre l’état de fait A (la mise en œuvre d’une application de traçage) et l’état de fait B (constitué plus exactement d’une multiplicité de situations redoutées), qui permettrait de réaliser le premier sans nécessairement subir le second : il s’agit, en somme, de placer une cale dans la pente.
Autre exemple, lié cette fois aux mobilités (celles que nous retrouverons bientôt, avec un plaisir jamais aussi grand), aux données qu’elles génèrent, et à l’utilisation de ces données dans le cadre de projets souvent dits de “villes intelligentes”. Ces projets s’appuient en effet dans une large mesure sur la collecte de données détenues initialement par d’autres acteurs que la ville, tels que les prestataires de services de mobilité, et la réutilisation de ces données. Plus avancés outre-atlantique, certains de ces projets ont donné lieu à une levée de boucliers de la part d’acteurs agitant le spectre d’une société de la surveillance, renforcée par la captation de données de mobilité en temps réel.
Ici encore, il n’est pas question de nier la tendance croissante de l’utilisation de nouvelles technologies à des fins de surveillance. Cependant, comme en vérité n’importe quel autre argument, trop en user, c’est l’abîmer, ou du moins prendre le risque d’en diminuer le crédit. En l’occurrence, la position qui voudrait qu’au nom de cet argument soient systématiquement récusés tous projets impliquant la collecte de données de mobilité par une entité publique fait fi de bien des considérations intermédiaires : de quelles données de mobilité parle-t-on, tout d’abord ? Toutes ne sont pas aussi directement identifiantes. Est-il si radicalement impossible, ensuite, d’imaginer et mettre en œuvre des mesures organisationnelles aptes à réserver ces données à certains usages légitimes, tout en empêchant, par exemple, les services de police d’y avoir accès en l’absence d’une autorisation émise par l’autorité judiciaire ?
Toutes ces questions n’admettent de réponse, il est vrai, qu’au cas par cas. Or, c’est bien là le point qui devrait mettre en échec toute tentative de céder aux analyses de type “pente glissante” : le réel n’étant pas binaire, et admettant ordinairement une infinité de solutions intermédiaires, toute la beauté du jeu consiste à rechercher ces dernières pour ne pas fermer la porte à des états de fait positifs, innovants. Dans ce jeu, il est évident que le juriste a sa carte à jouer.
Prévenir n’est pas s’abstenir
Que dit le droit, précisément ? On serait tenté de répondre, à ce stade, que ce que nous avons jusqu’ici présenté comme “argument de la pente glissante” n’est en vérité qu’un vilain nom pour ce qu’il est autrement coutume d’appeler principe de précaution. Nous ne le croyons pas – ou alors, c’est au prix d’une dénaturation du second, de son contenu juridique du moins.
L’argument de la pente glissante a en effet pour conséquence une abstention quant à l’état de fait A, de peur de déclencher l’état de fait B : ne pas utiliser d’application de “traçage” ; ne pas laisser les villes collecter de données de mobilité. Le principe de précaution, à bien y regarder, ne dit pas exactement la même chose : que ce soit dans son expression internationale (la première, dans le principe 15 de la déclaration de Rio de 1992 : “pour protéger l’environnement, des mesures de précaution doivent être largement appliquées par les Etats selon leurs capacités. En cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement“) ou dans son expression nationale, constitutionnelle (article 5 de la Charte de l’environnement : “lorsque la réalisation d’un dommage, bien qu’incertaine en l’état des connaissances scientifiques, pourrait affecter de manière grave et irréversible l’environnement, les autorités publiques veillent, par application du principe de précaution et dans leurs domaines d’attributions, à la mise en œuvre de procédures d’évaluation des risques et à l’adoption de mesures provisoires et proportionnées afin de parer à la réalisation du dommage“), le principe de précaution n’invite pas à l’abstention, encore moins à l’inaction, mais bien, précisément, à l’adoption de mesures appropriées face aux risques, a fortiori lorsque ces derniers sont encore mal identifiés voire inconnus.
Le Règlement Général sur la Protection des Données, on ne se lasse pas de le rappeler, ne dit pas autre chose chose : son paradigme n’est pas celui de l’interdiction (si ce n’est à l’égard des données sensibles, mais la longue liste d’exceptions au principe vient largement tempérer ce constat) mais celui de la mitigation des risques. Bien peu de projets (pour ne pas dire aucun) devraient ainsi être entièrement abandonnés pour une “simple raison de RGPD” : comme la contrainte stimule l’imagination, il faut au contraire penser les mesures qui rendront le projet à la fois utile, efficace et légalement (et socialement) acceptable.
Il y a là, il est vrai, un exercice souvent plus dur (d’autant plus dur qu’il nécessite de se confronter à une contradiction parfois véhémente pour enrichir et affiner le projet ou l’outil concerné) que la posture consistant à se replier entièrement derrière des craintes générales et catégoriques. Le récent avis de la CNIL sur le projet d’application StopCovid, qui a surpris plus d’un praticien de la protection des données par son approche “ouverte quoique mesurée”, témoigne cependant de la pertinence de cette voie.