Qu’attendons-nous au juste de nos algorithmes ? Du strict point de vue de l’économie classique (macro comme micro), la question ne ferait pas débat : substituer à des analyses humaines hasardeuses et laborieuses un travail rapide et efficace, optimiser les coûts, en somme rendre la vie plus commode ; dommage, cependant, qu’un tel point de vue, celui du supposé homo economicus, n’existe pas, pour ainsi dire, dans la nature. Du point de vue moral à présent (ou éthique – le terme est à la mode), la même question apparaît à l’évidence plus complexe, mais elle se pose, du moins, sans ambages : pourquoi exiger moins, en effet, d’un algorithme, que ce que nous exigeons d’un agent humain ?
Le code n’est après tout qu’un mode parmi d’autres de l’action de l’homme dans le monde – un outil, bien que les capacités de cet outil ouvrent des perspectives démultipliées et inédites (et nous ne doutons plus désormais, à cet égard, que les interactions de la technique et de la morale vont dans les deux sens). Il ne paraît donc pas absurde de vouloir « bien penser » les cas d’usage de cet outil, et pourquoi pas les encadrer, tout à la fois pour protéger ce qui doit l’être dans les situations concrètes, mais aussi pour éviter des rétro-effets néfastes sur ce qui serait (nous le supposons) les conditions de possibilité même d’une morale.
Mais du point de vue juridique, précisément – puisqu’il est question d’encadrer ? Ici, le terrain est encore largement vierge. Il n’est guère que les dispositions du RGPD, faisant suite à celles de la loi Informatique & Libertés, pour traiter de front la question, sous l’angle de la « prise de décision (purement) automatisée », dont les autorités de contrôle ont déduit (selon nous contre le texte) qu’elle tombait ainsi dans un régime d’interdiction a priori, sauf exceptions – interprétation remarquable, car ce ne serait jamais que la seconde véritable interdiction édictée par un texte qui, par ailleurs, s’abstient majoritairement d’une telle approche.
Mis à part cette règle, déjà destinée à couvrir des enjeux manifestement plus larges que la seule vie privée, force est de constater que les institutions et autorités n’ont en somme produit que du droit souple – avis et recommandations, lignes directrices, de la Commission Européenne jusqu’à la CNIL. Il n’est pas tant question ici de discuter de la valeur juridique (la force obligatoire) de ces dispositions de droit souple, que de leur contenu : il est pour le moins intéressant de constater que ces mêmes institutions et autorités qui, par ailleurs, font le droit dans nos sociétés européennes, ont choisi ici de produire de la morale.
La morale, l’institution et la consultation publique
Ce n’est pas qu’on ignore le soubassement moral, par ailleurs, de toute règle de droit, et les interactions étroites entre les deux « disciplines » – éthique et juridique. En matière d’algorithmes, la démarche des autorités est cependant beaucoup plus nette, et assumée : il n’est pas l’heure (et rien ne dit qu’il sera jamais l’heure) d’adopter des règles de droit exécutoires, pouvant faire l’objet de sanctions par les tribunaux ; aussi s’en tiendra-t-on à jeter de simples « lignes de bonne conduite », ou principes moraux, ce dont témoignent tout à la fois le choix des instruments (droit souple) et leur contenu (principes de transparence, non-discrimination, explicabilité, etc.).
Les raisons en tiennent, pour une large part, à ce que nous ne sommes pas encore bien sûrs, justement, de ce que nous attendons de nos algorithmes, de ce que nous pouvons en attendre, ni de ce que nous devons en attendre. S’abstenir de toute règlementation dure est ainsi faire œuvre de prudence : il n’est rien de plus dommageable au droit et à son image, en effet, qu’une disposition légale ou règlementaire mal construite au point d’être inapplicable – ce ne sont pas les récentes lois fake news et droits voisins qui le démentiront. Des textes non contraignants, sur des sujets encore si prospectifs, sont également préférables, dès lors que la loi (la vraie) se doit de répondre à un objectif (constitutionnel, en France) de clarté et d’intelligibilité.
Mais – pourrait relever quelque esprit chagrin – est-ce bien le rôle pour nos autorités, faute de mieux, que de « faire de l’éthique », à défaut, sur ces sujets, de pouvoir faire du droit ? On pourrait en effet objecter, si la liberté consiste à pouvoir faire tout ce que la loi ou le règlement n’interdisent pas, qu’il n’appartient pas aux institutions publiques d’y ajouter, au prix d’une confusion des genres, et que nous disposons déjà, après tout, de bien assez d’autorités morales.
Cela serait cependant, selon nous, tout à la fois établir une frontière entre le droit et le « non-droit » (frontière que nous avons appris à gommer, en France, pays pourtant de tradition juridique ô combien formaliste, depuis le doyen Carbonnier), mais aussi nier le rôle sociologique pas si nouveau, mais historiquement éclipsé par la perspective juridique « dure », des institutions comme acteurs de la réflexion publique et (osons l’expression) du vivre ensemble.
Ce rôle est aujourd’hui doublement revivifié par le numérique, d’une part en ce qu’il apporte les outils utiles à la concertation citoyenne, mais aussi d’autre part en ce que ce terrain hautement technique, de même que celui, plus généralement, des nouvelles technologies, oblige les institutions (au sens le plus large), et les juristes que nous sommes, à une forme bienvenue d’humilité intellectuelle. De ce point de vue, les lignes directrices, avis et recommandations, et autres outils de droit souple (qu’on peine à qualifier même de « régulation ») ne doivent (devraient) pas être vus comme autant de pis-aller, mais plutôt comme un vœu positif de réflexion, collective et prolongée, sur ce qui est en cours. Aussi de cette maxime sans doute pas très universelle, mais parfaitement valable pour un législateur prudent : dans le doute, abstiens-toi – ou lance une consultation publique !