Face aux problématiques toujours plus pressantes posées par le développement de la technologie, les législateurs et régulateurs français et européens semblent avoir trouvé la solution : la transparence. Introduit dès 2016 par la loi pour une République numérique, le principe de transparence fait petit à petit son chemin comme vecteur de confiance : de la transparence des plateformes, on en est venu à parler de celle des traitements des données personnelles, pour maintenant parler de transparence de l’information face aux fake news. Mais concrètement, qu’est-ce que cela veut dire ?
De la clarté sur la notion de transparence
Au-delà des grandes notions, l’application concrète de la transparence est ardue et le législateur donne peu de clefs de lecture. Il est à peu près admis que la publication du code source ne servirait à presque personne, en plus d’être une atteinte à la propriété intellectuelle et au secret des affaires nouvellement protégé. C’est du moins le cas pour les algorithmes du privé, puisqu’au contraire la garantie suprême de transparence de la part de l’administration est précisément la publication du code source (#parcoursup).
Pis, il semblerait d’après un article de la Harvard Business Review que trop de transparence tuerait la transparence et aurait l’effet contraire de celui souhaité : un défaut de confiance. Mais on ne peut pas dire que des consignes telles que “[préciser] dans une rubrique spécifique les modalités de référencement, déréférencement et de classement” donnent beaucoup plus de détails sur le degré de granularité de l’information attendue, et pourtant, il s’agit d’une citation du décret d’application de la loi pour une République Numérique. Force est de constater que ces textes si compliqués à mettre en œuvre ne le sont donc que très peu : parmi les GAFAM, seul Google affiche désormais un bouton “Informations consommateurs“, qui redirige vers un centre d’aide sommaire.
Changer d’optique
Il existe en fait deux courants de pensée récents qui peuvent contribuer à faire de la transparence le moteur de la relation de confiance avec la tech. D’un côté, le mouvement de legal design promeut la réflexion pluridisciplinaire sur les outils juridiques, pour ne plus envisager ces derniers que sous l’angle du droit, mais également sous ceux de l’expérience utilisateur et du design, et donc de la psychologie et de la sociologie. Le but est ainsi de créer des politiques de confidentialité et autres conditions générales d’utilisation qui soient enfin lues. Dans son blog Binaire sur Le Monde, le chercheur Serge Abiteboul conclut également à l’inutilité du concept de transparence sans un appui pratique, et promeut l’idée de “redevabilité” : en réfléchissant les objectifs de la transparence, on comprend que celle-ci porte non pas uniquement sur le livrable final, l’information du consommateur, mais bien sur sa relation avec la technologie. Il s’agit donc de se conformer au droit et de rendre compte en permanence des actions effectuées : lors de la collecte des données, lors du développement de l’algorithme, lors de ses tests et lors de sa mise en production.
In fine, les moteurs de la transparence que sont le legal design et la redevabilité nous montrent bien ce qui manque à ce concept et aux textes de lois qui l’implémentent jusqu’à présent : à trop se soucier du résultat final à obtenir (“l’information du consommateur”), on en oublie le principal, l’humain lui-même. L’inversion du mode de pensée et la réintroduction d’une réflexion anthropocentrée permettent de renverser la balance, et de faire de la transparence non plus une finalité en soi, mais bien le moteur de ce qui compte vraiment, la confiance.
Ce qu'on lit cette semaine
#algorithme
#privacy
#gdpr
#ledroitdesavoir
S’il n’est pas toujours évident de savoir comment la mettre en pratique, une chose est sûre, la notion de transparence est à la mode : dans le GDPR, en matière d’algorithmes, en matière fiscale ou encore sur la scène politique, l’esprit du temps semble être à lever les voiles. Mais qu’y gagne-t-on vraiment au bout du compte ? De cet article qui retrace plusieurs expériences relatives à la perception des algorithmes par les personnes concernées, il ressort que transparence et confiance ne sont en réalité que très partiellement corrélés : jusqu’à un certain point, plus de transparence génère davantage de confiance, mais passé ce point, c’est la rupture. Une leçon qui laisse songeur, et invite à penser l’information non comme une fin en soi, mais comme un volume à optimiser (less is more, comme dirait l’autre, quand less is clearer) avec différents niveaux d’explicabilité à prévoir selon le destinataire (grand public ou régulateur, par exemple). Surtout, dans ce débat, la révélation publique du code source, avec toutes les angoisses qui l’accompagnent pour les entreprises concernées, apparaît de plus en plus comme une non-question, au regard des vrais enjeux à satisfaire. Comme nous le soulignions dans un précédent article signé Aeon : aux confins de l’éthique, de l’informatique mais aussi des sciences cognitives, la réflexion sur la régulation des algorithmes ne saurait demeurer un débat purement juridique.
#vidéosurveillance
#comitéd'éthique
#bonjouraurevoir
C’est un peu comme croiser une personne lorsque l’on est sur le départ. Conjointement à l’accroissement de la fréquence de mise en place de dispositifs de vidéosurveillance dans les zones urbaines de France se sont développés des comités d’éthique, pour la plupart municipaux, chargés de veiller à la bonne mise en oeuvre des obligations légales en la matière (délai de conservation de 30 jours max, possibilité matérielle pour les filmés d’accéder aux images, mesures de sécurité du stockage des images etc.). Nés d’une bonne intention, ils ne sont pas obligatoires, ces comités d’éthique sont simplement sans ressources, que ce soit pour agir ou pour survivre. L’on apprendra à ce titre qu’il existe actuellement une Commission Nationale de la Vidéoprotection depuis 2011 dont personne n’a jamais entendu parler mais qu’une proposition de loi vise à la supprimer. Illustrons d’ailleurs cela d’une phrase de l’écrivain Jean-Pierre Martinet à propos de sa propre vie : « Parti de rien, Martinet a accompli une trajectoire exemplaire : il est arrivé nulle part ».
#étatsgénérauxdunumérique
#Régulation
#grossirsesrangsetfairefront
C’est peut être le début de l’histoire du colibri ou les prémisses de l’explosion d’un pétard mouillé. Conscient de ce que les grandes guerres et révolutions se gagnent souvent par l’appui de la masse, le gouvernement a annoncé l’ouverture des états généraux des nouvelles régulations numériques pour tenter d’organiser un front pouvant donner la contradiction aux GAFAM, BATX, leurs émules et successeurs éventuels à l’échelle internationale. Il s’agit sûrement là de l’identification du bon défi à relever, les Etats ne manquent en effet pas en nombre, car c’est surtout l’absence de coordination et de prise de position commune qui semble jusqu’à présent leur faire défaut. Le RGPD en est d’ailleurs l’illustration parfaite. Abstraction faite de toutes les difficultés de mise en oeuvre qu’il peut susciter, des effets encore insoupçonnés qu’il peut produire, et des critiques qui lui sont faites, il n’est pas possible de lui retirer le fait qu’il s’agisse d’un appareil de régulation d’une puissance rare et d’un support de communication hors norme en ce qu’il a réussi à imposer à tous les acteurs, utilisateurs, administrations et entreprises de s’intéresser à la donnée. Reproduire le succès du RGPD est donc peut-être la seule voie qu’il reste aux Etats pour véritablement peser dans le game du numérique.
#scienceéconomique
#musique
#bigdata
#chantalgoyachetezmaintenant
Le Big Data, cette source intarissable grâce à laquelle on arrive à faire tout avec n’importe quoi. Des économistes ont découvert que l’historique des chansons les plus écoutées par les consommateurs était un indicateur valable de la confiance qu’ils accordent à l’économie de leur pays, voire même plus performant que ceux actuellement en usage. Les chercheurs, en analysant l’évolution des mots clefs des paroles les plus populaires des années 2008 – 2010 ainsi que leurs ambiances, ont pu observer qu’il existait une corrélation signifiante entre l’occurrence de la crise économique et le fait que le top 100 de la période correspondante était triste à se pendre. Il est envisageable, et d’ailleurs envisagé, que cet indicateur soit utilisé pour mieux orienter les politiques publiques à l’échelle nationale, régionale voire même micro locale (et oui, on peut descendre bas avec la data) ou encore prédire l’évolution générale des marchés. Peut-être tendons-nous donc vers un monde où il ne sera pas rare de s’entendre dire, à l’occasion d’un dîner en ville, qu’il ne faut pas acheter du Air Liquide car cela fait trois semaines qu’un remix de Pandi Panda culmine en haut du top 100.
#déconnexion
#techindustry
#actejusteoujusteunacte?
Une belle illustration de l’ambivalence de l’éthique et de la rationalité économique des entreprises. Dans une économie de marché où la demande dicte, dans une proportion non négligeable, l’offre, il est en effet difficile de distinguer les bons sentiments de l’appât du gain. C’est ainsi que tout positionnement d’une firme d’apparence bienveillante évoluera, de manière presque nécessaire, dans l’ombre du doute qu’il s’agisse en réalité d’une grande campagne marketing. Aux initiatives des fabricants de prêt à porter de lutter contre le travail infantile ou de favoriser le développement durable le long de la chaîne de production, l’on peut opposer le fait que ce n’est que pour montrer pattes blanches et que les produits équitable se vendent mieux et plus chers. Désormais, c’est des intentions des géants du numérique que les gens doutent. De nombreux d’entre eux ont en effet affiché la volonté de redonner aux utilisateurs la maîtrise du temps qu’ils passent sur leurs outils alors que certains observateurs crient à la récupération commerciale du déconnexionnisme. L’on se demandera simplement, est-ce véritablement grave ?
#cyberdéfense
#géopolitique
#crimed'état
La frontière entre “monde virtuel” et “monde réel” est une frontière plus poreuse qu’on ne le croit, en réalité peut-être pas même une frontière : le constat est heureux dans certains cas, par exemple lorsqu’il s’agit de juger de l’expérience véritablement humaine que peut constituer un échange en ligne ; il l’est moins dans d’autres, comme lorsque d’éminents experts en cyberdéfense s’accordent à dire que le temps ne sera pas long avant qu’une cyberattaque ait des conséquences bien concrètes, potentiellement mortelles, sur les personnes physiques. Et de s’interroger, alors, sur les enjeux géopolitiques d’un tel événement, s’il devait avoir pour origine l’action d’un Etat lui-même. La perspective n’a rien de trop fantasmée, tant les soupçons dans les derniers cas de cyberattaques massives ont souvent porté (avec toutes les réserves qu’il convient d’y mettre) sur des Etats comme la Chine, la Russie ou la Corée du Nord (mais aussi les Etats-Unis ou Israël, de l’autre côté de l’échiquier mondial). A cette question la réponse apportée n’a rien non plus de trop inattendue : l’éclosion d’une guerre, très vraisemblablement. La première guerre mondiale a démarré avec l’assassinat d’un archiduc ; la troisième aura-t-elle pour cause un piratage mal calculé ? Puisqu’on vous dit que la frontière est ténue…
#droitd'auteur
#cjue
#lasaveurdelapastèque
Pour ceux qui en doutaient encore, voici que l’avocat général de la CJUE vient enfoncer le clou : non, la protection des saveurs (et du même coup, vraisemblablement, des odeurs) par le droit d’auteur en Europe, ce n’est toujours pas pour demain. Rien de très nouveau sous le soleil à vrai dire, et la décision finale ne manquera probablement pas de suivre ces conclusions. Il n’est en vérité ici que d’apprécier la manière dont la Cour se tire de l’ornière, à travers un raisonnement retranscrit tout en finesse et jargon culinaire : reconnaissant volontiers l’absence de fondement explicite à cette limitation du champ de la protection par le droit d’auteur dans les textes unionistes et internationaux applicables, l’avocat général tente un retour à la notion d’oeuvre, et à un critère de “permanence de l’expérience esthétique” dont on a peine à se défaire de l’idée qu’il a en définitive quelque chose d’assez arbitraire – le goût et l’odorat seraient-ils vraiment des sens essentiellement plus subjectifs que la vue et l’ouïe et le toucher ? Où l’on retrouve également la vieille antienne de la recette de cuisine protégeable dans sa forme d’expression littéraire – une chose paraît sûre, la CJUE ne prépare pas là son arrêt le plus audacieux de l’année.
#fakenews
#parodie
#lhôpitaletlacharité
Voici une étude de cas qui achève de révéler toute la difficulté qu’il y a à prétendre réguler (pour ne pas dire réglementer) les fake news : le site Nordpresse.be (qui est au vrai journal belge Sud Presse ce que notre Gorafi est au Figaro) a récemment été plusieurs fois sous le feu des projecteurs, pour différents articles dont le caractère parodique a quelque peu tendance à s’effacer au profit de ce qui semble être une vraie volonté de désinformation. Numerama nous livre ici les retours de ses échanges avec l’auteur des dits articles, et ces échanges achèvent de confirmer l’ambivalence du propos : s’agit-il de mettre en lumière, par l’exemple, les risques liés aux fake news ? ou de simplement rire aux dépens d’une société de l’information qui n’en finit plus de chercher le remède aux maux qu’elle a en fin de compte enfantés sans les voir venir ? L’intéressé conclut ainsi en renvoyant dos à dos chacun à sa propre croyance privée, non sans un certain nihilisme (vraiment désarmant) ; le geste est provocateur, mais a le mérite de mettre le doigt où ça fait mal : chercher à réguler les fake news, c’est aussi s’attaquer à une masse d’informations licites, et imposer de substituer à un certain agencement de cette information (celui des plateformes, des réseaux sociaux, des moteurs de recherche) un autre agencement “régulé” – en réalité vraisemblablement non moins arbitraire. Le risque de s’y fourvoyer n’est pas insignifiant. Ne reste-t-il alors que d’en rire ?