Après un an de scandales à tout va (le dernier datant de… cette semaine), d’auditions gênantes devant les représentations nationales, la perte d’utilisateurs actifs aux États-Unis et au Canada pour la première fois de son histoire et des pertes chaotiques en bourse, nous sommes heureux de vous annoncer que Facebook continue à obtenir des résultats financiers mirobolants : les utilisateurs sont de nouveau à la hausse, le revenu par utilisateur l’a également été, ce qui fait que Facebook a déclaré 16,91 milliards de dollars de chiffre d’affaires sur le dernier trimestre 2018, concluant une année de 30,4% de croissance.
La lassitude de la donnée personnelle
Ce succès, aussi insolent que spectaculaire, ne peut pas laisser indifférent. Son interprétation première est assez simple : si malgré les scandales, Facebook continue de croitre, c’est que ceux-ci ne sont pas suffisants pour avoir un effet sur cette croissance. Les leçons à tirer de cet enseignement, elles, sont loin d’être claires. Faut-il continuer à légiférer, réguler, condamner, si cela ne sert à rien la fin de l’année venue ? Est-ce même légitime quand on sait que Facebook compte maintenant 2,2 milliards d’utilisateurs ? À l’heure où l’on s’interroge sur l’opportunité d’un référendum, force est de constater que Facebook a remporté son plébiscite, et l’on pourrait parfaitement construire un argumentaire démocratique en faveur d’une dérégulation du réseau compte tenu de l’expression populaire qui se dégage de ces résultats.
Peut-être est-ce aussi que nous n’avons pas encore réussi, malgré le battage médiatique sur le RGPD et l’explosion du nombre de plaintes, à collectivement nous rendre compte de l’importance de garder un certain contrôle sur notre vie privée et nos données personnelles. La sagesse populaire veut que l’on ne se rende compte de la valeur d’une chose qu’une fois celle-ci perdue : son corollaire est donc que l’on ne réalise pas toujours l’importance de ce que l’on possède. Il est ainsi piquant de se dire que la loi informatique et libertés est née d’un rejet d’un projet gouvernemental de surveillance de masse, et qu’un projet similaire a récemment été concrétisé avec à peine un frémissement : après 40 ans, est-il possible que nous nous soyons lassés de la protection des données personnelles ? Si c’est le cas, il est alors plus essentiel que jamais de garantir l’effectivité des règles qui garantissent nos valeurs et de souhaiter que les géants du net, qui brassent le plus de données et ont surtout les plus grosses capacités de les recouper, soient vertueux.
Du watch time au time well spent
Comme vous l’avez souvent lu dans ces lignes, nous adhérons complètement à la 1ère loi de Kranzberg, qui postule que la technologie n’est ni bonne ni mauvaise, ni neutre : elle est ce qu’on en fait. Cet axiome induit que la technologie ne doit pas être blâmée pour des événements qui sont en fait notre fait. De la même façon, les algorithmes de Facebook ou YouTube ne sont ni bons, ni mauvais, ni neutres, mais simplement le produit des choix de leurs concepteurs. Or, ces choix sont aujourd’hui réalisés afin de maximiser le temps passé sur la plateforme, le watch time, dans l’optique que plus de temps passé = plus de publicité consommée = plus de revenus. Cependant, ce faisant, les algorithmes ont tendance à recommander le contenu le plus controversé, celui qui incitera à consommer encore plus, et si le watch time est bien maximisé, le plaisir du temps passé sur la plateforme, lui, diminue : qui regrettera, sur son lit de mort, de n’avoir pas eu le temps de regarder une vidéo complotiste de plus sur YouTube ? De la même façon, un spécialiste des transports prédit que la voiture autonome créera en fait plus d’embouteillages, puisque pour maximiser les profits, elle n’aura aucune incitation à se garer ou à rouler vite en l’absence de passager.
Dès 2015, un ancien de Google plaidait en faveur d’un changement de paradigme, le passage de la valeur watch time à la valeur time well spent : faire en sorte que la technologie n’ait pas pour but de maximiser le temps passé mais bien la qualité du temps passé à interagir avec la technique. Il serait alors nécessaire pour les entreprises en question de chercher comment à nouveau maximiser leurs profits compte tenu de ce changement de paradigme, le pari étant celui que la maximisation du time well spent sera source d’externalités positives. Et si ce n’est pas le cas, l’intérêt général vaut bien quelques baisses dans les bénéfices d’une société privée, non ?
Ce qu'on lit cette semaine
#facebook
#Régulation
#NickClegg
#demerdensiesich
La semaine dernière, nous vous relayions un article sur l’ambivalence de la position de Facebook face à la régulation. Avec le recrutement de Nick Clegg, ancien dirigeant des LibDem et vice premier ministre anglais, en tant que responsable des affaires publiques de la firme, cette ambivalence est en train de s’estomper. Et pas qu’un peu. Que ce soit sur les questions des règles de “content flagging” ou de transparence du financement des publicités politiques, l’on découvre, dans cet entretien, un Facebook beaucoup plus enclin à se plier aux volontés étatiques qui va jusqu’à accepter l’idée de payer plus d’impôts (!). On vous laissera le découvrir, car beaucoup de sujets qui fâchent sont couverts, tout en remarquant que la loi anti-fake news aura produit ses effets au delà des frontières hexagonales puisque Facebook en a insufflé l’esprit sur toute sa plateforme. L’on relèvera également qu’avec cette nouvelle figure publique, la position de Facebook consiste désormais à faire peser toute la responsabilité de la régulation sur les épaules des Etats.
#cybersécurité
#chine
#espionnage
#géopolitique
#UE
#5G
#une5Gbiendecheznous
A l’heure où le gouvernement français lance les enchères sur les nouvelles fréquences 5G, tirant ainsi le coup d’envoi de la technologie en France, l’Union Européenne s’inquiète plus ou moins ouvertement des risques causés par la participation aux aspects techniques de ce déploiement d’entreprises liées au gouvernement chinois, au premier rang desquelles est suspectée Huawei. Et pour cause : les récents scandales qui ont entaché l’image de cette société, aux Etats-Unis et en Europe, ainsi que de non moins récents changements dans la loi chinoise sur l’intelligence nationale, laissent à craindre que les constructeurs de hardware puissent se voir imposer par le gouvernement chinois d’ouvrir des fenêtres sur les données et terminaux des citoyens européens. Face à cette menace potentielle, plusieurs options seraient envisagées, dont une modification de la fameuse directive NIS pour y inclure les infrastructures de réseaux 5G (les télécoms en étant à ce jour étonnamment exclus). De quoi cependant retarder considérablement le déploiement de la technologie dans les pays de l’Union, puisqu’il s’agirait alors de trouver des substituts aux outils fournis par les sociétés chinoises. C’est que la cybersécurité a un prix, ici comme ailleurs.
#legaltech
#justice
#profilage
#droitàlinformation
#leroinu
“Laws are like sausages. You don’t want to see them being made.” L’expression attribuée à Otto Von Bismarck semble trouver son pendant à l’égard du droit prétorien, du point de vue du moins du législateur français : à travers l’article 19 du (très) controversé loi de programmation pour la justice, il semble qu’on veuille empêcher le citoyen de trop en voir de la fabrique des décisions de justice. Nuançons tout de même par souci d’exactitude : il s’agit là d’interdire la réutilisation des données publiques des décisions de justice à travers des outils “ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire [les] pratiques professionnelles réelles ou supposées” des juges, autrement dit de modéliser ces pratiques. Couplée à l’application de nouvelles règles sévères concernant l’anonymisation des décisions de justice, cette interdiction reviendrait à couper l’herbe sous le pied de toute une série d’initiatives visant à augmenter l’information sur le droit en France, et placerait notre pays parmi les seuls à poursuivre ainsi activement la dépersonnalisation de sa justice. Pour Me Guillaume Hannotin, interviewé dans cet article, il en va (à raison) du droit à l’information pour tous concernant la justice. A l’heure où l’on ne cesse de déplorer la déconnexion des citoyens et des tribunaux, il n’est pas certain en effet que la mesure soit la plus équilibrée, sans même parler d’être la plus progressiste.
#quantumcomputing
#cybersécurité
#UE
#souverainisme
#myveryowninternet
Après le cloud souverain ou la blockchain souveraine, et si le successeur d’Internet lui-même était un réseau souverain ultra-sécurisé ? C’est du moins ce à quoi travaille la Quantum Internet Alliance, initiative européenne dédiée aux applications du quantum computing pour la sécurisation des réseaux et échanges de données. (Si vous ne savez pas ce qu’est le quantum computing, cela se passe ici.) A ce stade la technologie est naissante, limitée et encore un peu buguée, mais les avancées sont enthousiasmantes, en particulier aux Pays-Bas où un projet de connexion de quatre villes majeures par un réseau d’un nouveau genre laisse entrevoir de vraies possibilités. Sachant que des initiatives concurrentes se déroulent en parallèle en Chine, que le succès de ces initiatives aurait un impact crucial sur la cybersécurité (en permettant la construction de réseaux virtuellement exempts de toute faille ou vulnérabilité), et que l’application de la technologie à une échelle significative nécessiterait le déploiement d’infrastructures entièrement nouvelles, on devine facilement les enjeux économiques, politiques et sociétaux de ce nouveau domaine de recherche. Gageons que l’Union Européenne saura tirer son épingle du jeu, après les apories que restent encore aujourd’hui les fameux cloud et blockchain souverains.
#éthique
#IA
#discriminations
#lesdémonsdelaterminale
Dans les algorithmes comme dans la vie quotidienne, les discriminations peuvent s’immiscer dans tous les interstices de la réflexion si l’on n’y est pas attentif. Par delà l’identification difficile, et au demeurant cruciale, des différentes étapes du développement de l’IA où les biais sont susceptibles de s’introduire, c’est aussi leur correction qui n’est pas de la tarte. Le MIT a donc synthétisé quatre des principaux challenges auquel l’ingénieur conscientisé est confronté : l’IA peut reposer sur des schémas discriminatoires indirects et difficilement identifiables, les données utilisées pour tester un algorithme et celles à partir desquelles les résultats sont comparés sont souvent issus des mêmes datasets et partagent donc leurs discriminations potentielles, le caractère équitable d’un algorithme dépend aussi beaucoup de son contexte d’utilisation de sorte qu’il ne peut pas s’exporter dans d’autres sans risquer de devenir inéquitable et il existe enfin plusieurs définitions mathématique de ce serait un algorithme “juste”, toutes mutuellement exclusives. De quoi se rendre compte, à nouveau, qu’il y a un vrai marché pour l’éthique appliquée.
#bitcoin
#biohacking
#Régulation
#gattacarrément
Chaque fois que l’on parle transhumanisme, il est difficile de ne pas s’imaginer dans une ruelle pluvieuse d’une grande mégalopole éclairée par la lumière des néons et longée de magasins d’augmentations de contrebande. C’est, après tout et d’une certaine manière, déjà les conditions dans lesquelles les biohackers expérimentent. Ainsi donc de Bryan Bishop dont l’objectif affiché est d’être le premier à pouvoir proposer un “bébé à la carte” dont les caractéristiques génétiques auraient été choisis par les parents. A la différence de He Jiankui, le chercheur chinois, qui, il y a quelques mois, avait défrayé la chronique pour avoir modifié le génome d’un embryon grâce à CRISPR, Bishop souhaite quant à lui directement modifier les spermatozoïdes à l’intérieur des testicules des hommes ou extraire des cellules souches d’un premier embryon pour les réintégrer dans un second embryon. Abstraction faite de toute considération éthique (on en aurait pour la semaine), l’on ne peut s’empêcher de se demander quel rôle devrait jouer la régulation, si tant est qu’elle soit possible. Bishop est déjà en train de payer un laboratoire en Ukraine à grand coup de bitcoin pour conduire ses recherches sur des souris. Car, quand l’on discute normes, les biohackers, eux, n’attendent pas.