Emmanuel Macron aurait un compte bancaire caché dans les Bahamas et entretiendrait une liaison avec sa belle-fille. Voilà deux exemples de tentatives de fake news issues de notre campagne présidentielle. Il ne fait plus aucun doute que ces fausses informations, dont le seul but est d’être répétées à l’envi, peut avoir un impact sur la démocratie en influençant les électeurs. Parmi les candidats à l’élection de 2017, Macron était sans aucun doute le plus visé par les campagnes de désinformation, et il semble que sa victoire malgré cette circonstance n’a pas effacé le souvenir de ces tentatives de déstabilisation.
La transparence, clef de la démocratie ?
C’est ainsi que le gouvernement promet depuis quelques mois une loi pour contrer les fake news, qu’importe qu’un régime existe déjà au travers d’un croisement entre la loi de 1881 sur la liberté de la presse et le code électoral. C’est une promesse tenue, puisque l’excellent web-journal NextINpact a réussi à se procurer le projet de loi du gouvernement, qui semble faire des émules au sein de la Commission européenne.
Comme prévu, la grande nouveauté du texte est d’introduire un référé électoral permettant de saisir le juge pour que celui-ci se prononce en moins de 48 heures sur la véracité d’une information et, le cas échéant, qu’il prenne toute mesure utile pour faire cesser la diffusion de cette information. Les pouvoirs du CSA sont également revus à la hausse, avec la possibilité de refuser la diffusion d’une chaine d’information d’un Etat étranger.
Surtout, les intermédiaires d’Internet sont encore une fois mis à contribution, avec des obligations de transparence renforcées qui pèseront sur les plus grosses plateformes en ligne en renfort de celles déjà prévues par la loi pour une République numérique, et l’obligation de contribuer à la lutte contre les fake news pour les hébergeurs et les FAI, au travers notamment de dispositifs de signalement et une collaboration avec une autorité à déterminer.
Les intermédiaires, encore et toujours la solution de facilité
Force est de constater qu’une fois de plus, sous couvert de la rengaine “à grands pouvoirs, grande responsabilité”, les intermédiaires d’Internet sont au cœur du système. On peut le comprendre : ils permettent effectivement de véhiculer plus largement et efficacement les fake news, et ils peuvent effectivement agir rapidement pour contrecarrer la diffusion de ces informations.
Mais il faut néanmoins se poser la question : veut-on vraiment que Google, Facebook, Twitter, Reddit et compagnie soient les censeurs du web ? À force de mettre à leur charge des obligations de retrait de contenu et de vigilance sur la nature de ces contenus, c’est forcément ce qui va arriver, si ce n’est déjà le cas. Et ce qu’on peut accepter pour les contenus manifestement illicites (un prompt retrait), le veut-on pour des informations qu’il faut qualifier de véridiques ou de fausses ? Il serait peut-être grand temps de commencer à envisager des solutions, certes moins faciles à mettre en oeuvre, mais qui iraient chercher la source du contenu en cause. Cela aurait pour effet non seulement de prévenir qu’un même auteur commette plusieurs atteintes, mais en plus nous permettrait de nous désengager de notre relation avec ces intermédiaires. La démocratie en bénéficierait doublement.
L’actu en bref
Cette semaine, des membres de la Commission européenne ont plaidé pour une régulation commune de l’IA et pour un soutien commun aux fintechs, tout en rassurant les GAFAM sur la future réforme fiscale qui devrait porter sur les bénéfices et non le chiffre d’affaires. En d’autres news, Blackberry a commencé à jouer au patent troll en assignant Facebook en contrefaçon de brevets logiciels sur les messageries instantanées, Carrefour a annoncé avoir installé une blockchain pour traquer ses poulets fermiers, Google a fait un pas dans le futur avec de nouvelles puces quantiques, le chinois WeChat a dépassé le milliard d’utilisateurs actifs mensuels, les grands acteurs du web ont réagi au projet de loi fake news et une juge américaine va devoir déterminer si le fait pour Trump de bloquer des gens sur Twitter porte atteinte à leur premier amendement (liberté d’expression).
À ne pas rater cette semaine
Surtout, on vous conseille donc la lecture du travail de NextINpact sur le projet de loi fake news, que l’on accompagne d’une étude démontrant que les fake news se propagent plus rapidement que les true news, mais aussi de prendre une bonne demi-heure pour lire un article du New Yorker sur l’attitude du réseau social Reddit face à la prolifération de contenus haineux et des fake news sur sa plateforme : vous ne connaissez peut-être pas Reddit, et pourtant, c’est le 4ème site le plus visité au monde et un vecteur du meilleur comme du pire de ce qu’Internet a à offrir, et ce long article vous permet de le découvrir de l’intérieur.
On parle également de délit d’initié au sein du plus grand site d’échange de cryptomonnaies du monde, Coinbase et de l’adoption du Règlement européen contre les blocages géographiques de eCommerce. Niveau IA, on apprend que Google collabore avec le Pentagone sur des drones, et on se penche sur le problème “d’hallucination” de l’IA, qui consiste à modifier des pixels sur des images pour en changer complètement la perception qu’en a une IA – pas très encourageant quand on se dit que ça peut faire confondre un signe “stop” avec un signe “vous avez la priorité” à une voiture autonome… Enfin, la justice administrative a dû se pencher sur l’âge à partir duquel un homme ne peut plus avoir recours à ses paillettes de sperme congelé pour procréer – réponse : 59 ans – et la personnalité qualifiée de la CNIL fait office de rempart contre les blocages administratifs excessifs. On se quitte sur une longue douche avec Adrien, qui vous propose deux shower thoughts : une première sur le responsable de traitement de la Déclaration Sociale Nominative et une seconde sur les éventuelles obligations de contracter avec des clients hors de l’UE pour un sous-traitant européen.
Faites la Maj, et à la semaine prochaine !
Ce qu'on lit cette semaine
#fakenews
#enfindesvraiesnewssurlesfakenews
Depuis le temps qu’on en parlait, ça y est : le projet de loi (enfin : proposition de loi, au prix d’une gymnastique serrée du gouvernement) sur les fake news est enfin révélé. Saluons au passage le grand travail de journalisme de Nextinpact, qui offre cette visibilité à tous en avant-première. Comme déjà mentionné au gré des nombreuses interventions de l’exécutif, le texte prévoit de nouvelles obligations à la charge des plateformes : obligations de prévention et de signalement (à une autorité encore inconnue), à la fois en droit commun et en droit électoral, pour les périodes de campagne ; pour les présidentielles, c’est même une loi organique qui vient prendre le relais. Les pouvoirs du CSA sont également augmentés, notamment vis-à-vis des chaînes contrôlées par un Etat étranger : refus de convention et suspension de la diffusion seront les sanctions applicables. Enfin, le juge des référés voit son office lourdement chargé par l’obligation de statuer sous… 48h en période électorale, pour caractériser et faire cesser par tous moyens la diffusion d’une fake news. On lui souhaite déjà bonne chance.
#cryptomonnaies
#bitcoincash
#lecryptoloupdewallstreet
Scandale au royaume des cryptomonnaies : l’incontournable plateforme Coinbase est sous le feu d’une class action en Californie, après avoir ouvert ses portes au trading de Bitcoin Cash, une monnaie dérivée du Bitcoin originel qui suscite un intérêt tout particulier chez les investisseurs. Les auteurs de cette action accusent Coinbase d’avoir permis à certains employés de spéculer en avant-première sur cette nouvelle monnaie sur la plateforme, et de tirer ainsi tout le partie de la hausse engendrée par l’effet d’annonce. En deux mots : du délit d’initiés, lourdement sanctionné ici comme ailleurs. La plateforme se défend en arguant tenir tous ses employés sous le joug de politiques très strictes en la matière ; on constatera pour l’heure, du moins, que si l’on ne sait toujours pas si les cryptomonnaies sont oui ou non des actifs financiers au sens du droit, elles suscitent bien, en tous cas, les mêmes dérives…
#discrimination
#marchéintérieur
#demainlenetflixintérieur?
Le marché unique du numérique se renforce avec ce nouveau règlement anti-blocage injustifié, qui reprend les logiques de la prohibition des entraves, chère au droit européen, pour les appliquer cette fois aux opérateurs privés : les éditeurs de sites de e-commerce se voient ainsi interdire de discriminer leurs utilisateurs à raison de leur nationalité ou pays de résidence, que ce soit par des pratiques tarifaires, des limitations d’accès injustifiées ou des produits différenciés. Le règlement vise aussi bien la vente à distance que les services (prestés en ligne ou hors ligne), mais laisse la pomme de discorde de côté : il ne s’appliquera pas, en effet, sauf réexamen, aux services consistant à “fournir un accès à des œuvres protégées par le droit d’auteur”. Le copyright européen, ce n’est certes pas encore pour demain…
#fakenews
#internet
#régimedétox
Le New Yorker nous offre cette semaine quelque chose d’extrêmement rare : une place autour de la table de réunion des équipes responsables des choix de retrait de contenus de l’une des plus grandes plateformes du web. Vous ne connaissez peut-être pas Reddit, un réseau social d’agrégation de liens, mais c’est le quatrième site le plus visité de la planète, et la source de la majorité des memes de chat que vous voyez sur Facebook, tout en accueillant également les communautés les plus dérangeantes d’Internet. Mais Reddit veut se concentrer sur l’aspect “chats” et se débarrasser de ses communautés haineuses, et ce article nous montre comment : en supprimant les forums de discussion haineux, mais pas les utilisateurs, pour tenter de trouver un fragile équilibre avec la liberté d’expression. Et on dirait que ça marche.
#fakenews
#Régulation
#réseauxsociaux
#culpabilitéjudéochrétienne
L’on en sait désormais plus sur la propagation des fausses informations sur les réseaux sociaux. Une étude du MIT (lien vers l’étude, pour les plus téméraires) vient de montrer qu’il est vraisemblable que la cause principale de leur plus grande viralité, comparée aux informations valides, soit simplement le comportement même des utilisateurs, par-delà tout russe ou robot, ou l’une quelconque combinaison des deux. L’explication n’est pas contre intuitive non plus et a le mérite de satisfaire le rasoir d’Ockham (les hypothèses suffisantes les plus simples sont les plus vraisemblables) : les fausses informations étant plus surprenantes que les valides, les utilisateurs seraient plus enclin à les liker et à les repartager, ce qui augmenterait leur visibilité et leur vitesse de circulation. Cette étude dérange quelque peu dans la mesure où la lutte contre les fausses informations s’est jusqu’à présent focalisée sur les facteurs exogènes comme les personnes malveillantes ou les algorithmes. Si la variable la plus déterminante est endogène et tient simplement à la « nature » humaine, la tâche n’en sera que plus difficile. De quoi prendre de la hauteur alors que le gouvernement vient justement de publier une proposition de loi pour lutter contre les fausses informations.
#lcen
#blocage
#déréférencement
#administration
#etpourquoipaslaDRFFRTRTRF?
Il en est des mesures de blocage et de déréférencement dont l’on parle assez peu : celles de nature administrative. Depuis 2015, une branche de la police au nom interminable et dont la prononciation de l’acronyme rappelle les sonorités de la langue des orcs, l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), est autorisée à dresser des listes noires de sites que les intermédiaires techniques sont tenus de bloquer ou déréférencer en raison de la présence de contenu en lien avec le terrorisme. Dans la présente affaire, l’OCLCTIC avait sommé une plateforme libertaire de retirer un article qu’elle avait publié mentionnant des revendications à la suite d’un incendie d’un hangar de gendarmerie, et cela sous la menace de mettre en œuvre le blocage et déréférencement de la plateforme entière. La personnalité qualifiée de la CNIL, seul rempart contre l’arbitraire de l’OCLCTIC, a décidé de saisir le tribunal administratif après que ladite OCLCTIC (oui, on ne va pas s’en priver) a par quatre reprises gentiment refusé de considérer ses recommandations de lever le pied, la qualification de provocation à ou d’apologie d’actes de terrorisme n’étant pas acquise à ses yeux alors que le parquet n’avait pas été sollicité. C’est donc l’absence de l’implication de l’organe judiciaire que la personnalité qualifiée oppose à l’OCLCTIC dans un rare cas de duel entre autorités administratives. Si ce débat vous rappelle ceux sur les garanties procédurales en matière de perquisitions administratives dans le cadre de l’état d’urgence, vous avez raison.
#bioéthique
#PMA
#droitdelasanté
#croissantfertile
Alors que les Etats généraux de la bioéthique sont lancés depuis maintenant presque trois mois, la Cour administrative de Versailles a rendu une décision qui risque d’être débattue. Deux hommes proches de la soixante dizaine s’étaient vus refuser, par leur centre et en raison de leur âge, le droit d’utiliser le sperme qu’ils avaient congelé pour effectuer une PMA avec leurs épouses respectives. Le droit français limite l’accès à la PMA aux couples en âge de procréer. Ils avaient alors tenté d’obtenir une autorisation de l’Agence de la biomédecine, sans succès, pour exporter leurs gamètes à l’étranger où la législation leur était plus favorable. Après que les deux hommes ont obtenu gain de cause en première instance, l’Agence de la biomédecine avait interjeté appel de la décision. La juridiction de second degré a terminé par lui donner raison, empêchant l’exportation des gamètes litigieuses et fixant l’âge maximal pour qu’un homme procréé à 59 ans. Cette décision tombe donc à pic car il est prévu, dans le cadre des discussions sur la réforme de la loi sur la bioéthique, d’évaluer l’opportunité de fixer une limite d’âge expresse pour l’accès aux techniques d’aide médicale à la procréation et ainsi uniformiser l’application de la loi sur le territoire national. Dans le langage juridique, cela s’appelle faire une Perruche.
#IA
#drones
#défense
#lordofwar
Selon une source non officielle au sein de Google, cette dernière aurait entrepris de collaborer avec le Department of Defense américain (le fameux Pentagone) pour la mise au point d’une technologie de reconnaissance automatique d’objets par les caméras des drones de l’armée US. Objectif, notamment : permettre le suivi d’individus au sol – et bien qu’officiellement le projet (dit “Maven”) ne vise pas les systèmes de combat, peut-être favoriser de meilleures prises de décisions dans le cadre d’attaques ou d’éliminations… La nouvelle de cette collaboration aurait suscité un tollé parmi les employés de Google, dont la vocation n’était sans doute pas (on les comprend) de mettre leurs compétences en machine learning au service du bras armé de l’Oncle Sam. Une affaire à suivre de près, tant cette application des technologies d’IA est, de très loin, celle qui paraît susciter le plus d’inquiétudes éthiques.
#IA
#cybercriminalité
#cybersécurité
#paradisartificiels
Il semblerait qu’il en faille autant pour être heureux que pour berner un algorithme reposant sur du machine learning : peu. C’est du moins ce que tend à montrer les travaux d’une étudiante en première année au MIT qui a démonté en moins de trois jours sept des onze publications récentes sur les moyens de défense contre la tromperie des algorithmes et sélectionnées pour être présentées à une prochaine conférence sur le sujet. Certaines différences subtiles dans les images ou les sons présentés à un algorithme de reconnaissance peuvent en effet suffire à lui faire produire une réponse inadaptée, a l’instar d’une illusion d’optique ou sonore. Marque de ce que la cybersécurité des machines apprenantes est un domaine qui doit être développé, espérons que les avancées en la matière seront satisfaisantes avant que l’on ne commence à leur confier nos vies.