Le vendredi 15 mars, un ultra d’extrême-droite a ouvert le feu dans deux mosquées de Christchurch, Nouvelle-Zélande, assassinant au moins 48 personnes prises par surprise en pleine prière. Comble de l’abjection, le terroriste a retransmis ses actes en direct sur Facebook, après avoir préalablement diffusé sur plusieurs réseaux sociaux un document intitulé “Le grand remplacement” afin de s’expliquer et d’inciter à la commission d’autres crimes racistes. En complément des questions sociétales que cet événement doit poser (notamment sur le port d’armes, la lutte anti-terrorisme et la gestion des conflits liés à l’immigration), il convient de s’interroger sur le rôle des réseaux sociaux.
L’homme qui murmurait à l’oreille des réseaux
Le but autoproclamé de Facebook est de nous permettre de “rester en contact avec les personnes qui comptent dans notre vie”. En pratique, cela passe bien sûr par la messagerie privée, les groupes, les événements, et la fameuse newsfeed, le fil contenant les contenus les plus susceptibles de vous intéresser. Il y a là un choix, un parti-pris de Facebook, mais aussi de la plupart des réseaux sociaux, qui consiste à proposer un espace de publication libre sans modération a priori, à la manière des forums des années 2000. Les réseaux sociaux sont ainsi, en théorie, des espaces de liberté, où la censure n’intervient que de manière réactive, et où les contenus ne sont donc pas analysés de manière systématique. Une autre conséquence de cette liberté est que le réseau ne peut se contenter de présenter les contenus par ordre ante-chronologique : puisque la publication est libre et régulière, un tri est nécessaire afin de faire remonter les informations qui “comptent” et ne pas les perdre dans le bruit du reste de la plateforme.
Concrètement, la news du mariage de votre frère/sœur postée 5 heures avant que vous ne vous connectiez à Facebook est plus importante que la photo de cheesecake d’une connaissance croisée en soirée il y a 3 ans mise en ligne il y a deux minutes, qui est ce que vous verriez si le classement était chronologique (bien sûr on espère que votre frère/sœur vous appellera pour vous annoncer la nouvelle). C’est donc au réseau de réussir à vous présenter d’abord le contenu le plus important, en se basant sur des indices comme la “viralité”, la rapidité et l’importance avec laquelle un contenu se diffuse de personne en personne et reçoit des interactions des personnes qui le visualisent. Le contrecoup est évidemment que les dérives en sont facilitées, comme le démontre l’attentat de Christchurch : l’algorithme de tri va bien entendu favoriser des contenus tels que ceux de l’auteur de l’attentat, puisque ces contenus vont forcément susciter de très fortes réactions. Ajoutez à cela une pincée de hashtags et autres buzzwords et vous avez conquis le web. Il est ainsi aisé d’abuser de la liberté et du tri algorithmique pour diffuser des images et des idées nauséabondes, et ce de par la nature même des réseaux sociaux.
Celle qui se pose des questions
Si l’on se tourne vers l’avenir, quelles conséquences tirer de ces constats ? La question est sociétale, et relève d’une balance d’intérêts à la source de la plupart des conflits politiques : plus de sécurité ou plus de libertés ? Si l’on souhaite, collectivement, prévenir la communication de tels contenus, il est impératif que les réseaux sociaux censurent les contenus à la source. C’est déjà partiellement le cas, la plupart des grands sites étant équipés d’algorithmes de filtrage lors de la mise en ligne capables de détecter certains types de contenus (pédopornographie, terrorisme) – la loi impose d’ailleurs un “concours à la lutte” contre certaines infractions. Lorsqu’un contenu passe entre les mailles du filet, force est d’admettre que les géants du net sont désormais capables de réactivité : Facebook affirme ainsi avoir supprimé 1,5 millions de vidéos des actes de Christchurch, dont 1,2 millions lors de l’upload. Malgré ces efforts, le mal a cependant été commis, et c’est donc bien l’équilibre général de notre système qui est remis en question : souhaite-t-on faire des intermédiaires du net des censeurs lors de la mise en ligne, en imposant une obligation générale de surveillance et une obligation de résultat, quitte à perdre toute liberté d’expression ?
On en parlait la semaine dernière, Zuckerberg a déjà annoncé une transition visant à mettre de côté la newsfeed pour passer à des échanges plus recentrés et plus privés. Il est possible qu’un tel changement entrainera déjà une réduction de la viralité des contenus, mais pour la seule raison qu’on aura en fait abandonné l’échange public, et des exemples récents en Inde semblent indiquer que même les conversations privées peuvent donner lieu à des échanges viraux. Une autre possibilité de solution est l’accroissement des liens entre autorités publiques et géants du net : en France, l’OCLCTIC peut déjà bloquer des contenus terroristes, sous le contrôle d’une personnalité qualifiée de la CNIL. La proposition n’est cependant pas totalement satisfaisante, notamment parce qu’elle ne concerne qu’une poignée d’acteurs de bonne volonté. Une réflexion commune est donc nécessaire pour déterminer comment aller de l’avant, en n’oubliant jamais qu’au-delà des dérives permises par le web, ce n’est que grâce à cette technologie que vous nous lisez aujourd’hui.
Ce qu'on lit cette semaine
#haine
#internet
#lcen
#plateformes
#enaviatonvraimentbesoin
L’édifice tremble et craque. Sous les coups législatifs répétés, rapportés dans ces colonnes semaine après semaine, la LCEN, transposition française de la directive eCommerce, ne sera bientôt à ce rythme plus qu’une loi d’application résiduelle, au beau milieu d’un puzzle législatif dont on voit mal, à vrai dire, comment on pourra éviter qu’à la fin il y reste des trous. Ainsi de cette proposition de loi contre la haine en ligne, précédée d’un rapport au long cours, dont on se demanderait à l’analyse (proposée ici par Nextinpact) si elle porte vraiment bien son nom, et ne serait pas plus exactement intitulée “LCEN 2.0”. C’est que le texte ne se cantonne pas, en l’état, pour plusieurs des dispositions proposées, aux seules figures du discours haineux, mais revoit de fond en comble certains mécanismes prévus par la loi de 2004, pour tous contenus semble-t-il. D’un autre côté, on s’étonne avec Nextinpact de l’imparfaite sélection effectuée parmi les infractions de haine telles que prévues dans la loi sur la liberté de la presse de 1881, et l’on rappellera également que la disposition phare (l’obligation de retrait sous 24h) ne s’appliquera ni à tous les hébergeurs, ni à tous les contenus. N’oublions pas, enfin, que côté UE on s’apprête à taper plus fort encore (pour les contenus terroristes), avec un retrait dans l’heure même. Hébergeurs : it’s a risky business, but somebody has to do it.
#transparence
#explicabilité
#algorithme
#IA
#faitesmoitoutçaenverredépoli
Que ce soit pour aider à poser un diagnostic médical ou conduire nos véhicules, les algorithmes sont voués à nous assister de plus en plus dans la prise de décisions. Cependant, un tel recours aux algorithmes nécessite que l’on puisse leur faire confiance, et ce d’autant plus que les décisions qu’ils aident à prendre sont importantes. S’il est souvent avancé que la transparence des algorithmes est la condition sine qua none de cette confiance, il est moins évident de savoir comment la mettre en œuvre. C’est pourquoi l’étude du chercheur américain Kizilcec est particulièrement heuristique. Après avoir expliqué à des étudiants qu’un algorithme allait réajuster leurs notes pour corriger les biais des correcteurs, le chercheur a divisé ces étudiants en trois groupes, chacun recevant un niveau d’information différent sur le fonctionnement de l’algorithme. Il leur a ensuite été demandé d’évaluer l’intensité de la confiance qu’ils accordaient au système de notation. Les résultats montrent sans surprise qu’un faible niveau d’information engendre un faible niveau de confiance mais également qu’au-delà d’un certain seuil d’information, la transparence nuit à la confiance. Il y aurait donc un sweet spot de l’explication du fonctionnement des algorithmes. De quoi se dire, en relisant l’équilibre posé par l’article 12 « Transparence » du RGPD que le législateur unioniste avait vu juste.
#internet
#créateur
#allôpapabobo
A voir comment Internet s’est développé avec ambivalence, il n’aurait pas été totalement surprenant que Tim Berners-Lee, l’inventeur du World Wide Web, désavoue quelque peu sa progéniture. Rien n’en est pourtant et c’est un peu avec l’œil d’un père qui en a vu d’autres qu’il reste optimiste à son égard. Plusieurs outils resteraient ainsi encore à la disposition des acteurs d’internet pour lui faire retrouver ses valeurs d’antan en premier lieu desquels se trouve le « contrat pour le web », sorte de charte éthique globale, que Berners-Lee souhaiterait voir les grandes entreprise et gouvernements signer et mettre en œuvre, ou encore le développement de programmes permettant aux utilisateurs de retrouver un meilleur contrôle de leur donnée, a l’instar de Solid, son service de coffre-fort numérique librement interfaçable avec d’autres applis du web. L’on remarquera tout de même que si Tim Berners-Lee craint la censure étatique, celle imposée par les plateformes dont il souhaiterait qu’elles favorisent les utilisateurs « gentils » à l’inverse des « méchants » ne lui pose pas de problème. Bon.
#internet
#histoired'internet
#libertéd'expression
#jappelleçalaFrance
Une fois n’est pas coutume, l’Histoire éclaire le présent, et, si l’on veut bien y prêter l’oreille et le cerveau, pourra peut-être guider l’avenir. Il s’agit là d’une plongée dans les premières heures d’Internet en France, depuis son arrivée technique longtemps repoussée par les pouvoirs publics, jusqu’à son épanouissement collaboratif permis par l’impulsion (alors bien contrariée, voire carrément illégale) d’une poignée de libertaires. A bien y regarder, il y a là déjà tout ce qui nous préoccupe et nous triture les méninges encore aujourd’hui : la question du chiffrement et de l’anonymat, qui agace les autorités et gouvernements ; celle de la liberté d’expression, et de la responsabilité des intermédiaires techniques (qui se souvient de Valentin Lacambre et d’Estelle Hallyday ?) ; celle enfin de la géopolitique d’Internet, et du contrôle de fait des sociétés et autorités américaines, qu’ironiquement nous n’avons fait que renforcer en tentant de le contourner. C’est en somme de régulation qu’il est question depuis trente ans, de sa possibilité technique et de son acceptabilité sociale, et si force est de constater que nous n’avons pas trouvé toutes les clés, nous marchons sur la ligne fine de quelques équilibres à peu près dosés ; il convient de le noter, tout comme il convient de noter qu’Internet a toujours été un objet éminemment politique. En ces jours de législations quelque peu expéditives, pour ne pas dire à l’emporte-pièce, c’est peut-être la conscience et la profondeur de ce débat et de cette réflexion politiques qui méritent d’être réactivées.
#deepmind
#IGA
#google
#phagocytose
En développant des algos qui gagnent des parties contre des joueurs professionnels, que ce soit de go ou de Starcraft II, Deepmind est l’une des boites qui a le plus de chances d’arriver à construire une IAG (intelligence artificielle générale). C’est d’ailleurs son but affiché et les raisons pour lesquelles Google en a fait l’acquisition en 2014 pour 500 millions de dollars. Mais comme beaucoup d’entrepreneurs, Demis Hassabis, co-fondateur de Deepmind, rechigne depuis à voir sa vision être potentiellement travestie par le GAFAM et la destinée de son bébé lui échapper. C’est pourquoi Deepmind a contraint Google, au moment de son acquisition, à ce que ses locaux restent à Londres ou encore à consentir à la création d’une Commission d’Ethique qui aura la charge de définir l’orientation du développement de l’IAG, si elle était atteinte, et auquel Deepmind aurait autant de pouvoir que Google. C’est également pourquoi Deepmind s’empare de projets sexy pour compenser, au regard de Google, son activité déficitaire avec de la bonne presse. Aujourd’hui, alors que Google vient de rapatrier pour la première fois un projet Deepmind baptisé « Stream » vers sa division santé, l’indépendance de la firme est menacée mais pas que. Quelques chercheurs et employés clefs, trop contraints par les NDAs et les moves récents de Google, commencent à quitter le navire. Parce que les histoires de David et de Goliath, ça existe aussi en interne.
#tiktok
#réseauxsociaux
#tiktoktoctoctocàlaporte
Il y a quelques mois de cela, la société ByteDance lançait son réseau social Tik Tok dans les pays occidentaux. Aujourd’hui, le réseau compte déjà 4 millions d’utilisateurs en France et 500 millions dans le monde. Si elle attire les plus jeunes et fascine les plus vieux (dont on fait tous partie chez Aeon), c’est que l’application opère un changement radical de paradigme, ou plutôt a libéré le modèle historique des réseaux sociaux de leurs carcans. En effet, là où les plateformes et algorithmes de suggestion de contenu de Facebook, Twitter ou Instagram ont tous été construits autour de la notion de cercles d’amis et de l’idée qu’il fallait interagir qu’avec ceux des utilisateurs que l’on avait suivis ou sélectionnés, Tik Tok, elle, incite à interagir constamment avec des nouvelles audiences en suggérant, tout aussi constamment, de nouvelles manières de le faire. Plus qu’un réseau social, Tik Tok est donc construit comme une machine à créer de l’engagement dans le seul but de créer de l’engagement. A voir comment toutes les plateformes s’influencent mutuellement et « apprennent » les unes des autres, ce n’est qu’une question de temps avant que l’on retrouve quelque chose de Tik Tok dans nos feeds, où qu’ils soient.
#internet
#webcollaboratif
#IA
#machinelearning
#letrèstrèsgranddébat
Qu’est-ce qu’être humain, après tout ? La question est vaste et, on vous l’accorde, rien ni personne ne vous impose d’y songer tous les quatre matins. Et pourtant, elle est loin d’être dénuée de toute implication pratique. C’est à ce genre de considérations fondamentales que nous renvoient en effet les problématiques de sélection des data sets dont nous alimentons les algorithmes auto-apprenants, qui peut-être demain piloteront des mécanismes de reconnaissance faciale, utilisés à leur tour Dieu sait pourquoi ; et ce sont encore ces mêmes considérations fondamentales dont témoigne la guerre intellectuelle véritable qui s’est jouée, pendant des années, autour de cette notice Wikipedia “Human”. Posée en ce sens plus pratique, la question est en fait : que voulons-nous voir représenter l’humanité, si nous sommes en position d’en décider ? Pas besoin de s’imaginer vrai démiurge pour percevoir déjà les implications du choix : il suffit de constater les phénomènes de biais et discriminations causés par certains algorithmes malappris (littéralement). Reste à penser les solutions pour corriger le tir (si l’on part du principe qu’il y a tir à corriger) : faut-il compter sur la loi des grands nombres, dont le crowdsourcing n’est qu’une spécification, ou encore réunir des collèges de philosophes, déontologues, représentants d’intérêts ? L’exemple de Wikipedia illustre à la fois les puissances et les limites de la première solution, et met en exergue l’aporie qui guette probablement toute prétention de traitement “scientifique” de ce “problème” : il ne peut peut-être être question ici, au fond, au mieux, que d’acceptabilité sociale.