Vous conduisez un tramway qui arrive vers un embranchement. Sur la route que vous suivez, 10 personnes sont attachées, que le tramway renversera si vous ne changez pas de route. Sur l’autre branche, une seule personne, mais la bifurcation implique donc que vous fassiez le choix conscient de renverser cette personne plutôt que les 10 autres. Que choisissez-vous ? Et que choisiriez-vous si la personne seule était la personne la plus chère à vos yeux ? Ce dilemme classique, dit “du tramway“, aurait été inventé par la philosophe Philippa Foot en 1967, et a fait l’objet de nombreuses études jusqu’à être remis au goût du jour aujourd’hui de manière très concrète : comment déterminer ce que ferait une voiture autonome dans un tel cas ?
Le dilemme de la voiture autonome
C’est en tout cas des questions similaires que le MIT a posé à la planète entière, en variant les plaisir : les divers scénarios comprenaient des personnes âgées, des enfants en bas âge, des femmes enceintes, des délinquants, et faisaient fluctuer le nombre de vies mise en balance, tout en jouant sur les règles du code de la route – les personnes n’étaient plus attachées sur des rails mais en train de traverser un feu, parfois vert, parfois rouge.
L’intérêt de l’exercice est multiple, mais l’une de ses qualités primordiales à notre sens est de montrer qu’au-delà de toutes les attentes, légitimes, qui sont placées sur l’IA lorsqu’elle vient remplacer l’homme, certaines issues restent déterminées par nos choix à nous. C’est tout l’enjeu de ce dilemme de la voiture autonome : le “choix” de la voiture de percuter telle ou telle personne ne viendra a priori pas de son apprentissage mais bien des règles qui lui auront été inculquées par nous – à moins que l’on ne conçoive un jeu de données d’apprentissage comprenant toutes les caractéristiques de millions d’accidents de voiture et qu’on laisse l’algorithme en tirer des inférences inexplicables. Cette solution, une forme de justice arithmétique, pourrait avoir ses mérites, tout le monde étant logé à la même enseigne. Elle aboutirait cependant à reproduire des biais certains et surtout manquerait fortement en sécurité juridique, et serait donc le fléau des assureurs – il est plus probable, ou en tout cas pragmatique, de penser que la solution des règles fixes sera celle qui prévaudra.
Coder le droit, trouver une éthique universelle
Cela implique de réussir à transcrire en code des règles éthiques ou des règles de droit qui ne sont pas de purs syllogismes. Comment écrire “tout fait quelconque de l’homme qui cause à autrui un dommage oblige celui par la faute duquel il est arrivé à le réparer” en code ? Les ouvertures permises par de telles règles font partie de l’essence même de notre droit, puisque c’est grâce à elles que l’on a pu élaborer des régimes juridiques variés mais cohérents et prévisibles. Elles rendent cependant le travail de transcription difficile.
À supposer que l’on règle ce problème, reste ensuite celui d’écrire des règles de droit ou d’éthique qui conviennent à tout le monde. L’étude du MIT montre que les réponses apportées au dilemme de la voiture autonome changent grandement selon les régions du monde. Certains auteurs arguent, sur le fondement que l’éthique est relative, que seuls les droits fondamentaux peuvent servir de base à la régulation de l’IA, alors que ces droits ne sont pas plus universels que l’éthique. Et, en bon miroir artificiel qu’elle est, l’IA nous renvoie ainsi à nos propres questionnements : avant de trouver une régulation à l’IA, encore faudrait-il trouver des principes sur lesquels nous nous entendrions tous.
Ce qu'on lit cette semaine
#techno-éthique
#voitureautonome
#IA
#usergeneratedethics
Ce ne sont pas moins de 40 millions de décisions morales que le MIT a collecté et analysé dans le cadre de son étude La Machine Morale, laquelle mettait les individus face à scenarii d’accidents mortels impliquant une voiture autonome. Il convenait donc pour eux de faire des choix à la place de la voiture autonome et de déterminer qui il valait mieux sacrifier et selon quels critères. Bilan des courses, les enquêteurs ont vu se dessiner certaines grandes tendances transculturelles comme celles de sauver les enfants plutôt que les adultes ou encore les êtres humains plutôt que les animaux. Mais l’étude met également en lumière l’existence de divergences entre les pays comme une intolérance plus élevée des pays à fort niveau de PIB envers ceux qui traversent hors des passage piétons ou une préférence moins marquée pour les jeunes pour les pays dits “collectivistes”. Cette étude laisse donc envisager la possibilité d’une régulation de l’éthique des voitures autonomes à deux paliers : un socle de principes limités mais universels et une série de principes régionaux adaptables. Peut-être voterons-nous un jour pour déterminer quels principes inculquer à nos machines.
#techno-éthique
#IA
#Régulation
#fautrelativiser
La régulation de l’IA se heurte à l’inénarrable argument joker en matière d’éthique : son caractère relatif. En effet, est-il seulement possible, au regard de la diversité des cultures qui habitent les différentes populations du globe, de seulement trouver des principes sur lesquels tout le monde pourra a minima s’accorder ? Certains estiment que le débat serait plus simple en le reformulant. Plutôt que de parler d’éthique, il serait préférable de parler de droits fondamentaux, qui seraient, eux, universels et d’orienter le développement de l’IA d’une manière à ce qu’il n’y soit pas porté atteinte. D’aucuns pourraient répondre à cela que les droits de l’homme sont eux-mêmes relatifs et que ce n’est que par le jeu de la politique que les pays occidentaux ont réussi à les imposer au reste du monde qui n’en ont, quoi qu’il arrive, pas la même interprétation. Contre-Uno.
#IA
#france
#villani
#çaresteNOTREPROJET
Le 28 mars dernier, la mission Villani, présidée par l’illustre mathématicien marcheur qui lui donnait son nom, rendait le rapport sur l’intelligence artificielle qui lui avait été commandé par le gouvernement quelques huit mois plus tôt. Le document (volumineux) contenait une série de préconisations destinées à placer la France en figure de proue de l’IA au niveau européen, et pourquoi pas mondial ; il s’agissait, notamment, d’assurer la formation des futurs experts hexagonaux en la matière, en créant les parcours appropriés, et en renforçant les liens encore quelques peu frileux des mondes de la recherche et de l’entreprise. A cette ambition répondait un coût non moins considérable, appelant la mise en oeuvre de moyens financiers à la hauteur. Où en sommes nous aujourd’hui ? Bien qu’éclipsée par une actualité législative toujours plus prolifique, l’action de l’exécutif pendant ces sept mois n’a pas été vaine ; c’est du moins ce que cet article tend à démontrer, en faisant le point sur les différents chantiers en cours. Plusieurs restent dans l’attente des résultats d’appels d’offres, d’autres du déblocage des crédits assurés ; il n’en reste pas moins que la volonté politique semble toujours présente et forte. Gageons que la désignation très attendue des quatre ou cinq 3IA (Instituts Interdisciplinaires d’Intelligence Artificielle), en particulier, sera de nature à accélérer l’effort national dans ce domaine.
#Streaming
#droitd'auteur
#hadopi
#pénal
#contrefaçon
#goliathcontredavid
L’action civile en blocage des sites favorisant la contrefaçon de droit d’auteur ne suffirait-il plus ? Ce n’est pas faute pourtant pour l’ordre juridique français et européen d’avoir prévu de nombreux outils à cette fin au bénéfice des titulaires de droit ; et cependant le contentieux pénal, bien que rare, reste une voie de choix pour certains. L’intérêt tient notamment à s’en remettre aux pouvoirs de l’autorité d’enquête pour pallier les difficultés d’identifier l’auteur et l’écosystème de services toujours plus fuyants mieux dissimulés. Encore faut-il connaître un minimum sa cible : en s’attaquant au site ARTV.watch, l’ALPA et ses membres ne s’attendaient peut-être pas à trouver derrière un adolescent lycéen de 17 ans, animé à l’en croire des meilleures intentions, ou du moins pas de trop mauvaises, et qui se serait simplement retrouvé dépassé par le succès de son propre bricolage de flux TV, initialement destiné à “rendre service” à quelques amis. A ce stade et sur ces seuls éléments, on se gardera de juger trop vite en un sens ou un autre, et notamment d’accorder trop rapidement le rôle de “bouc émissaire de l’industrie audiovisuelle” au jeune créateur du site. Ce que cette affaire a de plus manifeste, en revanche, tient à la fois dans son origine (une volonté généralisée des utilisateurs d’accéder gratuitement aux contenus des chaînes) et dans les commentaires qui l’entourent (prenant souvent la défense du prévenu) : elle donne en ceci un exemple de plus de ce que l’acceptabilité sociale du droit d’auteur tel que nous le connaissons, à l’ère d’Internet, n’a plus rien d’une évidence.
#privacy
#USA
#GAFAM
#gdpr
#servitudevolontaire?
Preuve de plus (s’il en fallait) de ce que tous les GAFAM ne sont pas à ranger dans le même sac, dans le domaine de la protection des données à caractère personnel et de la vie privée, il est vrai que certains s’en sortent mieux que d’autres : ainsi, tandis que Facebook aura clairement souffert d’une annus horribilis en la matière, couronnée encore très récemment d’une sanction record (quoique sur l’échelle pré-GDPR encore) par l’ICO britannique, Apple semble se positionner depuis plusieurs mois comme le “bon élève” de la bande. Après avoir dévoilé de nombreuses fonctionnalités pro-privacy dans les dernières versions de ses produits, la firme vient de délivrer à Bruxelles, par la bouche de son CEO Tim Cook, un plaidoyer vibrant pour l’adoption de règles protectrices des données à caractère personnel au niveau fédéral aux Etats-Unis, tout en insistant sur les risques individuels et sociétaux liés au mésusage de ces données par les grands groupes et les gouvernements. Argument politique, voire marketing ? Bien d’autres moins réputés qu’Apple en la matière ont pu souligner le potentiel “réputationnel” du GDPR, et l’avantage comparatif qu’ont à en tirer les entreprises commerciales. Faudrait-il pourtant le leur reprocher, si cet argument entraîne la mise en oeuvre de mesures véritablement favorables aux personnes concernées ? A tout le moins, il est clair que l’auteur d’un tel discours a tout intérêt à se montrer à la hauteur exactement de ses paroles en pratique.
#cambridgeanalytica
#facebook
#donnéesperso
#plizdont
Voilà une annonce qui risque de faire frissonner le F des GAFAM. Les eurodéputés ont en effet adopté jeudi dernier une résolution invitant Facebook à laisser le CEPD et l’ENISA conduire un audit de l’intégralité de ses activités de traitement de données personnelles en contemplation de la Cambridge Analytica-gate mais également des possibles ingérences de puissances étrangères dans la conduite des élections au sein des Etats Membres. Il transparaît notamment du texte de la résolution que les députés européens n’ont pas apprécié que Facebook n’ait pas dépêché un haut responsable, voire Mark Zuckerburg lui-même, à son audition par les organes unionistes. On notera également que la résolution met en lumière l’aspect éminemment politique du RGPD, effet de spill-over oblige, puisque les eurodéputés y expriment leur regret que Facebook n’ait pas décidé de l’appliquer à tous ses services mais uniquement aux utilisateurs unionistes. On y relèvera enfin les interactions entre le droit des données et le droit de la concurrence car il y est évoqué la possibilité que les plateformes de média sociaux soient en situation de monopole du fait de la quantité de données qu’ils traitent.
Pour le texte complet de la résolution, c’est ici.
#copieprivée
#droitd'auteur
#hadopi
#audiovisuel
#cocktailincendiaire
Une fois n’est pas coutume, la copie privée semble cristalliser tous les débats et toutes les contradictions de l’économie du droit d’auteur sur Internet ; mais de façon plus exceptionnelle, la conclusion paraît ici plutôt heureuse : en adoptant, sur saisine de Nextinpact, un avis simple réprouvant les restrictions imposées par plusieurs chaînes de télévision concernant l’enregistrement de leurs programmes via le service Molotov, la Hadopi est venue consacrer au passage une grille de lecture fondée sur le principe de neutralité technologique. Un pas de géant quand on sait toute la difficulté qu’il existe encore, en droit positif, à appliquer les bénéfices de la copie privée aux technologies dématérialisées (telles que le stockage en cloud), pourtant largement répandues, si ce n’est tout à fait dominantes aujourd’hui – et tout cela du fait d’une jurisprudence des plus antédiluviennes (et orwellienne en tous cas par la date). Si l’avis de la Haute Autorité n’est pas contraignant à ce stade, il a donc à tout le moins le mérite d’ouvrir d’importants espoirs pour les droits des utilisateurs, en redonnant toute sa portée à cette exception essentielle à la juste balance du droit d’auteur – exception avec laquelle d’aucuns, manifestement, préféreraient ne pas avoir à composer.