La Maj d'

La newsletter d'actu techno-juridique : tous les mardis matin à 9h, faites la mise à jour !

En cliquant sur “S’abonner”, vous consentez à recevoir la newsletter d’Aeon (la “Maj”) chaque mardi matin à l’adresse email que vous avez indiquée. Les données saisies dans les champs ci-dessus nous sont nécessaires pour vous adresser la Maj par l’intermédiaire de notre prestataire MailChimp, et ne sont utilisées qu’à cette fin.

Vous consentez également à ce que MailChimp collecte, par l’intermédiaire d’un traceur placé dans l’email contenant la newsletter, des informations relatives à l’ouverture de cet email et à votre lecture de la Maj. Ces informations ne sont utilisées par Aeon qu’aux fins d’améliorer la Maj et son contenu, et ne sont partagées avec aucun tiers hormis le prestataire MailChimp.

Si vous souhaitez lire la Maj sans que ces informations soient collectées, notez que vous pouvez la retrouver à tout moment à cette adresse aeonlaw.eu/maj. Vous pouvez également vous abonner au flux RSS de cette page pour être averti de chaque nouvelle Maj dès sa parution, en cliquant ici !

Pour plus d’informations, consultez la Politique de Confidentialité d’Aeon en cliquant ici.


Celle qui n’est pas autonome – Maj du 10/04/18

C’était le mot de l’année 2017, et il semble probable que sa place sera tout aussi proéminente en 2018 : l’intelligence artificielle est sur toutes les lèvres, tant la progression du domaine est fulgurante et les potentialités sont nombreuses. Parmi ces potentialités, toutes ne sont néanmoins pas toutes roses. On se souvient encore de l’utilisation de réseaux neuronaux pour générer du faux porno mettant en scène n’importe qui ; encore plus inquiétantes sont les armes autonomes.

Tout déléguer à la machine, même la guerre ?

Le sujet des armes autonomes fait déjà l’objet d’un militantisme actif – cette vidéo parodique d’une keynote annonçant un nouveau drone tueur est à glacer le sang – et a notamment été sur le devant de la scène cette semaine en particulier. Le rapport de Cédric Villani et son site aiforhumanity ont été l’occasion pour Emmanuel Macron de donner une interview au magazine Wired, durant laquelle il s’est fermement opposé au développement d’armes autonomes. Cette semaine également, et à la suite de la découverte du projet Maven, dont nous vous parlions dans une Maj précédente, plus de 3000 salariés de Google ont cosigné une lettre à leur directeur, Sundar Pichai, lui rappelant que “Google ne devrait pas être dans le business de la guerre”. Parallèlement, des scientifiques ont obtenu d’une université sud-coréenne qu’elle s’engage à ne pas développer de telles armes après l’émergence de soupçons concordants qu’un tel développement était en cours. Enfin, un sommet intergouvernemental sur le développement d’armes autonomes a lieu cette semaine à Genève.

La problématique est simple d’apparence : faut-il autoriser, encadrer, ou interdire le développement d’armes autonomes ? Bien entendu, rien n’est aussi simple que ce qu’il parait. Ici en l’occurrence, une première question se pose : comment définir une arme autonome ? On parle en effet déjà d’armes automatiques pour des armes capables de tirer en rafale tant que la détente est appuyée. Les systèmes armés autonomes auraient un degré d’autonomie supplémentaire, à savoir que la décision de déclencher le tir ne serait pas prise par un humain. La forme qu’ils peuvent prendre, elle, est indéfinie : drones volants, robots armés de lames, l’imagination n’a pas de limites.

L’art de la guerre, et son droit

Si la guerre existe depuis toujours, la volonté de la réguler n’est pas si jeune que ça non plus. On trouve ainsi des traces de code de la guerre en ancienne Babylone, près de 2000 ans avant Jésus-Christ. D’une manière assez intéressante (causalité ou corrélation ? nous n’en savons rien), plus la démocratie a évolué, plus nos capacités militaires ont également progressé, et plus les règles encadrant l’utilisation de certaines armes ont proliféré. Aujourd’hui, la guerre n’est pas censée être sans limites : les Conventions de Genève doivent permettre de garantir le respect des victimes, les Nations Unies ont pour mission de veiller sur le respect des droits de l’Homme, et de multiples traités et conventions (notamment de La Haye et de Paris) limitent l’utilisation de certaines armes, telles que les armes chimiques.

Les nouvelles formes de guerre et d’armes

En pratique, le terrorisme et la guérilla sont deux exemples parmi tant d’autres des nombreux conflits qui s’extraient de ce cadre somme toute très théorique. La guerre est aussi de plus en plus dématérialisée, comme le reste de notre société, et les règles de La Haye ne prennent pas en compte les méthodes de guerre “cyber”. Enfin, de nouvelles armes telles que les armes autonomes sont toujours en production.

Reste donc à déterminer si les armes autonomes méritent une adaptation de la réglementation. Très schématiquement, les grandes thèses en opposition sont similaires à celles relatives à l’automatisation de la justice, avec potentiellement dans les deux cas des vies humaines à la clef : souhaitons-nous déléguer à une machine la décision de tuer/juger quelqu’un ? Certains peuvent espérer que l’automatisation permettra de diminuer le nombre de victimes collatérales/de rendre la décision de justice plus neutre et objective, avec peut-être moins de biais. D’autres s’interrogeront : n’est-ce pas aussi le propre de l’humain que de changer d’avis, d’aller à l’encontre de ce qui était prévu ?

L’actu en bref

Cette semaine, Spotify a réussi son entrée en bourse ; ça va mal entre Trump et Amazon ; on a détecté une étoile à 9 milliards d’années-lumière, la regarder c’est donc voir 9 milliards d’années dans le passé ; Lastminute.com condamnée pour «parasitisme» du site de Ryanair ; une jeune femme a blessé plusieurs personnes au siège de YouTube ; Mark Zuckerberg va témoigner devant le Parlement américain pendant qu’il est révélé que Facebook a tenté d’obtenir des données de santé auprès d’hôpitaux. Côté législatif, notons que la CMP n’a pas abouti à un accord sur le projet de loi données personnelles, qui retourne en lecture et une proposition de loi visant à créer un droit voisin aux éditeurs de presse en ligne a été déposée.

À ne pas rater cette semaine

Sinon, on vous conseille vraiment la lecture du millésime de cette semaine, qui est un très bon cru. Outre l’interview d’Emmanuel Macron à Wired et un article relatant les péripéties de la lettre des 3000 salariés de Google à leur CEO, nous vous avons également sélectionné un article sur l’explicabilité de l’intelligence artificielle et la manière dont celle-ci peut s’appréhender par une comparaison avec l’esprit humain (convergence NBIC quand tu nous tiens), et un autre expliquant pourquoi il ne faut pas de droit d’auteur sur les créations issues de l’IA. Également au programme,  la relation de je-t’aime-pas-moi-non-plus-mais-j’ai-besoin-de-toi entre Intel et Apple, cette dernière étant désormais décidée à quitter cette première. On en avait longuement parlé, mais l’affaire Microsoft v. FBI n’ira pas plus loin, les USA ayant adopté une loi permettant peu ou prou au FBI de faire ce qu’il veut. Enfin, Le Monde nous livre deux très belles lectures : la première sur le développement de la réalité virtuelle, la seconde sur des pro-gamers de plus de 70 ans qui vivent la passion du jeu vidéo de manière professionnelle.

Faites la Maj, et à la semaine prochaine !

Le Gif de la semaine


À la semaine prochaine, avec une soif étanchée !