La Maj d'

La newsletter d'actu techno-juridique : tous les mardis matin à 9h, faites la mise à jour !

En cliquant sur “S’abonner”, vous consentez à recevoir la newsletter d’Aeon (la “Maj”) chaque mardi matin à l’adresse email que vous avez indiquée. Les données saisies dans les champs ci-dessus nous sont nécessaires pour vous adresser la Maj par l’intermédiaire de notre prestataire MailChimp, et ne sont utilisées qu’à cette fin.

Vous consentez également à ce que MailChimp collecte, par l’intermédiaire d’un traceur placé dans l’email contenant la newsletter, des informations relatives à l’ouverture de cet email et à votre lecture de la Maj. Ces informations ne sont utilisées par Aeon qu’aux fins d’améliorer la Maj et son contenu, et ne sont partagées avec aucun tiers hormis le prestataire MailChimp.

Si vous souhaitez lire la Maj sans que ces informations soient collectées, notez que vous pouvez la retrouver à tout moment à cette adresse aeonlaw.eu/maj. Vous pouvez également vous abonner au flux RSS de cette page pour être averti de chaque nouvelle Maj dès sa parution, en cliquant ici !

Pour plus d’informations, consultez la Politique de Confidentialité d’Aeon en cliquant ici.


Celle qui n’a pas de biais – Maj du 03/07/18

L'actu en bref

Cette semaine a été très French tech : le bandeau pour améliorer le sommeil Dreem a levé 35 millions d’euros, tandis que la legaltech Doctrine en a levé 10 et que Station F a fait le bilan de sa première année d’existence. Toujours côté tech, changez le mdp de votre compte Ticketmaster, le concurrent d’Uber Lyft continue de croitre, Tesla a enfin atteint le rythme de production de 5000 voitures par semaine (à quelques heures près allez ça compte), Google ‘simplifie’ ses marques publicitaires (comprendre tout rererererechange de nom), Facebook rouvre la porte aux pubs cryptomonnaies, Apple et Samsung ont enterré la hache de guerre et Amazon se lance dans la santé. Côté judiciaire, l’UFC saisit la CNIL sur la mise en œuvre du RGPD par Facebook et Google, qui présenteraient les options offertes aux personnes concernées de manière biaisée (cf ci-dessous), CNIL qui a été active puisqu’elle a publié sa stratégie de contrôles pour 2018 (qui va vous surprendre) et qui a sanctionné l’Association pour le développement des foyers par une amende de 75 000 € sans LMED préalable. Cette activité n’est pas près de s’arrêter puisque les plaintes explosent. Notons également cet arrêt de la CEDH qui fait primer le droit d’accès aux archives sur le droit à l’oubli, la décision du TMUE qui maintient l’interdiction de déposer la marque “France.com” et cet arrêt du Conseil d’Etat qui clarifie la procédure de recours contre le refus de la CNIL de donner suite à une plainte. A noter côté législatif la publication du projet de loi PACTE (et son article 26 sur les ICOs) et cette nouvelle loi de protection des données personnelles en Californie. On conclut avec un article de notre source à tous, le site service-public.fr, qui nous apprend les règles applicables aux barbecues : faites la Maj devant une grillade, et à la semaine prochaine !

Joy Buolamwini était chercheuse au MIT lorsqu’elle s’est rendue compte que les systèmes de reconnaissance faciale sur lesquels elle travaillait fonctionnaient moins bien avec elle qu’avec ses collègues. La différence ? Leur couleur de peau, celle de Mme Buolamwini étant noire. La chercheuse a alors mis en exergue des statistiques édifiantes : le taux de réussite aux tests de reconnaissance faciale des algorithmes étudiés étaient 34% plus faibles pour des images de femmes noires que pour des images d’hommes blancs.

L’un des grands enjeux de la décennie

Au-delà des titres racoleurs parlant d’intelligences artificielles “racistes“, il est nécessaire de traiter le problème à ses sources, parmi lesquelles les données ayant servi à l’apprentissage machine sont une première étape. En l’espèce, les bases de données utilisées pour la création de modèles de reconnaissance faciales sont profondément disproportionnées : elles contiennent bien plus de photos d’hommes blancs que de femmes noires, et l’algorithme manque donc d’entrainement pour ces dernières images. Il s’agit ici d’un problème facilement soluble : il suffit de prendre des photos de femmes noires. Plus intéressant, et plus difficile à résoudre : pourquoi y avait-il moins de photos de femmes noires que d’hommes blancs ? Et surtout, toutes les bases de données souffrent-elles de tels biais ?

Il est peu risqué d’affirmer que l’enjeu de la reproduction de nos propres biais par des intelligences artificielles est un des enjeux majeurs des prochaines années, tant il est certain que l’IA va nous servir à effectuer de plus en plus de tâches. Il est donc primordial de trouver des méthodes pour détecter ces biais, à la fois lorsqu’ils sont mis en œuvre par les machines, mais aussi et surtout en amont, lors de l’élaboration des bases de données et des modèles algorithmiques.

Tout est relatif, même les biais

De manière assez intéressante, une nouvelle population se sent désormais victime de biais : l’électorat conservateur aux États-Unis. Le fait que la Silicon Valley est principalement progressiste et de gauche (pour les États-Unis) est un secret de polichinelle. Cette tendance a poussé un nombre croissant d’élus du parti Républicain à remettre en cause les algorithmes de sélection de contenus des plateformes de la Silicon Valley, arguant qu’elles avaient tendance à censurer la parole conservatrice. Le monde de la tech, qui célèbre la diversité et lutte contre les discriminations, serait ainsi lui-même profondément biaisé à l’encontre d’un certain type de discours politique.

Ce que ces tensions politiques mettent en valeur, c’est bien la relativité et l’ubiquité des biais : nous en sommes tous plus ou moins vecteurs, plus ou moins consciemment, et ceux-ci se retrouvent dans les données que nous produisons. Il est désormais notoire que les juges sont plus cléments après le déjeuner : ce biais très impactant pourrait avoir des répercussions si l’on fait de la donnée sur les décisions de justice, et donc être reproduit par un éventuel algorithme d’aide à la décision. Se posent donc de très nombreuses questions : comment lutter contre ces biais en amont, afin de les éviter ? Comment corriger les données produites ? Et faut-il seulement le faire ? Le biais est-il inhérent à l’humain ? La notion de biais est-elle universelle ? Peut-on même lutter contre les biais ? On vous pose les questions, mais n’oserons donner de réponses, de peur d’être biaisés.

Le Gif de la semaine


À la semaine prochaine, au galop !