Découvrez les vidéos du séminaire Droit et Mathématiques 2018-2021

Le droit dans la reconfiguration numérique contemporaine : épistémologie et histoire” Le séminaire “Droit et mathématiques” entend se faire l’écho des transformations actuelles qui touchent le monde du droit sous l’effet de la révolution numérique. Cette révolution numérique s’inscrit dans un mouvement plus vaste consistant à considérer comme pertinent l’usage de modèles mathématiques dans le monde du droit. Le but du séminaire vise donc à décrire les attendus de cette nouvelle attitude collective à l’égard du droit. Le séminaire se veut être un lieu d’échange entre des communautés trop souvent enclavées : professionnels du droit dans le privé ou l’administration, informaticiens des plateformes et start-ups juridiques mais aussi épistémologues de l’informatique et philosophes de la culture numérique. Il vise à présenter alternativement des exposés de la part de professionnels engagés dans leurs pratiques et des réflexions plus théoriques aidant à la distance critique. À l’heure où l’on assiste à une numérisation tous azimuts du droit sans véritable recul épistémologique, le séminaire entend se donner le temps de la réflexion et contribuer à la réflexion collective sur ce qui transforme en profondeur l’idée même de droit dans la société d’aujourd’hui.

Séance Inaugurale Antoine Garapon – Jean Lassègue

 

 

Pour la deuxième séance du séminaire Droit et Mathématiques, organisé par l’Institut des Hautes Etudes sur la Justice, en partenariat avec l’Ecole Nationale de la Magistrature, avec la collaboration du Collège des Bernardins était heureux d’accueillir : M. Yannick Meneceur, Chercheur associé à l’IHEJ (Institut des Hautes Etudes sur la Justice), Conseiller en politiques au Conseil de l’Europe et traitera du thème suivant : « Pourquoi la justice résiste-t-elle aux mathématiques ?» “La profonde transformation numérique de notre société laisse peut-être à penser que notre modèle de justice est devenu obsolète : le temps et l’aléa judiciaire seraient devenus les manifestations d’un autre temps. Ce constat n’est toutefois pas partagé par certaines professions, dont un grand nombre de juges. Est-ce une simple résistance au changement ? Essayons d’aller plus loin en tentant d’abord de comprendre pourquoi la justice (et les juges) ne se laissent pas si facilement mettre en équation pour, ensuite, tenter d’ouvrir les portes d’une justice réinventée par le numérique.”

 

Intervenant – David Chavalarias, Sciences Po, “La loi sur les fake news, solution ou symptôme?” A l’heure où certains annoncent que les développements de l’intelligence artificielle et de l’analyse des masses de données vont révolutionner la pratique du droit, plusieurs démocraties vacillent suite à l’arrivée, grâce au recours à de nouvelles méthodes d’influence d’opinion néanmoins légales, de dirigeants susceptibles de remettre en cause les principes même de la démocratie. Nous montrerons en quoi ces deux phénomènes peuvent être reliés dans le cadre d’une approche “systèmes complexes” des dynamiques sociales. David Chavalarias est Directeur de Recherche CNRS au Centre d’Analyse et de Mathématique Sociales de l’EHESS et directeur de l’Institut des Systèmes Complexes de Paris Île-de-France. Ses recherches se situent à la croisée entre les sciences cognitives et les approches systèmes complexes, qu’il mobilise pour l’étude des dynamiques sociales et cognitives, tant du point de vue de la modélisation que de la fouille de données issues du Web. David Chavalarias travaille notamment au développement de macroscopes sociaux qui, à partir de l’analyse des traces numériques du Web, ont pour ambition de proposer un point de vue réflexif sur les dynamiques sociales auxquelles nous participons. Le projet Politoscope (http://politoscope.org), qui a analysé les dynamiques d’opinion pendant la campagne présidentielle de 2017, a en particulier permis d’étudier le phénomène des fausses informations pendant cette campagne (https://journals.plos.org/plosone/art…). Site web : http://chavalarias.org

 

Intervenant : Giuseppe Longo, Directeur de Recherche Emérite, Centre Cavaillès, CNRS et Ecole Normale Supérieure, Paris, and School of Medicine, Tufts University, Boston Association Cardano. Mathématicien et épistémologue, Il est coauteur d’une centaine d’articles et de trois livres : avec A. Asperti, Categories, Types and Structures. Category Theory for the working computer scientist. M.I.T. Press, 1991 ; avec F. Bailly, Mathematics and the Natural Sciences: The Physical Singularity of Life, Imperial College Press, 2011 (en français, Hermann, 2006) ; avec M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities (Springer, 2014). Les deux derniers proposent une analyse à l’interface maths/physique/biologie. Avec A. Soto, Longo a édité (et co-écrit six articles) d’un numéro spécial de 2016 de la revue Prog Biophys Mol Biol, From the century of the genome to the century of the organism: New theoretical approaches. Site et articles téléchargèables : http://www.di.ens.fr/users/longo/ M. Longo traitera du thème suivant : “Les Big Data, les règles et les machines ou comment perdre le sens des lois de la nature et des hommes” RESUME : “Dans un ouvrage collectif récent “Lois des dieux, des hommes et de la nature” G. Longo (Editeur), Actes d’un Colloque à l’Institut d’Etudes Avancées de Nantes, Spartacus IDH, Paris, 2017, (Téléchargéable gratuitement encore pour quelque temps) : https://spartacus-idh.com/978-2-36693… ), nous sommes partis des sciences de la nature pour nous adresser aux sciences humaines et essayer d’apprécier la force mais aussi les limites des transferts qui ont été fait des « lois » des premières vers les deuxièmes. Tout en évoquant quelques éléments de ces analyses (économies des équilibres, dynamiques historiques …), on essayera ici de réfléchir à l’image et à la gouvernance du monde que la machine digitale, ses immenses bases de données et ses réseaux nous proposent. Référence : “Complexité, science et démocratie”, paru dans Glass Bead, le 23 novembre 2016 : https://www.di.ens.fr/users/longo/fil… Voir https://www.di.ens.fr/users/longo/dow… pour plus.

 

Thème de la séance : “Liberté d’expression, une nouvelle vision paradoxale”

Intervenant : Serge Galam, Physicien, directeur de recherche émérite au CNRS et au CEVIPOF de Sciences Po Résumé : Lorsque l’on parle de liberté d”expression et de ses limites on fait le plus souvent référence à l’expression d’un individu. Dans une société démocratique, un individu a le droit d’exprimer n’importe quelle opinion, sauf celles qui sont expressément interdites par la loi et constituent des délits comme l’incitation à la haine, à la violence, à la discrimination, à la ségrégation, au racisme et le négationnisme. Dans ce contexte, l’interprétation et le cadre d’une expression individuelle peuvent parfois être difficiles à établir, en particulier lorsque celles-ci se revendiquent de l’humour comme pour le cas Dieudonné et l’interdiction de son spectacle du 9 janvier 2014. A l’heure des réseaux sociaux, des fake news, des rumeurs, des théories complotistes, sanctionner tout délit d’opinion me semble impraticable avec en plus la mise sur pied d’un système de “Big Brother is watching you”, qui peut s’avérer tout aussi dangereux pour les libertés individuelles. Doit-on pour autant laisser s’exprimer des messages de haine sur la toile ou ailleurs? Je propose une réponse qui combine d’une certaine façon la vision américaine (liberté quasi totale) et la version française (nombreuses restrictions). Cette réponse résulte des études de dynamique d’opinion que j’ai menées depuis une trentaine d’années dans le cadre de sociophysique (utilisation de concepts et techniques issus de la physique du désordre er des effects collectifs dans la matière, pour décrire des phénomènes sociaux et politiques). Mes travaux montrent que la dynamique d’opinion obéit à une dynamique de seuil, ce qui signifie que pour toute opinion exprimée il existe une valeur critique de la proportion du nombre d’individus qui expriment cette opinion, qui détermine le sens de sa propagation. Au dessous du seuil cette opinion va se rétracter et rester confinée à des expressions individuelles isolées et non partagées de façon soutenue. Elle ne pourra pas constituer un cadre établi qui légitimerait un passage à l’acte et reste sans conséquence concrète. En revanche, une fois passé ce seuil, cette opinion va se propager pour toucher une partie substantielle d’individus et devenir inéluctablement l’opinion d’un groupe grossissant. Elle sera alors l’expression d’une “réalité” stable contre laquelle il sera trop tard pour réagir. Comme telle, elle servira de moteur irrésistible à des actions criminelles et inacceptables dans un cadre démocratique. Dans ce contexte, la question n’est donc pas d’interdire des expressions individuelles, mais plutôt d’empêcher catégoriquement le franchissement par certaines opinions spécifiques de leurs seuils de basculement respectifs. Reste à déterminer la valeur du seuil pour une opinion donnée, du moins son ordre de grandeur, ce que ma modélisation permet de faire. Références : S. Galam, « Sociophysics: A Physicist’s Modeling of Psycho-political Phenomena », Springer (2012) S. Galam, « Minority Opinion Spreading in Random Geometry », European Physical Journal B 25 Rapid Note (2002) 403-406 S. Galam, « Public debates driven by incomplete scientific data: The cases of evolution theory, global warming and H1N1 pandemic influenza », Physica A 389 (2010) 3619-3631 S. Galam, « Stubbornness as an unfortunate key to win a public debate: an illustration from sociophysics », Mind & Society (2016) 15:117–130

 

Thème : “Pistes d’aménagement pour le territoire numérique”

Intervenant.: Sebastian Sachetti, Chargé de Développement Business, Nam.r “Après une décennie pendant laquelle l’individu fut au centre de la révolution numérique, voici l’avènement d’une ère des objets et des espaces numériques et numérisés. A travers des exemples de services publiques numériques et de modèles économiques qui mélangent l’IA et les données externes non-personnelles, je vous propose de partager avec vous mon expérience au sein de la construction de ce territoire numérique.” Ancien élève de l’Ecole nationale d’administration et de l’Institut d’Études Politiques d’Aix-en-Provence Sebastián Sachetti a participé au développement des Startups d’Etat beta.gouv.fr et à la mise en place du Pass Culture au Ministère de la Culture avant de rejoindre nam.R pour s’occuper des opérations et du développement de ses plateformes.

 

La conférence présentera les travaux initiés par M. Vincent LAMANDA voilà 15 ans comme Premier Président de la Cour d’appel de Versailles, et relancés comme Premier Président de la Cour de cassation, sur l’applicabilité des techniques systèmes experts et réseaux de neurones artificiels au raisonnement du juge. Elle illustrerait l’aide que le numérique est susceptible d’apporter au juge dans la phase de réflexion personnelle où, saisi des prétentions des parties, il commence à élaborer les prémisses de sa décision ; l’aide consiste en un parcours interactif sur écran où à chaque étape, le juge est libre de choisir le chemin qu’il emprunte, ce choix se trouvant éclairé par le rappel des textes applicables et de la jurisprudence. Chemin faisant, des trames de rédaction traduisant les choix qu’il vient d’opérer lui sont proposées, de manière analogue à ce qu’offre une « bibliothèque ». Ce volet d’aide a été réalisé par un magistrat de la Cour de cassation (en retraite), Mme Marie-Laure MORIN, sans avoir eu à recourir à l’aide d’un informaticien, ni écrire aucune ligne de code, ce qui augure favorablement de la possibilité d’une extension à d’autres domaines du Droit. Pour chaque domaine, il ambitionne d’offrir au juge une navigation dans l’univers des possibles, ordonnée et exhaustive, réduisant par là le risque de cassation pour absence de base légale ou moyen de procédure. Le complément qu’apporterait l’interprétation du langage naturel par l’intelligence artificielle serait celui d’une lecture automatisée des pièces fournies par les parties avant les audiences : cette lecture aurait pour objectif d’indiquer au juge si ces pièces apportent une réponse à chacune des questions que pose l’arbre de décision, – et quelle en est la teneur -, ou bien si nulle réponse n’a pu être trouvée. Ainsi le juge se trouverait : à l’abri du risque de méconnaître une règle de droit : l’en prémunissent l’exhaustivité de l’arbre de décision, et l’accès à chaque noeud de celui-ci aux ressources nécessaires (textes, jurisprudence, etc.) pour passer à l’étape suivante en étant pleinement informé de l’état le plus récent du droit, et pour déterminer quelle solution apporter au litige qui lui est soumis ; à même de poser lors de l’audience des parties les questions auxquelles les conclusions qu’elles ont déposées n’apportent pas réponse. S’ouvre en outre la perspective : – d’un nouveau vecteur de formation adapté tant à l’enseignement en présentiel qu’à l’enseignement en ligne. – d’une extension de cette approche à d’autres cas, qui sont complexes au regard des règles de droit applicables, sans être de nature contentieuse (certificats de nationalité française délivrés par les greffiers en chef des tribunaux d’instance, par exemple).

 

 

Jean-Gabriel Ganascia, Professeur d’informatique à Sorbonne Université (ex UPMC) et au Laboratoire d’Informatique de Paris 6, Président du comité d’éthique, COMEX. Titre: “La modélisation des raisonnements éthiques et juridiques en intelligence artificielle.” Résumé: Confronté au juriste, le logicien est souvent désarmé. Tout principe et a fortiori toute loi tolère des amendements qui la contredisent. Les spécialistes d’intelligence artificielle ont développé des logiques dites non-monotones qui permettent de représenter des règles avec des exceptions. Nous présenterons ces formalismes et l’utilisation qui en a été faite pour simuler des raisonnements éthiques. Nous envisagerons ensuite la possibilité d’utiliser ces mêmes formalismes pour représenter les lois et simuler les raisonnements juridiques qui y font appel.

 

“La blockchain, entre droit et non droit.”
Florence G’Sell, Professeur agrégé de droit privé, Chercheur associé à l’IHEJ, pôle « Justice numérique » “Aux yeux de certains de ses promoteurs, la blockchain constitue un « ordre sans droit » au sens où elle n’est soumise à aucun ordre juridique national et est régie exclusivement par le code. Pour le juriste, cette affirmation paraît toutefois inacceptable dans son principe. Les Etats ont par ailleurs légitimement la volonté de réguler les activités menées sur les plateformes blockchains. La blockchain opère-t-elle vraiment en dehors du droit ou constitue-t-elle un ordre juridique d’un genre nouveau?” Florence G’SELL est professeur de droit privé à l’Université de Lorraine et chercheur associé à l’IHEJ. Agrégée de droit privé, elle a commencé sa vie professionnelle en entreprise avant d’opter pour une carrière académique. Ses travaux de recherche ont porté depuis l’origine sur des questions relevant du droit privé, appréhendées de manière comparative, notamment au regard du droit américain. Elle se concentre aujourd’hui principalement sur les problématiques relatives à la transition numérique: blockchain, intelligence artificielle, justice numérique, Big Data. site personnel: www.gsell.tech Cette vidéo traite de Mon film 8

” Entre ubiquité naturelle et “assignation à résidence” : où sont les données ?”
L’actualité fournit de nombreuses illustrations de la difficulté que rencontre le droit pour saisir les données dans l’espace et pour les raccrocher à un impérium. Dès lors que la réplication des données est une condition essentielle de leur circulation mais aussi de la sécurité des systèmes d’information, la pluri-localisation des données constitue une nécessité indépassable avec laquelle le droit doit composer. Est-ce une véritable difficulté pour les ordres juridiques ? Amateur de fiction, le droit n’est en principe pas avare d’une lecture décalée du réel lui permettant de faire valoir les valeurs qu’il porte, n’hésitant pas, pour ce faire, à préférer une localisation artificielle de la donnée à la quête impossible de ses places multiples et changeantes dans le magma des serveurs . Mais des concours éventuels d’interprétations et de revendications sont susceptibles de se faire jour. Ainsi, lorsque Donald Trump fait adopter le Cloud Act, il ignore délibérément les effets de la pluri-localisation et s’assure un contrôle sur les données l’ensemble des individus qui emploient les services d’opérateurs américains, c’est-à-dire notamment l’ensemble des Européens, qui se croyaient à l’abri de leur RGPD. Dans un autre registre, les textes relatifs à la portabilité des données ou à l’interdiction du géo-blocage témoignent d’une volonté d’empêcher un rattachement trop rigide de la donnée à un territoire pour en permettre une circulation et un accès aisés. Il s’agit de mettre en perspective ces différents phénomènes qui, chacun à leur manière, reflètent la complexité d’une combinaison inédite entre le corporel et l’incorporel, le fluide et le stable, l’unique et le multiple.

 

Mme Ingrid-Tharaud Judith, doctorante, Université Paris I Panthéon-Sorbonne,
“L’intelligence artificielle peut-elle convenir à la Justice?” M. Pointel Jean Baptiste, docteur en droit, Université de Rouen,
“Usage et mésusage des mathématiques par l’administration publique” Mme Pauline Prépin, doctorante, Université Versailles St Quentin,”Comment juger les plateformes numériques d’emploi?”

 

 

La toile et la grille; réseaux, coordonnées, interfaces Le GPS, en rencontrant le réseau, passe d’une technique destinée avant tout à assurer l’invisibilité (des sous-marins), à une technique de surveillance globale et universelle.
En revenant sur l’histoire du GPS et sur les imaginaires du réseau, notamment à travers les romans de William Gibson, on propose de montrer comment la géolocalisation transforme la nature de l’espace géographique. Biographie : Henri Desbois, maître de conférences en géographie à Paris-Nanterre. Auteur, notamment, de : « Les Lieux que nous avons connus », deux essais sur la géographie, l’humain et la littérature, avec Philippe Gervais Lambony, Nanterre, presses universitaires de Nanterre, 2017. Les mesures du territoire, Presses de l’ENSSIB, Villeurbanne, 2015.

 

“La «raison» calculatoire : entre scientisme et politique ”

“La fascination pour le chiffre et sa capacité de mettre en ordre le monde n’est pas nouvelle, mais elle a atteint aujourd’hui un niveau inédit. Les indicateurs, standards, index et autres mesures saturent le discours public sous le couvert d’une scientificité incontestable. Le langage du chiffre serait neutre et recèlerait toutes les réponses. Rien n’est évidemment plus faux et le contexte historique dans lequel s’s’inscrit cette tendance a tout à voir avec une dogmatique politique et peu à faire avec la science, comme vecteur de vérité.”

Karim Benyekhlef est professeur à la Faculté de droit de l’Université de Montréal depuis 1989. Il est détaché au Centre de recherche en droit public depuis 1990 et en a assuré la direction de 2006 à 2014. Il a assuré la direction du Regroupement stratégique Droit, changements et gouvernance, regroupant une cinquantaine de chercheurs, de 2006 à 2014. Il fut aussi directeur scientifique du Centre d’études et de recherches internationales de l’Université de Montréal (CÉRIUM) de 2009 à 2012. Il assure actuellement la direction du Laboratoire de cyberjustice, qu’il a fondé en 2010. Le Laboratoire de cyberjustice a obtenu en 2015 le Prix Mérite Innovation du Barreau du Québec. Il est titulaire de la Chaire de recherche LexUM en information juridique depuis octobre 2014. Il est membre du Conseil scientifique et du Conseil d’orientation du Cérium. Il a reçu en 2016 la distinction Advocatus Emeritus (Avocat émérite) du Barreau du Québec.

 

 

“Les algorithmes prédictifs dans la justice pénale américaine” Les institutions pénales aux Etats-Unis connaissent actuellement une multiplication d’algorithmes prédictifs (« risk-assessment tools ») permettant l’estimation probabiliste des risques de délinquance. Plusieurs travaux examinent de façon critique les méthodes de construction de ces algorithmes, ainsi que leurs effets en termes de reproduction des inégalités socio-économiques et raciales dans un système pénal déjà caractérisé par de fortes discriminations, mais on en sait peu sur la façon dont ces algorithmes prédictifs sont utilisés dans les tribunaux américains. A partir d’un terrain ethnographique mené dans plusieurs tribunaux aux Etats-Unis, j’examine les pratiques décisionnelles des juges et procureurs à l’heure des algorithmes.

Biographie de l’intervenante : Angèle Christin est assistant professor au département de Communication et professeure affiliée au département de Sociologie et au programme en Sciences, Technologie et Société de l’Université Stanford. Elle étudie comment les algorithmes et l’analyse de données transforment les valeurs professionnelles, l’expertise et les pratiques de travail. Elle est l’auteur de Metrics at Work: Journalism and the Contested Meaning of Algorithms (Princeton University Press, 2020). Elle a également étudié la construction, l’institutionnalisation et la réception d’algorithmes prédictifs dans le système de justice pénale américain. Angèle est titulaire d’un doctorat en sociologie de l’Université de Princeton et de l’EHESS (Paris). Elle est affiliée au Data & Society Research Institute.

 

Thème de la séance : L’informatique, vaisseau exploratoire du juridique ? L’informatisation du droit laisse d’abord espérer une amélioration de ce dernier: objectivé, standardisé, formalisé dans le langage informatique, il serait plus cohérent, rationnel et scientifique. Mais c’est une fausse piste : l’informatisation du juridique ne fait apparaître aucune rationalité mathématique sous-jacente du droit positif. Pourquoi alors se diriger grâce à l’outil informatique, dans cette impasse ? Il nous semble que la pensée moderne, qui cherche à programmer des modèles, y conduit : nous accordons tant de crédit à nos concepts, qu’ils nous paraissent devoir fonctionner comme des objets réels, en particulier pouvoir être calculés. Il reste que la mathématique est une approximation formelle, peut-être la mécanique sous-jacente des lois mises en évidence par les sciences naturelles. Elle trace les bornes d’un devoir-être, bornes dont l’ignorance ou l’outrepassement expose à la survenance d’inconvénients objectifs. L’intelligence artificielle peut donc, dans certaines condition, être un excellent moyen de découverte du droit naturel.

Arnaud Billion, Center for Advanced Studies, IBM LAB France

 

Hughes Bersini, “Regard d’un informaticien sur la crise du Covid. Vite, des algorithmes au pouvoir !” ULB
Le thème de la séance a été développé par écrit par l’intervenant. Celui ci sera transmis aux participants en amont de la séance.
Biographie de l’intervenant : Diplômé de la faculté de polytechnique en ingénierie civile avec spécialité physique (1983) et docteur en génie nucléaire (1989) à l’université libre de Bruxelles (ULB), il fut pris en charge comme chercheur par une subvention de la CEE-CCR au centre de recherche d’Ispra (1984-1987). Ensuite, il devint membre du laboratoire IRIDIA (le laboratoire d’intelligence artificielle de l’ULB). Il est maintenant à la tête de celui-ci avec Marco Dorigo. Depuis 1992, il était professeur assistant à l’ULB et devint officiellement professeur à temps plein (2004) en enseignant aux facultés polytechniques et Solvay les sciences informatiques, la programmation et l’intelligence artificielle. Il est partenaire de différents projets industriels et projets Esprit (CEE) impliquant l’utilisation de contrôleurs flous adaptatifs ou neuronaux, algorithmes d’optimisation et de data mining. Au cours des 20 dernières années, il a publié environ 300 articles sur ses travaux de recherche qui couvrent les domaines des sciences cognitives, l’intelligence artificielle pour le contrôle de processus, le connexionnisme, la logique floue, l’apprentissage lazy pour la modélisation et le contrôle, l’apprentissage par renforcement, les réseaux biologiques, l’utilisation des réseaux de neurones pour les applications médicales, la frustration dans les systèmes complexes, le chaos, la chimie numérique, les technologies orientées objet, l’ingénierisation du système immunitaire et l’épistémologie. Il est fréquemment mandaté pour donner des tutorats couvrant l’utilisation des réseaux neuronaux, de la logique floue et le comportement de systèmes complexes. Il est un pionnier dans l’exploitation des métaphores biologiques (telles que les systèmes immunitaires artificiels qu’il a créés) pour l’ingénierie et les sciences cognitives. Il a coorganisé à l’ULB la deuxième conférence sur la résolution de problème par inspiration naturelle (PPSN) et trois conférences européennes sur la vie artificielle (ECAL). Il a coorganisé les trois premiers ateliers européens sur l’apprentissage par renforcement (EWRL 95 et 96 et 97). Pendant la Conférence de 1996 sur les algorithmes génétiques, il a créé le premier concours international sur les algorithmes d’optimisation évolutionnistes (ICEO 96). Il a coorganisé le deuxième concours international sur les algorithmes d’optimisation évolutionnaires (ICEO 97) tenu à l’université de l’Indiana.

“L’affaire Snowden a permis au grand public de redécouvrir l’étendue des programmes de surveillance américains. Pourtant, cette surveillance s’inscrit dans la continuité de celle opérée tout au long de l’histoire des Etats-Unis. Cette très grande continuité donne un cadre juridique, fédéral et fédéré, constitué notamment de lois, de règles directrices et de décisions judiciaires. Les évolutions sont nombreuses, rapides, et les capacités des agences américaines paraissent illimitées, souvent appuyées par des décisions politiques, mais pas toujours. Car une opposition rassemblant des acteurs politiques, économiques, et citoyens, des journalistes, des organisations de défense des droits et libertés fondamentaux se dresse contre les abus, quelques fois avec succès.”

Le déploiement de la reconnaissance faciale dans l’espace public. Enjeux et perspectives d’une réglementation en construction.
De Hangzhou à Détroit, en passant par Nice et Cardiff, la reconnaissance faciale se déploie progressivement dans l’espace public, que ce soit à titre expérimental ou pérenne. Malgré les mesures de confinement et de couvre-feu, la crise sanitaire mondiale n’a pas endigué ce phénomène croissant. Les acteurs économiques privés ont plutôt saisi l’occasion pour adapter, au port du masque, leurs algorithmes de reconnaissance faciale. Pourtant, en dépit de cet intérêt croissant pour la « safe city », force est de constater que le « paquet européen » ne permet pas aujourd’hui de déployer massivement cette technologie sur l’espace public. En effet, le RGPD (Règlement (UE) 2016/679 relatif à la protection des données des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données), d’une part, et la Directive Police-Justice (Directive 2016/680 du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données), d’autre part, ne posent que les premiers jalons du cadre légal de la reconnaissance faciale en Europe. En l’absence d’un régime spécifique, il convient de s’intéresser aux décisions judiciaires et aux prises de position des autorités de contrôle chargées de la protection des données personnelles pour préciser les contours du droit positif applicable à cette technologie. Mais, face aux disparités de ces décisions, il apparaît indispensable de s’interroger sur la nécessité d’un cadre spécifique à la reconnaissance faciale pour faire face, de façon uniformisée, aux risques intrinsèques pesant sur les droits individuels et collectifs des individus.
Éléments bibliographiques Rapports : – CNIL, Reconnaissance faciale. Pour un débat à la hauteur des enjeux, septembre 2019, 11 p. – Fablex DL4T, La reconnaissance faciale dans l’espace public. Une cartographie juridique européenne, Avril 2020, 128 p. – OBVIA, Cadre juridique applicable à l’utilisation de la reconnaissance faciale par les forces de police dans l’espace public au Québec et au Canada. Éléments de comparaison avec les États-Unis et l’Europe, Septembre 2020, 92 p.
Éléments biographiques Après un Master en Droit du numérique à La Rochelle et un stage au Laboratoire de cyberjustice de Montréal, Pierre a rejoint le Master II Droit algorithmique et Gouvernance des données de Nice. Durant cette année, il a également intégré la Fablex, une clinique de recherche appliquée en droit de l’intelligence artificielle dirigée par Caroline Lequesne-Roth. Au sein de cette unité de recherche, il a mené, avec ses camarades, une étude relative à l’encadrement des usages de la reconnaissance faciale dans l’espace public. Aujourd’hui, Pierre est doctorant contractuel à l’École Universitaire de Recherche LexSociété de Nice, au sein du Laboratoire du GREDEG. Son sujet de thèse porte sur l’appréhension juridique de la donnée de santé dans les systèmes algorithmiques. Il est également membre de l’Observatoire de l’éthique publique, au sein duquel il travaille actuellement sur une étude relative à l’accès aux droits des publics vulnérables face à la dématérialisation des services publics.

“L’influence des modèles épistémologiques sur la conception de la justice prédictive” “Un modèle épistémologique est un ensemble de concepts qui permet de se représenter (dans le cas qui nous occupe) l’activité intellectuelle du juriste. Ce présupposé dans la programmation de ce qui est aujourd’hui désigné comme “la justice prédictive” est décisif. La recherche, la conception, la programmation des algorithmes ne prennent pas la même orientation selon le modèle épistémologique consciemment ou inconsciemment privilégié. L’objectif de cette intervention sera de faire le point sur les obstacles épistémologiques (au sens Bachelardien du terme) qui se dressent dans l’interaction voulue entre les algorithmes et le droit. Il s’agira moins de proposer des solutions que de pointer les problèmes à résoudre pour orienter correctement la programmation.” Frédéric Rouvière est Professeur, directeur du Laboratoire de Théorie du Droit, Directeur de l’Académie de Droit à Aix-Marseille Université.