Séance Inaugurale Antoine Garapon – Jean Lassègue
Pour la deuxième séance du séminaire Droit et Mathématiques, organisé par l’Institut des Hautes Etudes sur la Justice, en partenariat avec l’Ecole Nationale de la Magistrature, avec la collaboration du Collège des Bernardins était heureux d’accueillir : M. Yannick Meneceur, Chercheur associé à l’IHEJ (Institut des Hautes Etudes sur la Justice), Conseiller en politiques au Conseil de l’Europe et traitera du thème suivant : « Pourquoi la justice résiste-t-elle aux mathématiques ?» “La profonde transformation numérique de notre société laisse peut-être à penser que notre modèle de justice est devenu obsolète : le temps et l’aléa judiciaire seraient devenus les manifestations d’un autre temps. Ce constat n’est toutefois pas partagé par certaines professions, dont un grand nombre de juges. Est-ce une simple résistance au changement ? Essayons d’aller plus loin en tentant d’abord de comprendre pourquoi la justice (et les juges) ne se laissent pas si facilement mettre en équation pour, ensuite, tenter d’ouvrir les portes d’une justice réinventée par le numérique.”
Intervenant – David Chavalarias, Sciences Po, “La loi sur les fake news, solution ou symptôme?” A l’heure où certains annoncent que les développements de l’intelligence artificielle et de l’analyse des masses de données vont révolutionner la pratique du droit, plusieurs démocraties vacillent suite à l’arrivée, grâce au recours à de nouvelles méthodes d’influence d’opinion néanmoins légales, de dirigeants susceptibles de remettre en cause les principes même de la démocratie. Nous montrerons en quoi ces deux phénomènes peuvent être reliés dans le cadre d’une approche “systèmes complexes” des dynamiques sociales. David Chavalarias est Directeur de Recherche CNRS au Centre d’Analyse et de Mathématique Sociales de l’EHESS et directeur de l’Institut des Systèmes Complexes de Paris Île-de-France. Ses recherches se situent à la croisée entre les sciences cognitives et les approches systèmes complexes, qu’il mobilise pour l’étude des dynamiques sociales et cognitives, tant du point de vue de la modélisation que de la fouille de données issues du Web. David Chavalarias travaille notamment au développement de macroscopes sociaux qui, à partir de l’analyse des traces numériques du Web, ont pour ambition de proposer un point de vue réflexif sur les dynamiques sociales auxquelles nous participons. Le projet Politoscope (http://politoscope.org), qui a analysé les dynamiques d’opinion pendant la campagne présidentielle de 2017, a en particulier permis d’étudier le phénomène des fausses informations pendant cette campagne (https://journals.plos.org/plosone/art…). Site web : http://chavalarias.org
Intervenant : Giuseppe Longo, Directeur de Recherche Emérite, Centre Cavaillès, CNRS et Ecole Normale Supérieure, Paris, and School of Medicine, Tufts University, Boston Association Cardano. Mathématicien et épistémologue, Il est coauteur d’une centaine d’articles et de trois livres : avec A. Asperti, Categories, Types and Structures. Category Theory for the working computer scientist. M.I.T. Press, 1991 ; avec F. Bailly, Mathematics and the Natural Sciences: The Physical Singularity of Life, Imperial College Press, 2011 (en français, Hermann, 2006) ; avec M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities (Springer, 2014). Les deux derniers proposent une analyse à l’interface maths/physique/biologie. Avec A. Soto, Longo a édité (et co-écrit six articles) d’un numéro spécial de 2016 de la revue Prog Biophys Mol Biol, From the century of the genome to the century of the organism: New theoretical approaches. Site et articles téléchargèables : http://www.di.ens.fr/users/longo/ M. Longo traitera du thème suivant : “Les Big Data, les règles et les machines ou comment perdre le sens des lois de la nature et des hommes” RESUME : “Dans un ouvrage collectif récent “Lois des dieux, des hommes et de la nature” G. Longo (Editeur), Actes d’un Colloque à l’Institut d’Etudes Avancées de Nantes, Spartacus IDH, Paris, 2017, (Téléchargéable gratuitement encore pour quelque temps) : https://spartacus-idh.com/978-2-36693… ), nous sommes partis des sciences de la nature pour nous adresser aux sciences humaines et essayer d’apprécier la force mais aussi les limites des transferts qui ont été fait des « lois » des premières vers les deuxièmes. Tout en évoquant quelques éléments de ces analyses (économies des équilibres, dynamiques historiques …), on essayera ici de réfléchir à l’image et à la gouvernance du monde que la machine digitale, ses immenses bases de données et ses réseaux nous proposent. Référence : “Complexité, science et démocratie”, paru dans Glass Bead, le 23 novembre 2016 : https://www.di.ens.fr/users/longo/fil… Voir https://www.di.ens.fr/users/longo/dow… pour plus.
Thème de la séance : “Liberté d’expression, une nouvelle vision paradoxale”
Intervenant : Serge Galam, Physicien, directeur de recherche émérite au CNRS et au CEVIPOF de Sciences Po Résumé : Lorsque l’on parle de liberté d”expression et de ses limites on fait le plus souvent référence à l’expression d’un individu. Dans une société démocratique, un individu a le droit d’exprimer n’importe quelle opinion, sauf celles qui sont expressément interdites par la loi et constituent des délits comme l’incitation à la haine, à la violence, à la discrimination, à la ségrégation, au racisme et le négationnisme. Dans ce contexte, l’interprétation et le cadre d’une expression individuelle peuvent parfois être difficiles à établir, en particulier lorsque celles-ci se revendiquent de l’humour comme pour le cas Dieudonné et l’interdiction de son spectacle du 9 janvier 2014. A l’heure des réseaux sociaux, des fake news, des rumeurs, des théories complotistes, sanctionner tout délit d’opinion me semble impraticable avec en plus la mise sur pied d’un système de “Big Brother is watching you”, qui peut s’avérer tout aussi dangereux pour les libertés individuelles. Doit-on pour autant laisser s’exprimer des messages de haine sur la toile ou ailleurs? Je propose une réponse qui combine d’une certaine façon la vision américaine (liberté quasi totale) et la version française (nombreuses restrictions). Cette réponse résulte des études de dynamique d’opinion que j’ai menées depuis une trentaine d’années dans le cadre de sociophysique (utilisation de concepts et techniques issus de la physique du désordre er des effects collectifs dans la matière, pour décrire des phénomènes sociaux et politiques). Mes travaux montrent que la dynamique d’opinion obéit à une dynamique de seuil, ce qui signifie que pour toute opinion exprimée il existe une valeur critique de la proportion du nombre d’individus qui expriment cette opinion, qui détermine le sens de sa propagation. Au dessous du seuil cette opinion va se rétracter et rester confinée à des expressions individuelles isolées et non partagées de façon soutenue. Elle ne pourra pas constituer un cadre établi qui légitimerait un passage à l’acte et reste sans conséquence concrète. En revanche, une fois passé ce seuil, cette opinion va se propager pour toucher une partie substantielle d’individus et devenir inéluctablement l’opinion d’un groupe grossissant. Elle sera alors l’expression d’une “réalité” stable contre laquelle il sera trop tard pour réagir. Comme telle, elle servira de moteur irrésistible à des actions criminelles et inacceptables dans un cadre démocratique. Dans ce contexte, la question n’est donc pas d’interdire des expressions individuelles, mais plutôt d’empêcher catégoriquement le franchissement par certaines opinions spécifiques de leurs seuils de basculement respectifs. Reste à déterminer la valeur du seuil pour une opinion donnée, du moins son ordre de grandeur, ce que ma modélisation permet de faire. Références : S. Galam, « Sociophysics: A Physicist’s Modeling of Psycho-political Phenomena », Springer (2012) S. Galam, « Minority Opinion Spreading in Random Geometry », European Physical Journal B 25 Rapid Note (2002) 403-406 S. Galam, « Public debates driven by incomplete scientific data: The cases of evolution theory, global warming and H1N1 pandemic influenza », Physica A 389 (2010) 3619-3631 S. Galam, « Stubbornness as an unfortunate key to win a public debate: an illustration from sociophysics », Mind & Society (2016) 15:117–130
Thème : “Pistes d’aménagement pour le territoire numérique”
Intervenant.: Sebastian Sachetti, Chargé de Développement Business, Nam.r “Après une décennie pendant laquelle l’individu fut au centre de la révolution numérique, voici l’avènement d’une ère des objets et des espaces numériques et numérisés. A travers des exemples de services publiques numériques et de modèles économiques qui mélangent l’IA et les données externes non-personnelles, je vous propose de partager avec vous mon expérience au sein de la construction de ce territoire numérique.” Ancien élève de l’Ecole nationale d’administration et de l’Institut d’Études Politiques d’Aix-en-Provence Sebastián Sachetti a participé au développement des Startups d’Etat beta.gouv.fr et à la mise en place du Pass Culture au Ministère de la Culture avant de rejoindre nam.R pour s’occuper des opérations et du développement de ses plateformes.
La conférence présentera les travaux initiés par M. Vincent LAMANDA voilà 15 ans comme Premier Président de la Cour d’appel de Versailles, et relancés comme Premier Président de la Cour de cassation, sur l’applicabilité des techniques systèmes experts et réseaux de neurones artificiels au raisonnement du juge. Elle illustrerait l’aide que le numérique est susceptible d’apporter au juge dans la phase de réflexion personnelle où, saisi des prétentions des parties, il commence à élaborer les prémisses de sa décision ; l’aide consiste en un parcours interactif sur écran où à chaque étape, le juge est libre de choisir le chemin qu’il emprunte, ce choix se trouvant éclairé par le rappel des textes applicables et de la jurisprudence. Chemin faisant, des trames de rédaction traduisant les choix qu’il vient d’opérer lui sont proposées, de manière analogue à ce qu’offre une « bibliothèque ». Ce volet d’aide a été réalisé par un magistrat de la Cour de cassation (en retraite), Mme Marie-Laure MORIN, sans avoir eu à recourir à l’aide d’un informaticien, ni écrire aucune ligne de code, ce qui augure favorablement de la possibilité d’une extension à d’autres domaines du Droit. Pour chaque domaine, il ambitionne d’offrir au juge une navigation dans l’univers des possibles, ordonnée et exhaustive, réduisant par là le risque de cassation pour absence de base légale ou moyen de procédure. Le complément qu’apporterait l’interprétation du langage naturel par l’intelligence artificielle serait celui d’une lecture automatisée des pièces fournies par les parties avant les audiences : cette lecture aurait pour objectif d’indiquer au juge si ces pièces apportent une réponse à chacune des questions que pose l’arbre de décision, – et quelle en est la teneur -, ou bien si nulle réponse n’a pu être trouvée. Ainsi le juge se trouverait : à l’abri du risque de méconnaître une règle de droit : l’en prémunissent l’exhaustivité de l’arbre de décision, et l’accès à chaque noeud de celui-ci aux ressources nécessaires (textes, jurisprudence, etc.) pour passer à l’étape suivante en étant pleinement informé de l’état le plus récent du droit, et pour déterminer quelle solution apporter au litige qui lui est soumis ; à même de poser lors de l’audience des parties les questions auxquelles les conclusions qu’elles ont déposées n’apportent pas réponse. S’ouvre en outre la perspective : – d’un nouveau vecteur de formation adapté tant à l’enseignement en présentiel qu’à l’enseignement en ligne. – d’une extension de cette approche à d’autres cas, qui sont complexes au regard des règles de droit applicables, sans être de nature contentieuse (certificats de nationalité française délivrés par les greffiers en chef des tribunaux d’instance, par exemple).
“La «raison» calculatoire : entre scientisme et politique ”
“La fascination pour le chiffre et sa capacité de mettre en ordre le monde n’est pas nouvelle, mais elle a atteint aujourd’hui un niveau inédit. Les indicateurs, standards, index et autres mesures saturent le discours public sous le couvert d’une scientificité incontestable. Le langage du chiffre serait neutre et recèlerait toutes les réponses. Rien n’est évidemment plus faux et le contexte historique dans lequel s’s’inscrit cette tendance a tout à voir avec une dogmatique politique et peu à faire avec la science, comme vecteur de vérité.”
Karim Benyekhlef est professeur à la Faculté de droit de l’Université de Montréal depuis 1989. Il est détaché au Centre de recherche en droit public depuis 1990 et en a assuré la direction de 2006 à 2014. Il a assuré la direction du Regroupement stratégique Droit, changements et gouvernance, regroupant une cinquantaine de chercheurs, de 2006 à 2014. Il fut aussi directeur scientifique du Centre d’études et de recherches internationales de l’Université de Montréal (CÉRIUM) de 2009 à 2012. Il assure actuellement la direction du Laboratoire de cyberjustice, qu’il a fondé en 2010. Le Laboratoire de cyberjustice a obtenu en 2015 le Prix Mérite Innovation du Barreau du Québec. Il est titulaire de la Chaire de recherche LexUM en information juridique depuis octobre 2014. Il est membre du Conseil scientifique et du Conseil d’orientation du Cérium. Il a reçu en 2016 la distinction Advocatus Emeritus (Avocat émérite) du Barreau du Québec.
“Les algorithmes prédictifs dans la justice pénale américaine” Les institutions pénales aux Etats-Unis connaissent actuellement une multiplication d’algorithmes prédictifs (« risk-assessment tools ») permettant l’estimation probabiliste des risques de délinquance. Plusieurs travaux examinent de façon critique les méthodes de construction de ces algorithmes, ainsi que leurs effets en termes de reproduction des inégalités socio-économiques et raciales dans un système pénal déjà caractérisé par de fortes discriminations, mais on en sait peu sur la façon dont ces algorithmes prédictifs sont utilisés dans les tribunaux américains. A partir d’un terrain ethnographique mené dans plusieurs tribunaux aux Etats-Unis, j’examine les pratiques décisionnelles des juges et procureurs à l’heure des algorithmes.
Biographie de l’intervenante : Angèle Christin est assistant professor au département de Communication et professeure affiliée au département de Sociologie et au programme en Sciences, Technologie et Société de l’Université Stanford. Elle étudie comment les algorithmes et l’analyse de données transforment les valeurs professionnelles, l’expertise et les pratiques de travail. Elle est l’auteur de Metrics at Work: Journalism and the Contested Meaning of Algorithms (Princeton University Press, 2020). Elle a également étudié la construction, l’institutionnalisation et la réception d’algorithmes prédictifs dans le système de justice pénale américain. Angèle est titulaire d’un doctorat en sociologie de l’Université de Princeton et de l’EHESS (Paris). Elle est affiliée au Data & Society Research Institute.
Thème de la séance : L’informatique, vaisseau exploratoire du juridique ? L’informatisation du droit laisse d’abord espérer une amélioration de ce dernier: objectivé, standardisé, formalisé dans le langage informatique, il serait plus cohérent, rationnel et scientifique. Mais c’est une fausse piste : l’informatisation du juridique ne fait apparaître aucune rationalité mathématique sous-jacente du droit positif. Pourquoi alors se diriger grâce à l’outil informatique, dans cette impasse ? Il nous semble que la pensée moderne, qui cherche à programmer des modèles, y conduit : nous accordons tant de crédit à nos concepts, qu’ils nous paraissent devoir fonctionner comme des objets réels, en particulier pouvoir être calculés. Il reste que la mathématique est une approximation formelle, peut-être la mécanique sous-jacente des lois mises en évidence par les sciences naturelles. Elle trace les bornes d’un devoir-être, bornes dont l’ignorance ou l’outrepassement expose à la survenance d’inconvénients objectifs. L’intelligence artificielle peut donc, dans certaines condition, être un excellent moyen de découverte du droit naturel.
Arnaud Billion, Center for Advanced Studies, IBM LAB France
“L’influence des modèles épistémologiques sur la conception de la justice prédictive” “Un modèle épistémologique est un ensemble de concepts qui permet de se représenter (dans le cas qui nous occupe) l’activité intellectuelle du juriste. Ce présupposé dans la programmation de ce qui est aujourd’hui désigné comme “la justice prédictive” est décisif. La recherche, la conception, la programmation des algorithmes ne prennent pas la même orientation selon le modèle épistémologique consciemment ou inconsciemment privilégié. L’objectif de cette intervention sera de faire le point sur les obstacles épistémologiques (au sens Bachelardien du terme) qui se dressent dans l’interaction voulue entre les algorithmes et le droit. Il s’agira moins de proposer des solutions que de pointer les problèmes à résoudre pour orienter correctement la programmation.” Frédéric Rouvière est Professeur, directeur du Laboratoire de Théorie du Droit, Directeur de l’Académie de Droit à Aix-Marseille Université.