Cette deuxième conférence examine la question de savoir dans quelle mesure des approches mathématiques et statistiques peuvent éclairer des phénomènes juridiques. On soutiendra que certaines caractéristiques structurelles des systèmes juridiques peuvent être comprises à l’aide de modèles mathématiques. Par exemple, le concept mathématique de la « fractale » est assez efficace pour saisir les éléments d’ordre hiérarchique, de récursivité et de référence à soi dans le raisonnement juridique. Le but de cette observation n’est pas de suggérer que, pour être valides, les règles juridiques doivent respecter certains principes d’ordre mathématique. L’analogie fractale est plutôt un outil descriptif utile pour nous aider à donner un sens au détail apparemment aléatoire de la prise de décision légale. La technique de codage des données parfois appelée « la leximétrie » tire parti de la nature fractale de la loi pour produire une image statistique du fonctionnement des règles juridiques. Les méthodes leximétriques ont permis d’identifier des modèles de fonctionnement des règles du droit du travail et des sociétés et d’estimer leurs effets économiques et sociaux. La leximétrie en tant qu’approche empirique de l’étude des systèmes juridiques doit être soigneusement distingué de la tendance à la « gouvernance par les nombres » dans l’action administrative et la réglementation. L’utilisation de métriques comme mode de gouvernance ne reconnaît pas les limites des méthodes statistiques et risque de ce fait de porter atteinte à la légalité et à la légitimité de l’ordre public.
17:00 à 18:00
Conférencier invité
Droit et statistique : représentation mathématique des lois ; méthodologie de l'analyse empirique du droit
Simon Deakin
17:00 à 18:00