Les usagers du droit évoluent dans un contexte de complexité croissante de la norme juridique, tant par son volume que par sa technicité. Le risque judiciaire ne représente qu’une partie des risques, négatifs ou positifs, pour lesquels les praticiens du droit sont sollicités par leurs clients. Mais il peut être un risque décisif par les sanctions ou les compensations qu’il génère.
Dès lors, si le recours à la technologie permet de réduire ce risque (ou de l’augmenter s’il constitue une opportunité), il ne peut qu’être salué. La réduction de ce risque, c’est la promesse de la justice prédictive, dont le principe est d’évaluer « avec le moins d’incertitude possible ce que sera la réponse de la juridiction X quand elle est confrontée au cas Y » à partir de l’analyse de données disponibles, pour reprendre la définition du professeur Bruno Dondero.
Mais cette justice prédictive constitue-t-elle réellement un outil performant pour plus de sécurité juridique ?
La justice en procès
Le constat ou la perception, selon les cas, de la justice en France n’est guère enthousiasmant. Le rapport 2018 sur l’efficacité et la qualité de la justice en France élaboré par la Commission pour l’efficacité de la justice (CEPEJ) du Conseil de l’Europe n’est pas réellement flatteur, qu’il s’agisse des moyens accordés aux tribunaux, de la lenteur avec laquelle les jugements de première instance sont rendus (par faute de moyens… ?), de l’accessibilité en ligne des informations à destination des justiciables ainsi que des décisions de justice. Le sondage Odoxa réalisé en mai 2019 à la demande du Conseil national des barreaux n’est pas plus rassurant : il en ressort, entre autres, que 7 Français sur 10 jugent aujourd’hui l’accès au droit de plus en plus difficile.
Quant aux avocats, un sondage réalisé en juin 2019 par l’IFOP pour le compte de la legaltech Doctrine, montre qu’ils sont majoritairement demandeurs d’une justice fonctionnant mieux et de manière plus transparente.
Nombreux sont ceux qui insistent, à juste titre, sur la totale accessibilité aux décisions rendues par les juridictions françaises. Ils ont d’autant plus raison que les articles 20 et 21 de la loi pour une République numérique du 7 octobre 2016 prévoient que les jugements rendus par ces juridictions soient mis à la disposition du public à titre gratuit. Mais la transparence, parfois érigée en dogme, n’a de sens que si elle procure une utilité sociale et/ou économique. Est-ce vraiment le cas en l’espèce, dès lors que le « public » – au sens le plus large du terme – n’a pas nécessairement les compétences pour décrypter une décision de justice ? En revanche, cette transparence est utile pour les professions du droit et certaines legaltech dont la matière première est constituée par ces décisions. Pour se livrer à un vrai travail « d’analytics », ils ont en effet besoin de données en nombre suffisant. C’est une condition indispensable à toute justice « prédicative », si tant est que ce vocable soit pertinent…
Une justice «prévisible» plus que «prédictible»
Sauf pour les acteurs économiques qui basent leur stratégie ou certaines décisions tactiques sur l’insécurité juridique (ou en tout cas sur l’incertitude juridique ; les zones « grises » qui peuvent créer des opportunités pour eux), la sécurité juridique est un principe important dans tout système juridique, car elle protège les citoyens des effets secondaires négatifs du droit (normes complexes, instables, etc.). Le pouvoir judiciaire a un rôle considérable à jouer. Comme l’exprime Maria-Isabel Garido Gomez, maître de conférence en Philosophie du droit à l’Université d’Alcalá (Espagne) :
« Les éléments centraux de la sécurité juridique en tant que fondement de la prévisibilité des décisions judiciaires sont la certitude et l’efficacité juridiques, ainsi que l’absence d’arbitraire ».
La décision de justice doit donc présenter certains caractères de prévisibilité. Lorsque des juridictions (ou parfois la même juridiction) rendent des décisions contradictoires ou extrêmement différentes alors que les données factuelles et juridiques sont similaires, voire identiques, la sécurité juridique s’éloigne, et la confiance des justiciables et de leurs conseils s’étiole.
La justice prévisible serait alors synonyme de sécurité juridique ? Le terme « prévisible » nous semble préférable au terme « prédictible », rejoignant en cela le magistrat Emmanuel Poinas, auteur du livre Le tribunal des algorithmes : juger à l’ère des nouvelles technologies (Éditions Berger Levrault).
Même si le dictionnaire Larousse de la langue française considère les mots « prévision » et « prédiction » comme étant synonymes, il donne également à celui de « prédiction » un sens que « prévision » n’a pas : « divination », « oracle », « prophétie ». Faire référence à la justice « prédictive » peut faire sens d’un point de vue marketing mais ne rend pas service à l’utilité que présentent les outils d’analytics en matière jurisprudentielle. La machine n’est pas Madame Irma ou Zoltar…
Si les données (en l’espèce, les décisions de justice) sont en quantité suffisante, alors le data analytics et sa capacité de computation offrent l’opportunité de mettre en évidence quelles sont les tendances des juridictions en fonction d’un certain nombre de paramètres. Les entreprises (ou leurs conseils) – car ce sont principalement elles qui ont et auront recours à de tels outils – sont ainsi en capacité de déterminer leur niveau de risque juridique/judiciaire, de prendre une décision éclairée (plaider, préférer un mode alternatif de résolution d’un conflit, agir ou renoncer à l’action) et d’apporter les éventuels correctifs nécessaires, en lien avec leurs conseils.
En analysant le passé, les algorithmes « augmentent le présent » (pour reprendre une formule du magistrat français Antoine Garapon), sans pour autant réellement prévoir le futur. Comme nous le verrons plus loin, ils peuvent même présenter le risque de le réduire. La justice augmentée (nous préférons définitivement ce vocable) est aussi utile aux juges.
La Cour de cassation lance actuellement un projet de recours à l’intelligence artificielle en vue de déterminer l’existence de divergences jurisprudentielles dans ses propres décisions ou celles des cours d’appel. Quant au pouvoir législatif ou réglementaire, il trouve une incontestable utilité à pouvoir identifier si les textes que les juges doivent faire respecter atteignent leurs objectifs d’incitation ou de dissuasion. Ainsi présentée, la justice augmentée est séduisante. Mais le risque qu’elle soit mal augmentée, voire réduite, est à prendre en considération.
Pour une justice non réduite ou manipulée
La première condition, déjà évoquée, est de pouvoir disposer d’une base de données jurisprudentielle suffisamment significative, à défaut d’être totalement exhaustive. L’article 33 de la loi de programmation pour la justice du 23 mars 2019 vient cependant apporter une limité à la complétude des données susceptibles d’être traitées dans la mesure où les noms des magistrats pourraient être gardés confidentiels si des motifs de protection de la vie privée ou de leur sécurité l’imposent, et ne pourront en tout cas faire l’objet d’une réutilisation « ayant pour objet ou pour effet d’évaluer, d’analyser, de comparer ou de prédire leurs pratiques professionnelles réelles ou supposées ». Ce sont les termes « analyser » et « comparer » qui peuvent ici poser problème dans la mesure où les usagers de la justice sont légitimes à identifier sur quels critères une juridiction (y compris en fonction de sa composition) rend une décision de telle ou telle nature.
En revanche, attacher à la justice augmentée un objectif performatif (pour les magistrats) peut conduire à la réduire. Le recours aux data analytics ne doit pas contraindre le juge à se ranger à une pensée dominante pour être bien noté, créant alors une culture du conformisme et de l’inertie. En revanche, le non-conformisme nécessite une argumentation solide. Cohérence ne veut pas dire conformisme, mais au bout du compte, ce qui est recherché, c’est la transparence des critères et partant, la sécurité juridique.
Pour augmenter la justice (et les juges) par les algorithmes ou les MAAD (Modes algorithmiques d’analyse des décisions), ceux-ci doivent être inattaquables dans leur éthique et leur solidité. Les principes de neutralité et de transparence des algorithmes et de leurs mécanismes d’instruction doivent être garantis, mais la question se pose de savoir comment et par qui cette garantie doit être apportée : l’État, un tiers certificateur, ou bien par la main invisible du marché ?
La justice augmentée est séduisante par l’utilité qu’elle présente si certaines conditions sont remplies, et dès lors que la répulsion que peut produire son caractère faussement divinatoire est éliminée. En éclairant le présent par une meilleure compréhension du passé, la justice et ses acteurs peuvent se construire un futur moins anxiogène.
Article de Christophe Roquilly, professeur à l’EDHEC Business School initialement publié sur The Conversation