L’IA et l’avocat : entre fantasmes et travail au quotidien.

L’Intelligence Artificielle entre craintes, rêves et questions, ou déjà entrée dans nos pratiques ?

Partage:

Par Pierre Grenier, Avocat au Barreau de Paris, avec la contribution de l’Association pour l’innovation en quantification, mesure et évaluation des Risques Cyber » (IQ Cyber) et de Bruno Carron, Senior expert, Airbus Defence and Space.

Chez l’avocat comme ailleurs, l’Intelligence Artificielle agite des craintes, rêves et questions depuis cinq ou six ans. Quoiqu’à la réflexion, elle soit déjà entrée dans nos pratiques.

De quoi parle-t-on ?

La première réaction de l’homme de loi face à une question consiste à la définir. Qu’est-ce alors que l’Intelligence Artificielle ?

Ce terme a été inventé dans les années cinquante par le jeune mathématicien John McCarthy. Il désigna ainsi une discipline scientifique alors naissante, visant à appréhender l’intelligence en la décomposant en facultés cognitives élémentaires, afin d’être en mesure de les simuler et de les reproduire.[1] Cette définition renvoyait au fantasme ancien, exaltant et anxiogène, d’un homme capable de faire sortir l’esprit de la matière. Des robots conscients capables de servir utilement dans l’exécution de tâches ingrates. Mais susceptibles aussi de nous échapper, dépasser, supplanter et asservir à la mesure même de leur perfection.[2] Soixante ans plus tard, les spécialistes s’interrogent toujours sur la possibilité de créer un jour une intelligence artificielle « forte » avec création d’une véritable conscience. Et une grande encyclopédie en ligne bien connue évite de définir l’IA en mentionnant son objectif de « remplacement » de l’homme. Plus prosaïquement, de nombreuses innovations liées à ces sciences ont fait irruption dans notre quotidien, améliorant le bien-être, tout en nous sommant de nous y adapter, à l’échelle planétaire.[3]

Quoique de culture cartésienne, le droit français aborde la notion d’intelligence avec circonspection. Elle évoque avant tout une liaison coupable[4] même si sa connotation tend à s’améliorer.[5] Et à notre connaissance, l’expression « intelligence artificielle » n’est « codifiée » qu’une fois, à l’article D331-25 du code du cinéma et de l’image animée, où elle figure parmi les critères pris en compte pour attribuer un crédit d’impôt pour dépenses de création de jeux vidéo… En revanche, l’expression est à la mode ; elle se multiplie dans les textes[6], les articles juridiques et la jurisprudence depuis 2015.

Ce qui s’apparente le plus à une définition juridique est fourni par un « avis » concernant l’enrichissement de la langue française dans les termes suivants : « intelligence artificielle – Abréviation : IA. – Domaine : Informatique. – Définition : Champ interdisciplinaire théorique et pratique qui a pour objet la compréhension de mécanismes de la cognition et de la réflexion, et leur imitation par un dispositif matériel et logiciel, à des fins d’assistance ou de substitution à des activités humaines. – Voir aussi : apprentissage automatique, apprentissage non supervisé, apprentissage par renforcement, apprentissage profond, apprentissage supervisé, dialogueur, réseau de neurones artificiels. – Équivalent étranger : artificial intelligence (AI). »[7]

Cette définition affirme sans ambiguïté le double objectif de l’IA, à savoir l’assistance mais aussi une substitution à l’homme dans ses activités.

L’intelligence artificielle dans la vie des cabinets

Dans ce contexte, l’avocat s’interroge logiquement sur la pérennité de ses fonctions, l’intérêt, le contenu de son travail et de ses compétences, que l’IA pourrait ou devrait impacter, pour le meilleur ou pour le pire.

Vers la fin du lawyer ?

Chez nos amis anglo-saxons, Richard Susskind évoque depuis plus de dix ans la fin du « lawyer » traditionnel, tout en annonçant l’émergence de débouchés nouvelles dans un « marché du droit ».[8] Rappelons que le lawyer représente la quintessence du notable anglais ou de l’élite américaine : l’équivalent d’un énarque travaillant dans le privé pour y être grassement payé, même la réalité y montre aussi des avocats sans cause distribuant leurs cartes de visite aux sorties des hôpitaux dans l’espoir de recueillir une clientèle de patients mécontents. Cette approche privée et mercantile du juridique et du judiciaire est aux antipodes de notre vision latine et civiliste de la Justice et du Droit dans la Cité.[9] Mais la prépondérance de l’Oncle Sam et des cabinets d’affaires anglo-saxons a imposé de fait à l’Occident bon nombre de leurs pratiques.

Susskind incite les avocats à facturer autrement et moins cher, en s’appuyant sur des techniques novatrices. En bref, l’avenir serait aux technologues juridiques, analystes des processus et des risques, plateformes offshore et fournisseurs de solutions juridiques et de règlement de litiges en ligne proposant leurs services à des cabinets comptables globaux, éditeurs, sous-traitants et détaillants du droit… les autres étant économiquement disqualifiés.[10]

Ainsi, la maîtrise de l’IA serait indispensable aux cabinets d’avocats et passerait par le Big data, le machine learning, les calculs de probabilités, le traitement du langage naturel. A titre d’exemple, voilà ce qu’un chatbot mu par une IA répond à la question « comment l’intelligence artificielle peut-elle changer le métiers des avocats ? » L’intelligence artificielle peut changer le métier des avocats de plusieurs façons. Elle peut aider à la génération de documentation juridique et à la définition de stratégies. Cependant, elle ne remplacera pas complètement les avocats, qui auront à s’adapter à cet outil et se concentrer sur les tâches nécessitant une expertise humaine. L’IA devrait permettre de réduire le nombre d’heures consacrées par les avocats à certaines tâches. Toutefois, il est important de noter que le raisonnement empirique inculqué à une IA ne pourra rester pertinent que dans un périmètre de cas anticipés. Dans les faits, elle se cantonne pour l’heure en France à quelques bases de données améliorées, alliées à des moteurs de recherche et des systèmes d’aide à la décision ciblés prometteurs mais limités. Le tout pour des coûts non négligeables, dans des secteurs limités, avec des résultats prometteurs mais mitigés. Il n’existe pas en revanche de « cerveaux juridiques », de systèmes de centralisation, formalisation et transmission d’expertise juridique spécialisée. On est loin de l’avocat augmenté ou du robot-juge que certains ont pu imaginer ou préconiser.

Une grande publicité a été faite, aux Etats-Unis notamment, autour de la « justice prédictive ». Il s’agit en réalité d’une « jurimétrie » basée sur des algorithmes sélectionnant et analysant une jurisprudence pour évaluer les chances de succès d’une procédure, fournir éventuellement des chiffres ou une fourchette de chiffres, accéder aux décisions et mesurer l’impact des critères retenus sur la solution retenue. Ces algorithmes s’appuient essentiellement sur les données qui sont enregistrées et sur le machine learning.

Cette approche anglo-saxonne du droit par le judiciaire plutôt que le juridique est compréhensible. Le contentieux est particulièrement onéreux dans le monde du droit anglo-américain où l’une des principales difficultés consiste à mettre la main sur les jugements déjà rendus sur une question (precedent) puis de déterminer éventuellement ce qui en diffère (distinction) et pourrait justifier une solution différente. Ce qui était jadis et reste chronophage. La dématérialisation des bases de données et les moteurs de recherche en ligne ont bouleversé la donne, mettant à la portée de tous ce qu’il fallait pêcher dans des bibliothèques entières. Les pouvoirs publics eux-mêmes s’efforcent depuis plusieurs décennies de mettre gratuitement à la disposition du public les décisions de justice.[11] La qualité des textes s’est largement détériorée ces trente dernières années, mais la majorité d’entre eux est accessible gratuitement en ligne par tous. Il est en revanche nécessaire de passer par sites spécialisés et des éditeurs juridiques payants pour obtenir des analyses juridiques (doctrine).

Bases de données, moteurs de recherche, jurimétrie et barêmes

Bases de données et moteurs de recherche ont beaucoup progressé. Mais la prévision du résultat probable d’une affaire reste un art délicat.

Pour l’heure, l’IA n’y parvient que partiellement, au service d’un juriste averti. Pour ce qui est de la France, certains outils utilisent la modélisation probabiliste du processus de décision du juge pour quantifier l’aléa judiciaire en se fondant sur la jurisprudence disponible (Case Law Analytics). D’autres ont une approche plus statistique : elles extraient les décisions correspondant à des mots clés et calculent – sur cette base – des moyennes ou fourchettes de montants (Legalmetrics de Lexbase, Juri’Predis ou Predictice). Le résultat dépend donc de l’utilisateur, qui doit en outre les interpréter pour pouvoir les exploiter à bon escient.

Et il semble difficile de prévoir tous les facteurs, y compris humains, structurels et conjoncturels entrant en jeu. Même pour des faits strictement identiques, la décision finale peut varier selon la performance et la psychologie des juges[12], avocats, parties, le contexte général, l’évolution des lois et des mentalités, etc. Par ailleurs, l’état actuel du droit ne permet pas de divulguer et donc d’organiser des bases de données permettant d’émettre des pronostics en fonction de l’identité des juges, greffiers et avocats, de leur personnalité, de l’évolution de leurs pratiques ou opinions professionnelles, politiques, philosophiques ou religieuses réelles ou supposées.

De leur côté, les magistrats utilisent des outils internes et barèmes, notamment pour l’évaluation des dommages-intérêts. Les ouvrir plus officiellement pourrait aider à résoudre certains contentieux, si l’objectif de la chancellerie est de réduire le nombre des affaires en cours, notamment par la médiation ou la transaction. Mais ni la jurisprudence ni les barèmes ne sont de nature à remporter obligatoirement l’adhésion des parties ou d’un juge, qui a le devoir de rendre une décision au « cas par cas », reste toujours libre de prendre le risque pour sa carrière professionnelle de juger contre une jurisprudence établie et même de « résister » à une position de la Cour de cassation, voire de susciter un « revirement de jurisprudence ».

Même si cet aspect est moins médiatisé, d’IA juridique semble plus présente hors des prétoires, par les logiciels d’analyse contractuelle même s’il en existe relativement peu en France (Hyperlex, Softlaw).

L’intelligence du juriste

Au-delà du battage publicitaire,[13] la valeur créée par l’IA provient plus des données nécessaires à l’apprentissage (la data) que de l’algorithme proprement dit (les logiciels). Elle dépend aussi et surtout de la façon dont données et techniques sont organisées, utilisées et exploitées par des « sachants » provenant de mondes intellectuellement très différents.[14]

A première vue, ces logiciels s’ajouteront à la longue liste des innovations progressivement introduites dans notre quotidien depuis un demi-siècle lorsqu’elles ont fait preuve de leur utilité pratique réelle : l’ordinateur et la bureautique, le téléphone mobile, la documentation juridique en ligne, le Réseau Privé Virtuel des Avocats[15], l’e-Acte d’Avocat, la signature et l’entreposage sécurisé de documents dématérialisés authentifiés par l’avocat,  l’IA… Ils transforment le quotidien des praticiens du droit, mais pas la substance même de leur travail.[16] Au contraire. Au-delà des discours et tentatives de simplification, la complexification croissante du droit et des techniques fait du juriste le lien nécessaire entre acteurs privés et de l’avocat l’interface indispensable entre le justiciable et les pouvoirs publics. Cette complexification nous oblige évidemment à nous adapter pour choisir à bon escient et maîtriser les outils nouveaux[17] tout en s’assurant qu’ils sont utiles, proportionnés aux buts recherchés, conformes eux-mêmes à la loi, l’éthique et les bonnes mœurs.[18]

On est encore bien loin en revanche d’une officialisation de l’IA dans le judiciaire, y compris pour régler un contentieux dans le cadre d’une médiation, d’une transaction, ou remplacer le juge pour de petits contentieux stéréotypés (petites infractions, pensions alimentaires, indemnités de licenciement, de dommages corporels).[19] Techniquement, les difficultés seraient nombreuses puisque la pertinence des outils et formules de prédiction dépendent des informations et données introduites, des évaluations de performances et contrôles effectués au fil du temps. Les bases de données elles-mêmes contiennent des jugements dont la qualité et la motivation pose parfois problème,[20] qui peuvent être cassés ou réformés rapidement ou au bout de quelques décennies par une cour supérieure, perdre leur sens originel en cas de modifications législatives… L’utilisation de formules complexes, même officialisées, ne permettrait pas à un justiciable profane de comprendre et d’anticiper la solution qui serait donnée à son problème, donc finalement de comprendre la règle qui lui serait appliquée, d’autant que l’algorithme devrait évoluer pour prendre en compte les décisions récentes. En fin de course, la question est de décider si une solution prévisible et certaine et préférable ou non à une solution adaptable mais moins prévisible. Il n’est pas simplement demandé à un juge de produire un jugement comme solution chiffrée en réponse à certaines données stéréotypée, mais d’analyser une situation dans toutes ses dimensions, d’y appliquer loyalement un raisonnement juridique adapté en l’état de la réglementation existante et des mœurs, en motivant la solution qu’il y donne. Ce qui permet notamment aux parties de la comprendre (ou à leurs avocats de la leur expliquer), aux cours supérieures de valider ou redresser ce qui doit l’être, aux juristes de demain d’en tenir compte. L’IA ne permet pas en l’état de remplacer le juge sans distorsions dans chacune de ces dimensions. L’application mécanique de solutions stéréotypées ne permet pas en l’état des techniques de prévoir et d’ajuster une solution adaptée à des « faits de l’espèce » toujours différents, ne serait-ce que dans leurs déclinaisons humaines, sociétales et spatio-temporelles. Une solution par IA ne porte en elle-même aucun « sens » et aucune connotation morale. Le résultat chiffré n’est souvent qu’une partie de la solution judiciaire, parfois non essentielle.[21] Il faudrait aussi réévaluer la valeur et la nécessité des contacts humains, que ce soit en procédure pénale, en matière de protection des mineurs ou pour conclure enfin une négociation difficile en droit des affaires.

L’IA est pour le moment un bon outil supplémentaire, neuf et en progression, permettant aux acteurs du monde juridique et judiciaire de disposer plus facilement d’informations qui les aideront, les éclaireront et les sécuriseront d’autant mieux qu’ils le maîtriseront et qu’ils auront conscience de ses avantages et de ses limites, liées notamment :

  • au contenu et à la qualité variable des données choisies pour alimenter la base, aux défauts intrinsèques de certains jugements, à l’impossibilité de divulguer et donc de prendre en considération certaines informations pertinentes mais à caractère personnel
  • à la qualité des équipes pluridisciplinaires de juristes, informaticiens, statisticiens et mathématiciens constituées pour la conception et le suivi des outils
  • aux choix posés en matière de mesure de similarité et de critère d’optimalité, pour la représentation des observations
  • aux données qu’il faut choisir et entrer pour obtenir un pronostic ou un chiffrage
  • à l’ajustement plus ou moins important à apporter entre la prédiction et la réponse observée, les biais étant généralement gommés par l’approche mimétique de la plupart des outils disponibles.

Parallèlement, l’IA est devenue un objet de réglementation par les pouvoirs publics[22] et d’étude pour le juriste.[23] La Commission Européenne est engagée dans la définition d’un cadre juridique pour contrôler les risques liés aux applications de l’intelligence artificielle, l’AI Act, dont on attend le vote du texte définitif. On s’interroge sur son inclusion dans l’entreprise, son impact en matière de santé, de droit du travail, de libertés publiques, de propriété intellectuelle, de responsabilité attachée à la machine et à l’IA, de ses concepteurs ou des fournisseurs de service, des autorités de régulation, avec des appels à une conscience éthique algorithmique.[24] Autant de signes de son apprivoisement et de son appropriation progressive par le monde du droit.


[1]           La Commission européenne définit l’intelligence artificielle comme les systèmes qui font preuve d’un comportement intelligent en analysant leur environnement et en prenant des mesures – avec un certain degré d’autonomie – pour atteindre des objectifs spécifiques.

[2]           Ganascia, Jean-Gabriel. « Peut-on contenir l’intelligence artificielle ? », Pouvoirs, vol. 170, no. 3, 2019, pp. 71-81.

[3]           Ho-Dac, Marion. « Enjeux internationaux des activités numériques – Entre logique territoriale des États et puissance des acteurs privés », par Céline Castets-Renard, Valère Ndior et Lukas Rass-Masson (dir.), Bruxelles, Larcier, 2020.

[4]           « Intelligences » avec une puissance étrangère (espionnage des articles 411-4 et 5 du code pénal), ou entre compères professionnels de la santé en vue d’extorquer des patients (articles R4127-321, R4235-27, R4312-29 du code de la santé publique)

[5]           « Intelligence » économique (articles L1131-1 et R1143-5 du code de la défense), d’une invention (article R612-12 du code de la propriété intellectuelle), des élèves (Article L321-3, D321-18, D321-1 du code de l’éducation) ou déficientes (Barème d’évaluation pour les personnes handicapées du code de l’action sociale et des familles).

[6]           Par exemple: Avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux de la CNCDH (A – 2022 – 6)

[7]           « Vocabulaire de l’intelligence artificielle (liste de termes, expressions et définitions adoptés) », NOR : CTNR1832601K, JORF n°0285 du 9 décembre 2018, texte n° 58.

[8]           Susskind, Richard. « The End of Lawyers ? », Oxford University Press, 2010. « Tomorrow’s Lawyers », Oxford University Press, 2013… Susskind préconise aux lawyers de facturer moins cher, selon la valeur ajoutée apportée et non le temps de travail. Il faudrait aussi déréguler et réorganiser le travail juridique, fournir des services standardisés, recourir à des sous-traitants, être à l’écoute des d’entreprises, qui devront gérer le risque juridique et optimiser l’usage de la règle de droit. Le tout en utilisant les technologies (bureautique, assemblage automatique de documents, formulaires électroniques, transcription assistée par ordinateur, système d’affichage de document, présentation électronique des preuves, cours virtuelles, système de réclamation d’argent en ligne ou médiation en ligne avec utilisation de big data et de l’IA…).

[9]           Dijon, Xavier. « A. Bailleux et M. Messiaen (dir.), À qui profite le droit ? Le droit, marchandise et bien commun », Limal, Anthemis, 2020.

[10]          Milburn, Philip. « L’avocat et l’algorithme », in Les Cahiers de la Justice, vol. 3, no. 3, 2019, pp. 497-508.

[11]          Décret n° 2002-1064 du 7 août 2002 relatif au service public de la diffusion du droit par l’internet. La loi n° 2016-1321 du 7 octobre 2016 pour une République numérique précise que « les décisions rendues par les juridictions judiciaires sont mises à la disposition du public à titre gratuit dans le respect de la vie privée des personnes concernées » (art L. 111-13 au code de l’organisation judiciaire). Depuis 2015, ces décisions sont accessibles en ligne et librement réutilisables.

[12]          Pécaut-Rivolier Laurence et Robin Stéphane. « Justice et intelligence artificielle, préparer demain – épisode I – Regards croisés d’une juriste et d’un mathématicien ». Dalloz actualités, 14 avril 2020 qui rappellent que de nombreuses études montrent qu’un jugement peut dépendre du petit-déjeuner, de la fatigue, de l’égocentrisme ou des préjugés du juge.

[13]          Barthe Emmanuel. « Les outils de l’intelligence artificielle pour le droit français », in Semaine juridique, édition Générale, 8 avril 2019.

[14]                Il s’agit effectivement d’éléments de valeur très dimensionnants : pour prendre l’exemple de chatGPT, la valeur provient de l’annotation faite par des employés Kenyans (https://time.com/6247678/openai-chatgpt-kenya-workers/)

[15]          Le Réseau Privé Virtuel des Avocats (RPVA) est le réseau informatique sécurisé mis en place en 2005 par la profession d’avocat en France, permettant de communiquer entre eux et avec les juridictions, dans le cadre d’une dématérialisation des procédures.

[16]          Cassar, Bertrand. « La transformation numérique du monde du droit » (thèse), Université de Strasbourg, décembre 2020

[17]          Deffains, Bruno. « Le monde du droit face à la transformation numérique », Pouvoirs, vol. 170, no. 3, 2019, pp. 43-58.

[18]         A supposer que les textes de lois ne comportent pas de contradictions. Une IA pourrait parcourir des pans entiers de textes et codes pour vérifier la conformité d’un élément ou d’un texte juridique selon une hiérarchie des normes déterminée. Mais il faudra bien aussi qu’elle donne acte de l’évolution des moeurs, de l’éthique et des lois dans le temps et selon les régions, qu’elle pourrait fort bien influencer, ne serait-ce que dans un effet d’inertie uniformisante.

[19]          Pécaut-Rivolier Laurence et Robin Stéphane. « Justice et intelligence artificielle, préparer demain » Dalloz Actualité, 14, 15 et 17 avril 2020

[20]          L’obligation de motivation est un principe fondamental (Cons. const., décision du 3 novembre 1977, no 77-101 L.) consacré par la Cour européenne des droits de l’homme (CEDH, Higgins et autres c. France, 19 février 1998, requête no 20124/92), rappelé à l’article 455 du code de procédure civile ou L. 9 du code de la justice administrative. Mais il a existé et existe des exceptions légales, notamment en matière d’adoption, de divorce, en cas de décision de confirmation en appel. Et un bon nombre de praticiens se plaignent de motivations si « succinctes » qu’on pourrait les qualifier d’elliptiques.

[21]          Que l’on songe par exemple aux jugements assortis d’une condamnation à payer un euro symbolique.

[22]          « De nouvelles règles et actions en faveur de l’excellence et de la confiance dans l’intelligence artificielle », Commission européenne, 21 avril 2021 ; actuelle proposition de Règlement du Parlement Européen et du Conseil établissant des règles harmonisées concernant l’IA (https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:52021PC0206&from=FR)

[23]          Parmi la pléthore d’articles parus, citons : Galbopis-Lehalle Diane. « Responsabilité civile pour l’intelligence artificielle selon Bruxelles : une initiative à saluer, des dispositions à améliorer », Dalloz, 21 janvier 2021, pp. 87-88 ; Blin-Franchomme Marie-Pierre et Jazottes Gérard. « Le défi d’une IA inclusive et responsable » ou Ratti Luca et Peyronnet Marie. « Algorythmes et risque de discrimination : quel contrôle du juge ? », Revue de droit du travail, n°2, février 2021 ; Dossier : « L’IA dans l’entreprise : usages et régulations », Droit social, n°2, février 2021 ; Lachièze Christophe. « IA et responsabilité civile : vers un régime de responsabilité propre à l’intelligence artificielle ? » Semaine juridique générale, n°17, 26 avril 2021…

[24]          Duguet, Julien, Gauthier Chassang et Jérôme Béranger. « Enjeux, répercussions et cadre éthique relatifs à l’Intelligence Artificielle en santé. Vers une Intelligence Artificielle éthique en médecine », Droit, Santé et Société, vol. 3, no. 3, 2019, pp. 30-39.

Stay Connected

More Updates