retour au sommaire

Louis

Larret-Chahine

Co-founder

 

Predictice

Le prédictif à l’assaut du droit

Quel constat faites-vous de l’avancée du Big Data et de l’Intelligence Artificielle dans le secteur juridique ?

 

Si l’on prend du recul, on distingue deux vagues dans l’essor de la LegalTech. La première s’est portée sur l’automatisation de tâches à faible valeur ajoutée, telles que la rédaction de contrats ou la mise en relation. Cette première vague a très bien fonctionné et il y a un marché qui s’est créé notamment aux États-Unis. Les levées de fonds totalisent presque 1 milliard d’euros dans ce domaine. Cela correspond à 90% des sociétés nouvellement créées sur 2016 sur ce segment croisant l’informatique et le droit.

 

La seconde vague, restée pendant longtemps relativement marginale représente aujourd’hui environ 10% des sociétés nouvellement créées. Celles-ci placent le Big Data et l’Intelligence Artificielle au cœur de leur activité, cette fois non dans un but d’automatisation ni de remplacement du professionnel du droit, mais avec l’objectif d’améliorer la performance et d’aider à la prise de décision. Il s’agit principalement de sociétés qui analysent des données pour en extraire les informations permettant de renforcer la pertinence, l’analyse, le savoir-faire du professionnel du droit, qu’il soit avocat, juriste ou magistrat.

Le profil des sociétés et les usages évoluent en fonction de la technologie, qui elle-même influe sur l’usage. Cela crée un cercle d’influence positive.

 

Le domaine juridique est très longtemps resté concentré sur lui-même. Et, parce qu’il y a eu des résistances, le secteur cède comme de l’eau percerait un barrage. Contrairement au secteur du e-commerce qui a mis 10-12 ans à se digitaliser, le secteur du droit le fait en 5 ans. Il subit une sorte de rattrapage à grande vitesse.

 

 

Les LegalTech sont principalement nées aux États-Unis mais la France rattrape-t-elle son retard
en la matière ?

 

Les États unis ont été précurseurs et les premières sociétés à avoir fait de l’Analytics dans le domaine du droit sont américaines. Les modèles technologiques ont été inventés et développés aux US, leur soft power est très fort dans le milieu informatique. Certains des projets peuvent servir de source d’inspiration, comme Lex Machina ou Ravel Law, deux projets d’ailleurs rachetés par le groupe LexisNexis (cf. encadrés ci-contre).

 

Néanmoins, il ne faut pas oublier que les deux systèmes juridiques - Common Law et droit civil - sont si différents qu’une grande partie de leur système applicatif n’est tout simplement pas transposable. D’autre part, les solutions analytiques dans le domaine juridique sont peu scalables. La France est donc relativement protégée par rapport à des sociétés américaines.

 

En outre, nous sommes favorisés car il y a, d’une part, un secteur juridique fort porté par de très bons juristes et, d’autre part, d’excellentes écoles d’ingénieurs, ainsi qu’un écosystème favorisant l’entreprenariat très dynamique. Le croisement entre l’analytique, les mathématiques et le droit est en grande partie aidé par l’excellence française dans ces deux domaines : sur le terrain on observe notamment une éclosion des pratiques analytiques témoignant d’une appropriation très rapide de ce système alors même qu’il est encore balbutiant dans tous les pays sauf aux Etats Unis.

 

S’agissant de Predictice, un nombre croissant de cabinets d’avocats s’abonnent. L’Etat français a par ailleurs conclu un partenariat avec nous pour faire tester le logiciel dans plusieurs juridictions. De plus, certains étudiants et chercheurs ont accès à notre outil grâce aux partenariats conclus avec les universités, comme Science Po Paris, l’Université de Nîmes ou des écoles de formation d’Avocats. Nous avons donc un cercle d’utilisateurs très dynamique, qui correspond à quasiment la totalité des acteurs du monde du droit et qui témoigne de l’appropriation rapide des technologies analytiques.

 

 

à propos de Ravel LawRavel Law, plate-forme juridique de recherche, d’analyse et de visualisation qui vise à transformer les avocats en analystes de données, s’est vendue cinq ans après sa fondation en 2012 à Lexis Nexis, le géant de la recherche juridique de New York.Ravel, fondé dans les dortoirs de Stanford Law School a recueilli plus de 14 millions de dollars de financement au cours des années, y compris de X Fund, New Enterprise Associates, North Bridge Venture Partners, Work-Bench et Ulu Ventures. à propos de Lex MachinaLa plate-forme Legal Analytics de Lex Machina, intégrée par LexisNexis dans Lexis Advance Online Legal Information Solution, est une nouvelle catégorie de technologies juridiques qui modifie fondamentalement la façon dont les entreprises et les cabinets d’avocats concourent dans les affaires et la pratique du droit. Livré en tant que Software-as a-service, Lex Machina fournit des informations stratégiques aux juges, avocats, parties et plus encore, extraites de millions de pages d’informations juridiques. Cela permet aux cabinets d’avocats et aux entreprises de prédire les comportements et les résultats que différentes stratégies juridiques produiront. Lex Machina a été nommé « Best Legal Analytics » par les lecteurs de The Recorder en 2016, 2015 et 2014, et a reçu le prix «Meilleur nouveau produit de l’année» en 2015 par l’Association américaine des bibliothèques de droit. 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Quelle utilité de l’outil analytique au service du droit ?

Quel impact sur l’activité humaine et quel potentiel pour l’utilisateur ?

 

Les solutions analytiques au service du droit permettent de comprendre très vite une grande masse de données et d’informations. Avec un outil comme Predictice, il est possible de choisir la meilleure argumentation, la meilleure stratégie et d’avoir une analyse de risque avec une granularité très fine.

 

Tout le travail des jeunes collaborateurs ou stagiaires qui consistait à cruncher les données à la main est potentiellement réduit. Cela pourrait impliquer un rétrécissement de la pyramide hiérarchique avec moins de personnes occupées à faire ces tâches et un recentrage sur la stratégie, la rédaction, la relation client…

 

À 25 ans, Louis Larret-Chahine a déjà plusieurs casquettes : élève-avocat, créateur d’une galerie en ligne spécialisée dans l’art urbain, et co-fondateur de Predictice, start-up créée en janvier 2016 et consacrée à la Justice Prédictive, dont l’objectif est de donner aux avocats et aux juristes, l’accès aux probabilités de réussite des cas qu’ils plaident.

Predictice a développé un logiciel qui permet d’optimiser sa stratégie contentieuse en extrayant des analyses précises et fiables des recherches de jurisprudences.

Pour les assureurs de protection juridique, qui sont des clients historiques de Predictice, l’outil sert à établir un profil de risques et établir les chances de succès en 8 à 30 secondes d’une procédure, dans le but d’éviter un contentieux qui peut être traumatisant et onéreux. Dans ce cas-là, l’analytique est un outil de déjudiciarisation. Le juriste devient donc en grande partie médiateur et négociateur, le flux de contentieux diminue devant les juridictions, qui peuvent se concentrer sur les cas qui nécessitent vraiment leur attention. Cela pourrait donc contribuer à résoudre l’engorgement juridictionnel.

 

S’agissant des magistrats, l’outil leur fournit une sorte de grille souple de préconisation de sentence beaucoup plus fine qu’un barème, qui pourrait permettre d’une part une forme d’homogénéisation des points de vue sur une même question, et d’autre part un renforcement de la nécessité de motiver les décisions d’un tribunal ou d’une juridiction qui déciderait de s’éloigner de ce qui est préconisé par la somme de l’ensemble des décisions de ses pairs. Il ne s’agit pas là d’automatiser la justice. L’outil est présenté de telle sorte qu’on essaye d’éviter l’effet performatif, ce que l’on trouve dans de nombreux systèmes algorithmiques, où la préconisation agit comme prophétie auto réalisatrice et a tendance à tordre le réel pour l’ajuster à sa propre prévision. On trouve cet effet performatif dans des systèmes qui à la fois suggèrent des décisions mais également la prennent, en flow automatique. Dans le cadre du droit, c’est loin d’être le cas car il y a bien souvent une présence des avocats et toujours d’un magistrat.

 

 

Qu’est-ce qui vous a poussé à lancer Predictice ?

 

En cabinet d’avocat, j’ai été chargé de sortir 300 décisions de justice sur un thème donné et de faire des moyennes et des médianes sur un cas d’indemnité pour un client. Cela a fait tilt, il a semblé que ces tâches très chronophages devaient pouvoir être automatisées.

 

Avec deux amis, ayant la même croyance dans les possibilités de la technologie pour le monde du droit (Alexandre Chéronnet, qui pilotait le rapport sur les LegalTech pour la clinique du droit de SciencePo, et Thomas Baduel, ingénieur avec plusieurs expériences significatives), nous avons décidé de lancer le projet.

 

Le milieu professionnel est bien moins homogène qu’on peut le penser et il y a certaines spécialités qui sont particulièrement techniques. Nous avons donc décidé d’aller voir les meilleurs professionnels dans chacune des spécialités pour être sûrs de développer un outil utile, un outil créé par les professionnels du droit pour les professionnels du droit.

 

Nous avons sollicité toute une série de partenaires, de très gros cabinets d’avocats, de petites boutiques spécialisées, des assureurs, l’État, des facultés etc… pour nous assurer de l’utilité de la plateforme. Ces partenaires ont également contribué à l’enrichissement des données.

 

Qu’est-ce que la Justice Prédictive ?

 

La Justice prédictive est la projection dans le futur d’une relation observée entre les éléments de fait ou de droit des décisions de justice passées, dans le but d’évaluer et d’optimiser les aspects quantitatifs et qualitatifs des avenirs judiciaires possibles.

 

Nous nous appuyons sur ce qui a été fait pour déduire ce qui sera fait plus tard.

En réalité, le fait de savoir ce qui va se passer est bien moins utile que de savoir comment on va l’optimiser. Nous ne nous contentons pas de donner un chiffre, mais nous guidons également dans le choix de la meilleure stratégie. L’outil est notamment capable d’identifier les arguments qui ont le plus d’influence sur la prise de décision juridictionnelle et comment cela va impacter statistiquement la décision. Par exemple si vous allez plaider devant la Cour d’appel de Lyon et que vous ne connaissez pas bien cette juridiction, l’outil va vous permettre de dire que cette Cour d’appel est très peu sensible au harcèlement moral mais très sensible à d’autres arguments.

 

 

 

Existe-t-il une probabilité d’erreur dans les prédictions d’issues des litiges rendues ?

 

Le Machine Learning est par définition faillible. Un outil comme celui développé par Predictice a donc une marge d’erreur théorique infranchissable.

Sur la partie mathématique, l’algorithme n’a pas de marge d’erreur : lorsqu’on lui demande de faire une médiane sur les indemnités accordées dans 12 000 décisions, le calcul est exact. L’outil peut en revanche faire des erreurs dans la compréhension du langage naturel. Il peut mal comprendre une triple négation ou une forme d’ironie dans un argument exposé. L’outil est à 91% de compréhension du langage naturel juridique, ce qui n’est pas très loin du maximum théorique.

 

C’est marginal mais cela doit pousser le professionnel à maintenir une forme de vigilance. Les analyses chiffrées peuvent être questionnées, ce qui devrait permettre de ne pas trop subir l’effet uniformisateur.

 

 

Quelles sont les données exploitées ?

 

Globalement toutes données confondues, nous exploitons une base de 15 millions de documents avec un flux attendu d’environ 3 millions de décisions de justice supplémentaire par an.

 

Les données sont issues de trois sources :

1 L’Open Data - Un Big Bang judiciaire est en train de se produire, notamment avec les articles 20 à 21 de la loi pour une République numérique, votée en octobre 2016, qui obligent à mettre en ligne gratuitement les décisions de justice. Nous allons passer d’un système avec actuellement 2,5 millions décisions de justice consultables, pour l’ensemble de l’histoire judiciaire, à un système avec 2,5 à 3,5 millions de décisions chaque année. Une personne qui commence sa carrière juridique aura très rapidement 20 à 30 millions de décisions potentiellement consultables. Il y a un véritable changement de paradigme avec l’explosion des données et le développement des technologies pour les traiter.

 

2 Les fonds privés de certains éditeurs et notamment les éditeurs juridiques avec qui nous avons noué des partenariats forts à la fois technologiques et commerciaux. Par exemple, Wolters Kluwer nous aide à améliorer l’outil en intégrant des thesaurus, des jeux de données colossaux.

 

3 La troisième source de données, ce sont nos clients et notamment les plus grands cabinets ou entreprises qui ont fait l’effort de collecter des données et de structurer leurs bases. Certains possèdent plusieurs centaines de milliers de documents. Ces partenariats demandent une certaine vigilance sur les conditions de sécurité. Nous avons, pour cette raison, décidé de stocker toutes nos données en France, avec un hébergeur français, pour garantir une réversibilité parfaite.

 

 

 

 

Quels sont les fondements techniques de Predictice ?

 

Une des briques applicatives fondamentales de l’outil est ce qu’on appelle un Dependency Parsing. Ce qui est complexe dans le langage juridique c’est qu’il y a parfois plusieurs pages avec une ponctuation très particulière, voire inexistante. Il faut donc entraîner l’algorithme afin qu’il soit capable de comprendre le langage juridique tel qu’il est employé par les juridictions dans les décisions de justice.

Un dependency parser relie les mots en fonction de leurs relations. Il vient extraire la force grammaticale entre les mots et phrases, en les jumelant à un thesaurus juridique pour pouvoir jouer avec les sens, les homonymes, les antonymes etc.

Dans cet exemple, l’algorithme est capable de comprendre qu’il y a eu un montant de 40 000 euros versé au titre de prestation compensatoire par M. X, jugement qui a été prononcé par la Cour d’Appel.

 

 

Les algorithmes vont-ils uberiser la fonction d’avocat ou de juriste ?

 

Je n’aime pas le flou de ce néologisme. En outre la vision française
« d’uberiser » semble impliquer un remplacement dans la douleur. Je serais plus enclin à accepter une autre racine, celle de l’Uberman dont le sommeil polyphasique permet de réduire incroyablement son temps de repos. Cette piste conduit au concept de l’homme augmenté, et dans ce cas-là, j’espère que tous les juristes auront accès à des informations qui étaient cachées dans la masse de données.

 

Si c’est uberiser dans le sens de combiner l’homme et la machine afin de mieux conseiller les clients et d’être sûr de ne pas rater une information cruciale, alors oui, le monde du droit doit être uberisé.

 

Si uberiser signifie créer un système bis qui va remplacer l’homme par la machine dans la violence, alors ce n’est pas la vision que nous avons de l’évolution du secteur juridique.

 

 

Quels futurs enjeux et applications du Big Data et de l’Intelligence Artificielle dans le droit ?

 

Un des enjeux cruciaux est celui éthique. Nous avons d’ailleurs contribué à la création du Comité éthique et scientifique de la justice prédictive, composé d’un panel paritaire de professionnels, à la fois universitaires et avocats. Ce comité travaille notamment sur des recommandations éthiques et sur le déploiement de l’outil dans le domaine du droit pénal. C’est un enjeu qui nous tient à cœur et qui pose de nombreuses questions notamment sur les questions de ré-identification des personnes citées dans les données publiques.

 

Il y a également un vrai enjeu autour de l’effet performatif, de la pérennisation d’un état de fait qui est indésirable.

Aux Etats Unis, il existe un algorithme qui permet d’avoir des recommandations de peine pour éviter la récidive. L’algorithme s’appuie sur des données antérieures et ce qui se passe dans les faits c’est qu’une personne de couleur va être plus souvent condamnée. Quand on touche à des sujets régaliens, il faut absolument traiter ces enjeux éthiques.

 

Le sujet de la fracture numérique est également préoccupant : le déploiement des outils numériques performant, des compétences qui vont avec et la récolte efficace des données doit se faire sur l’ensemble du territoire. Le numérique doit être une chance pour tous.

 

à propos du Dependency ParsingL’analyse par dépendance est la tâche de reconnaître une phrase etde lui attribuer une structure syntaxique.La structure syntaxique la plus utilisée est l’arbre d’analyse qui peut être généré à l’aide de certains algorithmes d’analyse.Ces analyses sont utiles dans diverses applications comme la vérification de grammaire ou, plus important encore,
elle joue un rôle essentiel dans l’analyse sémantique.