Quotidienne

« L’intelligence artificielle réglera-t-elle les litiges judiciaires ? »

Marie Deshayes, journaliste

Yannick Meneceur, juriste

Tous les jeudis, le 1 sélectionne l’une de vos questions. Cette semaine, le juriste Yannick Meneceur répond à la question de savoir si des algorithmes seraient en mesure de rendre des décisions de justice. 

« L’intelligence artificielle réglera-t-elle les litiges judiciaires ? »

« L’intelligence artificielle réglera-t-elle les litiges judiciaires ? »

Lealcr, via Instagram

 

La réponse de Yannick Meneceur, maître de conférences associé à la faculté de droit de Strasbourg :

 

L’usage de l’intelligence artificielle (IA) dans le domaine de la justice en France reste encore largement expérimental, même si des applications ont vu le jour d’abord du fait de l’initiative privée.

Les legaltech, start-up spécialisées dans le domaine du droit, proposent ainsi de l’aide à la rédaction (par exemple pour construire un contrat type, pour des avocats), mais aussi des moteurs de recherche de jurisprudence et, de manière plus controversée, des applications dites de jurimétrie dont la vocation est d’analyser des masses importantes de décisions, au sein de la jurisprudence, afin d’essayer d’en déduire des tendances. En d’autres termes, essayer de prédire l’issue d’un procès. C’est ce qu’on appelle aussi la « justice prédictive ».

Dans le secteur public, le recours à l’IA est encore très peu répandu. Il faut se tourner vers la Cour de cassation pour y trouver trois usages concrets, dans le cadre de l’open data des décisions de justice pour les deux premiers (l’ouverture des bases de données judiciaires au grand public). La première application est la pseudonymisation des décisions en open data, c’est-à-dire la suppression d’éléments nominatifs relatifs aux parties d’un procès afin de protéger leur vie privée. La deuxième application est un moteur de recherche libre d’accès, Judilibre, sur le site de la Cour de cassation. Et enfin, ce qui est très utile pour rendre plus efficace le fonctionnement de la Cour : l’orientation de dossiers. Les pourvois en cassation, c’est-à-dire les recours devant la plus haute juridiction judiciaire française, sont ainsi préorientés automatiquement entre les différentes chambres.

« On essaye dans certains pays d’évaluer avec l’aide de l’intelligence artificielle la dangerosité des individus et les risques de récidive »

Ce qui se fait à l’étranger et qui ne se fait pas en France – pour des raisons éthiques mais aussi parce que le cadre législatif ne l’autoriserait pas de cette manière-là – se trouve aussi dans le domaine pénal. Par exemple, on essaye dans certains pays d’évaluer avec l’aide de l’IA la dangerosité des individus et les risques de récidive. Les logiciels les plus connus sont Compas, aux États-Unis, ou Hart, en Grande-Bretagne. L’idée est de fournir au juge ou au personnel de probation des risques de réitération, mais c’est évidemment très critiqué. Une ONG avait dénoncé aux États-Unis les biais raciaux de Compas. Pour faire simple, l’algorithme n’a fait qu’amplifier les biais existants de la société. Il faudrait donc peut-être réserver l’utilisation de ces dispositifs pour étudier des phénomènes, et adapter des politiques publiques, plutôt que d’essayer de prendre des décisions avec et de perpétuer des biais.

Les perspectives d’évolution du recours à l’IA dans le domaine de la justice dépendent si l’on se situe du point de vue du marché ou de la protection des droits fondamentaux.

On voit aujourd’hui une tendance à confier à des opérateurs privés un certain nombre d’activités visant à résoudre les litiges en amont des tribunaux : conciliation, médiation et arbitrages sont souvent de bonnes solutions pour favoriser la résolution de litiges. L’emploi des algorithmes n’est plus un tabou et l’IA, notamment de jurimétrie, entend aider à évaluer une bonne stratégie : accepter un compromis ou risquer un procès considéré comme aléatoire. L’évolution apparait donc plutôt soutenue dans des politiques publiques visant à faire baisser le nombre de saisines des tribunaux.

En revanche, du point de vue des droits fondamentaux, c’est plus compliqué. L’article 6 de la Convention européenne des droits de l’homme protège, entre autres, l’accès au juge. L’on pourrait donc se dire que ces solutions automatisées, plus ou moins sous le contrôle de leurs utilisateurs, viennent interférer, sur des bases scientifiques pas toujours claires, sur la prise de décision d’avoir recours à un tribunal. L’expérimentation de Datajust en France, par le ministère de la Justice, est assez éloquente. L’idée était de tester un algorithme d’IA afin d’établir des échelles d’indemnisation en matière de préjudice corporel. L’expérimentation a été gelée pour de multiples raisons, mais surtout au vu des moyens considérables qui auraient été nécessaires pour évaluer la correction des biais et minimiser les risques de discriminations. Ce sont des craintes réelles, partagées largement par la communauté scientifique, et ce n’est pas être dans le techno-bashing que de le souligner.

Néanmoins, il faut aussi reconnaître que toutes les craintes suscitées par l’IA ne sont pas fondées. Celle d’un remplacement de l’homme par la machine, même si elle est nourrie par la littérature de science-fiction, est encore de l’ordre du fantasme, selon moi. L’acceptation sociale de tels systèmes est aujourd’hui impossible et personne ne songe sérieusement à établir des bataillons de machines pour remplacer les juges.

« Le numérique et les algorithmes, contrairement à une idée reçue, ne sont pas neutres »

En revanche, un risque beaucoup moins médiatisé a été mis en avant par la recherche universitaire : celui du remplacement du droit par le nombre. Le calcul issu des algorithmes, avec toute l’autorité des mathématiques, viendrait progressivement se substituer à la règle de droit. Or, une règle de droit, ne l’oublions pas, est le résultat d’un processus démocratique : une loi est votée après avoir été débattue par des représentants du peuple. Le calcul, lui, est surtout à l’image des arbitrages (parfois inconscients) de ses concepteurs. Le numérique et les algorithmes, contrairement à une idée reçue, ne sont pas neutres et ce glissement, qui n’est pas anodin, pose d’immenses enjeux pour notre État de droit.

En résumé, il y a toujours des effets bénéfiques aux applications technologiques, que l’on contrebalance avec des risques. Mais je crois que la grille de lecture que l’on devrait utiliser est surtout celle d’une réflexion autour des conséquences globales de la transformation numérique : comment garantir que les nouvelles applications informatiques proposées dans le domaine de la justice viennent renforcer les droits des justiciables ? Toutes les technologies majeures ont façonné la société : nous devons imaginer maintenant les pouvoirs et les contrepouvoirs de ce nouvel environnement. C’est un impératif démocratique.

Conversation avec MARIE DESHAYES

Illustrations JOCHEN GERNER

 

Bio express

Magistrat de l’ordre judiciaire en disponibilité, maître de conférences associé à la faculté de droit de Strasbourg, Yannick Meneceur est l’auteur du livre L’intelligence artificielle en procès, Prix du Cercle Montesquieu 2021 (éditions Bruylant).

 

11 août 2022
Retour

Nous vous proposons une alternative à l'acceptation des cookies (à l'exception de ceux indispensables au fonctionnement du site) afin de soutenir notre rédaction indépendante dans sa mission de vous informer chaque semaine.

Se connecter S’abonner Accepter et continuer