L’intelligence artificielle est un procédé qui est de plus en plus utilisé de nos jours. En droit, on peut trouver une première définition à l’article 3 de la proposition de règlement européen du 21 avril 2021 de l’intelligence artificielle comme étant « un logiciel qui est développé au moyen d’une ou plusieurs des techniques et approches », telles que « les approches d’apprentissage automatique, celles fondées sur la logique et les connaissances, ainsi que les approches statistiques, « et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit ». Mais qu’en est-il de l’intelligence artificielle au regard du droit (I), quels sont les risques de l’intelligence artificielle sur les droits fondamentaux (II), et quelles sont les avancées juridiques afin de limiter les risques de l’usage de l’IA (III) ; autant de questions auxquelles nous tenterons de répondre dans cet article.
Exemples d’usages de l’IA en droit
L’IA est un procédé scientifique qui va intéresser plusieurs domaines du droit comme le droit du travail ou encore le droit des données personnelles.
En effet, elle devient une notion de droit, car son usage émet des effets de droits. Par exemple, lorsque se pose la question de la responsabilité à la suite d’une erreur voire d’un dysfonctionnement de l’algorithme. Ou, lorsqu’elle implique la propriété intellectuelle quand il est question d’identifier la personne ayant des droits sur les algorithmes, tout comme le domaine du droit des brevets et celui du droit d’auteur.
De plus, l’usage de l’IA s’immisce également dans l’organisation du domaine juridique, que ce soit dans le domaine du droit des affaires avec des logiciels de gestion de contrats et de recherche juridique par exemple, ou encore dans le domaine du droit pénal avec l’usage de l’intelligence artificielle dans les décisions de justice. Ou tout simplement dans le domaine de la rédaction assistée, avec le désormais bien connu ChatGPT.
On assiste ainsi, à une réelle transformation des pratiques juridiques provoquée par l’ère du numérique. De ce fait, l’IA devient à la fois une nouvelle source du droit et un nouvel outil d’application du droit. On parle donc d’un double impact dans le monde juridique. Ainsi, l’intelligence artificielle se présente à la fois comme une opportunité et comme une menace.
En effet, nous pensons qu’en notre qualité de juriste, il faut se garder de fuir cette nouvelle technologie et au contraire étudier les manières de l’utiliser à bon escient. Néanmoins, il convient de rappeler que quelle que soit la qualité des écrits que peut générer un outil tel que ChatGPT, il ne remplacera jamais l’analyse d’un avocat, ceci d’autant plus qu’il se base sur des données existantes et n’a pas ce pouvoir de créer des revirements de jurisprudence, voire même être à l’initiative de lois davantage protectrices de nos droits fondamentaux.
De l’impact négatif de l’IA sur les droits fondamentaux
À cet égard, l’usage accru de cette nouvelle technologie par le gouvernement et les entreprises rend nécessaire l’instauration d’un cadre juridique afin de préserver le marché intérieur, mais aussi les droits fondamentaux.
On note que de nombreuses instances internationales ont signalé l’impact négatif de l’IA sur les droits fondamentaux, dont la Commission nationale consultative des droits de l’homme. Elles dénoncent des discriminations issues des traitements algorithmiques, « l’identification biométrique à distance de personnes dans l’espace public et les lieux accessibles au public » qui viole le droit au respect de la vie privée tout comme le droit à la dignité et le droit à la sécurité. Cependant, nous avons d’autres exemples comme la limitation de la liberté d’expression et de la liberté de réunion issue des mécanismes de filtrage mis en place par Facebook et YouTube. Cela peut provoquer une réticence à l’usage de l’IA. En effet, le développement de l’intelligence artificielle pourrait être assimilé à une régression des droits fondamentaux. Par conséquent, instaurer un cadre juridique permet aussi bien de protéger les intérêts publics que de favoriser l’adoption et le développement de l’IA dans le marché intérieur.
Un embryon législatif
Or, actuellement, ce cadre juridique est inexistant.
Il existe, néanmoins, une charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement adopté en décembre 2018.
Cette dernière réunit cinq principes fondamentaux dans l’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement. Ces principes sont :
- le respect des droits fondamentaux,
- le principe de non-discrimination,
- celui de qualité et de sécurité,
- ainsi que le principe de transparence, de neutralité et d’intégrité intellectuelle
- et pour finir, le principe de maîtrise par l’utilisateur.
Cette charte répond bien à la demande des institutions d’une IA ne mettant pas à mal les droits fondamentaux. Néanmoins, il ne s’agit que de principes et non d’obligations, dès lors qu’il ne s’agit que d’une charte et non d’un règlement, d’une directive ou d’une loi ; au surplus, elle ne répond pas à une problématique : celle concernant les litiges causés par une intelligence artificielle. Enfin, s’agissant d’une Charte, il n’y a aucune sanction prévue en cas de non-respect de ces principes.
C’est pour cette raison, qu’il a fallu aller plus loin. Ainsi, il existe une proposition de règlement sur l’intelligence artificielle présentée le 21 avril 2021 par la Commission européenne, appelée l’Artificial Intelligence Act (AIA). Cette dernière a pour objectif « de faire de l’Union un acteur mondial de premier plan dans le développement d’une intelligence artificielle sûre, fiable et éthique » tout en garantissant « la protection de principes éthiques ». De ce fait, ce règlement vise à mettre en place un contrôle des intelligences artificielles par des exigences, des interdictions, et même des sanctions. Ainsi, par ce règlement, on vise à mettre en place de vraies mesures pour lutter contre les risques de l’IA.
Ce n’est que le 14 juin 2023 que cette proposition de règlement a été adoptée par le Parlement européen, à la suite d’un vote en séance plénière ; s’en est suivi le début des discussions au sein du Conseil sur la forme définitive que va prendre la loi sur les intelligences artificielles et sur ses modalités d’application. Néanmoins, des controverses concernant les systèmes d’IA génératives pouvant produire des textes et des images, ont conduit à un prolongement de la durée d’examen du texte. Par conséquent, même s’il s’agit d’une grande avancée, on estime que cette loi ne sera pas appliquée avant 2026.
Ainsi, s’il y a une grande implication du droit dans la construction d’une réglementation de l’usage de l’IA fondée sur un vrai équilibre entre la sécurité juridique et le respect des droits fondamentaux et le développement et l’usage de l’intelligence artificielle, le droit de l’intelligence artificielle demeure un droit en construction. En tout état de cause, les moyens mis en œuvre pour contrôler l’usage de l’IA montre l’importance de ce procédé dans le monde juridique. De plus, cela confirme que le droit est un domaine mouvant, car il s’adapte au monde du digital. Le cabinet LEGALPROTECH-AVOCATS, intervenant en droit des nouvelles technologies se fait un devoir d’être en veille sur ces aspects.
Par Christelle REYNO & Dalhiana PIETRUS