L'intelligence artificielle (IA) est au cœur de la transformation numérique mondiale. Elle n'est plus une technologie de demain, mais bien une réalité d'aujourd'hui qui transforme profondément notre société et notre économie.

 

Face à cette révolution, l'Union européenne a adopté le Règlement sur l'intelligence artificielle (UE) 2024/1689 du 13 juin 2024, publié le 12 juillet dernier au Journal Officiel de l’Union Européenne.

 

Il s’agit d’une législation pionnière visant à encadrer l'utilisation de l'IA tout en favorisant l'innovation. L’Union Européenne se positionne ainsi en leader pour encadrer cette technologie, pour en garantir une utilisation sûre, éthique et respectueuse des droits fondamentaux.

 

Concrètement, quels seront les impacts de ce règlement pour les entreprises et les développeurs ?

 

Repartons de la base et regardons ensemble les ambitions portées par ce Règlement.

 

  • Leadership éthique et technologique

 

L'UE souhaite devenir un leader mondial en matière d'IA éthique.

Le règlement établit des normes rigoureuses pour le développement et l'utilisation des technologies d'IA, garantissant qu'elles respectent les valeurs fondamentales de l'UE telles que la dignité humaine, la protection des données personnelles et la non-discrimination.

 

  • Harmonisation réglementaire

 

L'une des ambitions clés du Règlement est de créer un cadre juridique clair et harmonisé à l'échelle européenne. Cela vise à éliminer les disparités entre les législations nationales, facilitant ainsi le commerce intra-européen et renforçant le marché unique numérique.

 

  • Promotion de l'Innovation

 

En offrant des règles claires et prévisibles, le Règlement vise à encourager l'innovation et la compétitivité des entreprises européennes.

Il prévoit des mesures de soutien pour les petites et moyennes entreprises (PME) et les startups, afin qu'elles puissent se conformer aux exigences sans être étouffées par des contraintes administratives.

 

Examinons maintenant les principaux apports du Règlement.

 

  • La classification des systèmes d'IA par niveau de risque et les interdictions

 

Le Règlement introduit une classification des systèmes d'IA basée sur leur niveau de risque :

  • Risque inacceptable : certains usages de l'IA, comme les systèmes de notation sociale, sont interdits.
  • Risque élevé : des systèmes utilisés dans des secteurs critiques (santé, transport, justice) doivent répondre à des exigences strictes en matière de transparence, de robustesse, et de gestion des risques.
  • Risque limité : ces systèmes sont soumis à des obligations minimales de transparence.
  • Risque minimal ou nul : les applications d'IA de faible risque, comme les jeux vidéo, ne sont soumises qu'à de faibles obligations.

 

Le Règlement interdit effectivement certains usages d'IA jugées comme présentant un risque inacceptable pour les droits fondamentaux.

 

Cela inclut (et c’est heureux) :

  • Les systèmes de notation sociale : inspirés du modèle chinois, ces systèmes évaluent les comportements des individus sur la base de critères arbitraires et non transparents.

 

  • La manipulation et l’exploitation : cela vise l'utilisation de l'IA pour manipuler les comportements humains de manière subreptice, exploiter les vulnérabilités spécifiques d'individus ou groupes de personnes.

 

  • La surveillance de masse : sans être totalement interdits, les systèmes de reconnaissance faciale en temps réel dans les espaces publics sont strictement réglementés et ne peuvent être utilisés qu'à des fins spécifiques et limitées.

 

  • Surveillance et gouvernance

 

Le Règlement prévoit la création d'un Comité européen pour l'intelligence artificielle, chargé de superviser la mise en œuvre de la réglementation et de conseiller les États membres et les entreprises.

Les autorités nationales auront également un rôle clé dans la surveillance et l'application de la législation.

 

Nous pouvons à présent étudier les conséquences pratiques de ce Règlement pour les entreprises et les développeurs.

 

  • Mise en conformité

 

Les entreprises et les développeurs opérant dans le domaine de l'IA doivent dès à présent se préparer à se conformer à ces nouvelles exigences.

Ils devront en particulier :

  • Réaliser une évaluation et une classification de leurs produits : identifier les systèmes d'IA selon les catégories de risque définies par le règlement.

 

  • Procéder à une mise en conformité: mettre en place des procédures internes pour répondre aux exigences de transparence, de gestion des risques, et de qualité des données, en fonction du risque associé à leur système d’IA. Les entreprises doivent prouver que leurs systèmes sont sûrs et fiables avant leur mise sur le marché.

 

  • Établir une documentation et une politique de transparence : élaborer une documentation détaillée et accessible sur le fonctionnement des systèmes d'IA et informer les utilisateurs de manière claire et transparente.

 

  • Sanctions

 

Le règlement prévoit des sanctions sévères pour les entreprises qui ne respecteraient pas ces exigences :

  • Des amendes qui peuvent atteindre 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial, selon le montant le plus élevé. Cela reflète la gravité avec laquelle l'UE traite les violations des règles en matière d'IA.

 

  • La mise en conformité des systèmes d'IA non conformes, leur retrait du marché, ou la suspension de leur mise en œuvre. Cela vise à protéger les consommateurs et à garantir que les technologies déployées sont sûres et éthiques.

 

  • Une responsabilité accrue pour les dommages causés par des systèmes d'IA défectueux. Le règlement introduit des mécanismes pour faciliter les recours en justice des victimes d'incidents liés à l'IA, renforçant ainsi la responsabilité des développeurs et fournisseurs.

 

Le Règlement UE 2024/1689 sur l'intelligence artificielle représente une opportunité unique pour positionner l'Europe comme leader mondial de l'IA éthique et fiable.

 

Toutefois, les entreprises devront relever le défi de l'adaptation à cette nouvelle réglementation, ce qui nécessitera des investissements en temps et en ressources. Il sera donc crucial d'accompagner les acteurs de l’IA dans cette transition pour leur permettre d’évoluer sereinement dans ce nouveau cadre réglementaire.