Déterminer le niveau de risque d’un système d’intelligence artificielle (IA) constitue la première étape de la mise en conformité avec l’AI Act. Le Règlement européen distingue trois catégories de risques – systèmes d’IA interdits, systèmes d’IA à haut risque et systèmes d’IA à risque limité – chacune assortie d’obligations spécifiques de conformité.

1.     Systèmes d’IA interdits

L’article 5 de l’AI Act définit les pratiques d’IA interdites. Pour établir si un système d’IA peut être qualifié de « système interdit », il convient de répondre aux questions suivantes :

  • Le système d’IA utilise-t-il des techniques subliminales agissant à l’insu d’une personne ou des techniques délibérement manipulatrices ou trompeuses, ayant pour but ou pour effet de fausser de manière substantielle le comportement d’une personne ou d’un groupe de personnes?

  • Le système d’IA exploite-t-il les vulnérabilités d’une personne physique ou d’un groupe spécifique de personnes?

  • Le système d’IA est-il utilisé pour l’évaluation ou la classification de personnes physiques ou de groupes de personnes ?

  • Le système d’IA est-il utilisé pour le « scoring social » ?

  • Le système d’IA est-il utilisé pour effectuer des évaluations du risque relatives à des personnes physiques en vue d’évaluer ou de prédire la probabilité qu’une personne commette une infraction pénale ? 

  • Le système d’IA crée-t-il ou enrichit-il des bases de données de reconnaissance faciale par extraction massive d’images faciales issues d’internet ou de vidéos de caméras de surveillance ?

  • Le système d’IA reconnaît-il les émotions d’une personne physique dans le cadre du lieu de travail ou d’établissements d’enseignement ?

  • Le système d’IA est-il un système de catégorisation biométrique ?

Si l’une des réponses est affirmative, le système d’IA sera classé comme « interdit » et il sera prohibé de le mettre à disposition dans l’Union européenne à compter du 2 février 2025.


En revanche, si toutes les réponses sont négatives, il sera possible de poursuivre la détermination du niveau de risque.

 

2.     Systèmes d’IA à haut risque

Pour déterminer si un système d’IA relève de la catégorie « à haut risque », il convient de répondre aux deux questions de l’article 6 de l’AI Act.

  • Le système d’IA est-il destiné à etre utilisé comme composant d’un produit ou constitue-t-il lui-meme un produit énuméré à l’annexe I de l’AI Act?

L’annexe I énumère diverses directives concernant certains produits pour lesquels le droit de l’UE prévoit des normes particulières de sécurité. Ceux-ci peuvent être résumés comme suit :

machines ; équipements interchangeables ; composants de sécurité ; accessoires de levage ; chaînes, câbles et courroies ; dispositifs amovibles de transmission mécanique ; quasi-machines ; jouets ; bateaux de plaisance ; scooters des mers ; moteurs de propulsion pour bateaux de plaisance ; ascenseurs ; dispositifs de levage ; funiculaires ; escaliers mécaniques ; équipements et systèmes de protection destinés à être utilisés en atmosphère explosive ; dispositifs de sécurité, de contrôle et de régulation destinés à être utilisés en dehors d’atmosphères explosives mais nécessaires à leur fonctionnement sûr ; composants destinés à être intégrés dans ces équipements ; équipements radio ; équipements sous pression ; installations à câbles ; équipements de protection individuelle (EPI) ; appareils utilisant des combustibles gazeux (cuisson, réfrigération, climatisation, chauffage, production d’eau chaude, éclairage, lavage) ; brûleurs à air pulsé et chaudières munies de ces brûleurs ; dispositifs médicaux et dispositifs médicaux de diagnostic in vitro pour usage humain ; aéroports ; aéronefs et leurs composants ; véhicules à deux, trois ou quatre roues ; systèmes et composants techniques indépendants pour ces véhicules ; véhicules agricoles et forestiers ; équipements maritimes ; systèmes et véhicules ferroviaires ; véhicules automobiles et remorques.

 

  • Le système d’IA relève-t-il d’un des secteurs énumérés à l’annexe III de l’AI Act?

L’annexe III concerne des secteurs spécifiques qui peuvent être résumés comme suit :

biométrie ; infrastructures critiques (numériques, trafic, approvisionnement en eau, gaz, chauffage, électricité) ; éducation et formation professionnelle ; emploi et accès au travail ; services publics et privés essentiels (assistance publique, soins de santé, solvabilité, évaluation des risques et tarification dans les assurances-vie et assurances santé ; évaluation et classification des appels d’urgence pour l’envoi des secours, y compris police, pompiers et soins médicaux ; systèmes de triage des patients en urgence médicale) ; lutte contre la criminalité ; migration, asile et gestion des frontières ; administration de la justice et processus démocratiques. 

 

Pour chacun des secteurs mentionnés ci-dessus, l’annexe III de la loi sur l’IA définit les exigences spécifiques auxquelles doit satisfaire un système d’IA pour être classé comme présentant un risque élevé, ainsi que certaines exceptions spécifiques. Afin de ne pas alourdir cet article, nous ne dresserons pas la liste des exigences spécifiques à chaque secteur, mais nous nous contenterons de citer quelques exemples. À titre d’exemple :

 

  • Concernant les infrastructures critiques, un système d’IA sera à haut risque s’il est destiné à être utilisé comme composant de sécurité dans la gestion et le fonctionnement d’infrastructures numériques critiques, du trafic routier ou de l’approvisionnement en eau, gaz, chauffage ou électricité.

NB : La notion de « composant de sécurité » est définie à l’article 3, 14) comme « un composant d’un produit ou d’un système d’IA qui assure une fonction de sécurité pour ce produit ou ce système, ou dont la défaillance met en danger la santé et la sécurité des personnes ou des biens ».

 

  • Concernant la solvabilité, un système d’IA sera à haut risque s’il est destiné à évaluer la fiabilité ou le crédit des personnes physiques. Toutefois, les systèmes d’IA utilisés pour détecter les fraudes financières sont exclus.

Si le système d’IA entre dans l’une de ces catégories, il sera classé comme « à haut risque ».
Dans ce cas, au plus tard le 2 août 2026, il devra satisfaire à des obligations spécifiques, par exemple :

 

  • Mention du fournisseur dans la documentation accompagnant le système d’IA (art. 16).
  • Enregistrement du système dans la base de données de l’UE (art. 49).
  • Évaluation de conformité couvrant notamment la qualité des données (art. 10), la documentation (art. 11), la traçabilité (art. 12), la transparence (art. 13), la supervision humaine (art. 14), l’exactitude, la cybersécurité et la robustesse (art. 15).
  • Mise en place de systèmes de gestion de la qualité et des risques pour garantir la conformité et réduire au minimum les risques pour les utilisateurs et les personnes concernées (art. 9 et 17).
  • Conservation de la documentation conformément à l’article 18.
  • Conservation des journaux conformément à l’article 19.
  • Apposition du marquage CE conformément à l’article 48.

Si le système d’IA ne relève pas de ces catégories, il conviendra de vérifier s’il ne s’agit pas d’un « système d’IA à risque limité ».

3.     Exceptions à la classification « à haut risque »

L’article 6 de l’AI Act prévoit des dérogations seulement pour les systèmes visés à l’annexe III.
Un système d’IA figurant à l’annexe III n’est pas considéré comme à haut risque si :

 

  1. Il n’effectue pas de profilage de personnes physiques ; et
  2. Il ne présente pas de risque significatif pour la santé, la sécurité ou les droits fondamentaux des personnes, y compris au sens d’une absence d’influence matérielle sur le processus décisionnel, à savoir si au moins une des conditions suivantes est remplie :
    • le système d’IA est destiné à exécuter une tâche procédurale limitée ;
    • le système d’IA est destiné à améliorer le résultat d’une activité humaine déjà achevée ;
    • le système d’IA est destiné à détecter des schémas décisionnels ou des écarts par rapport à ces schémas, sans viser à remplacer ou influencer l’évaluation humaine déjà réalisée, sauf révision humaine appropriée ;
    • le système d’IA est destiné à exécuter une tâche préparatoire en vue d’une évaluation pertinente dans les cas d’usage énumérés à l’annexe III.

4.     Systèmes d’IA à risque limité

Bien que la notion de systèmes « à risque limité » ne soit pas définie de manière explicite, l’AI Act prévoit des obligations spécifiques de transparence (art. 50).

Pour déterminer si le système y est soumis, il convient de répondre aux questions suivantes :

 

  • Le système d’IA est-il destiné à interagir directement avec des personnes physiques (par ex. chatbot) ?
  • Le système d’IA est-il capable de générer des contenus audio, image, vidéo ou textuels ?
  • Le système d’IA est-il capable de reconnaître les émotions ou d’effectuer une catégorisation biométrique des personnes ?
  • Le système d’IA est-il capable de générer des « deepfakes » ?

Si une des réponses est affirmative, les obligations spécifiques de transparence de l’article 50 devront être respectées d’ici le 2 août 2026.

 

En conclusion, l’évaluation du risque lié à l’IA (« AI risk assessment ») constitue non seulement une obligation légale, mais également un outil de gouvernance. Une feuille de route de conformité à l’AI Act permet aux entreprises de réduire les risques et de renforcer la confiance des utilisateurs.