L’article 3(1) de l’AI Act définit un “système d’IA” comme :
- un système automatisé ou « fondé sur des machines »
- conçu pour fonctionner à différents niveaux d’autonomie
- qui peut faire preuve d’une capacité d’adaptation après son déploiement
- qui déduit à partir des entrées qu’il reçoit comment générer des sorties telles que des prédictions, des contenus, des recommandations ou des décisions
- qui peuvent influencer des environnements physiques ou virtuels.
Analysons ci-dessous en détail chacun de ces critères.
(a) Système automatisé ou « fondé sur des machines »
Selon les lignes directrices de la Commission européenne, le terme « automatisé » fait référence au fait que le fonctionnement des systèmes d’IA repose sur l’utilisation de machines, c’est-à-dire un système conçu par et tournant sur des “machines”, qui doivent être comprises comme du “hardware” et du “software”.
(b) Autonomie
Le considérant 12 de l’AI Act précise que l’expression “différents niveaux d’autonomie ” signifie que le système d’IA est conçu pour fonctionner avec un certain degré d’indépendance par rapport à l’intervention et à l’implication humaines.
Cela implique que seraient exclus seuls les systèmes qui ne peuvent fonctionner qu’avec une implication et une intervention humaine totale. En effet, le simple fait qu’un système d’IA soit capable de générer des sorties qui ne sont pas entièrement contrôlées par un humain le rend “autonome” au sens du règlement.
Ainsi, cette exigence est très facile à satisfaire, y compris par des logiciels utilisés depuis des années, comme ceux permettant de classer les e-mails.
(c) Capacité d’adaptation
Le concept de capacité d’adaptation est lié à celui d’autonomie et se réfère à la capacité du système d’IA à modifier son comportement lors de son utilisation.
Cependant, l’utilisation du terme “peut” indique clairement que cette caractéristique n’est pas déterminante pour qualifier un système de système d’IA.
En pratique, la capacité d’adaptation n’est donc pas un critère discriminant.
(d) Capacité d’inférence
La capacité d’inférence désigne le processus de production d’output tel que des prédictions, des contenus, des recommandations ou des décisions.
Le considérant 12 de l’AI Act précise que la capacité d’inférence d’un système d’IA va au-delà du simple traitement de données, en permettant l’apprentissage, le raisonnement ou la modélisation.
Ainsi, les systèmes d’intelligence artificielle se distinguent des logiciels traditionnels dans la mesure où ces derniers ne reposent que sur des règles définies par des personnes physiques pour exécuter automatiquement des opérations. À titre d’exemple, les considérants du règlement incluent explicitement les logiciels de “machine learning” parmi ceux ayant un capacité d’inférence.
Cette définition de “l’inférence” serait extrêmement large si la Commission, dans ses lignes directrices, n’avait pas exclu certains systèmes ayant une inférence limitée en raison de leur faible capacité à analyser des schémas et à adapter leurs résultats de manière autonome, tels que :
- Les systèmes visant à optimiser des méthodes mathématiques ou à accélérer et approximer des méthodes d’optimisation traditionnelles comme les régressions linéaires ou logistiques ;
- Les systèmes de traitement de données qui excluent “l’apprentissage, le raisonnement ou la modélisation” ou les systèmes servant uniquement à la “description de données” ;
- Les systèmes dont les sorties peuvent être obtenues par l’application de règles statistiques de base, comme les logiciels de prévision financière utilisés pour anticiper les prix futurs des actions (par exemple, en se basant sur la moyenne des prix historiques) ou les systèmes météorologiques utilisant la température moyenne de la semaine passée pour prédire la température du lendemain.
(e) Capacité à influencer des environnements physiques ou virtuels
Selon les lignes directrices de la Commission, il suffit que le système ait un impact sur son environnement au sens large (physique ou virtuel).
Ce critère est une fois de plus extrêmement large : il suffit qu’un système soit intégré dans un processus (par exemple, un processus décisionnel de management) pour qu’il ait un impact sur son environnement et relève ainsi de la définition d’un système d’IA.
En conclusion, la définition d’un système d’intelligence artificielle adoptée par l’AI Act est extrêmement large. Il est donc très probable que, si nous utilisons le terme “IA” pour définir notre système ou produit, celui-ci relève de cette définition et, par conséquent, du champ d’application matériel du règlement.
Pas de contribution, soyez le premier