Aux termes de l’article 50 de l’AI Act, à compter du 2 août 2026, les fournisseurs et les déployeurs des systèmes d’IA ont une obligation de transparence vis-à-vis des utilisateurs (I). Cette obligation connait des rares exceptions (II) et a des implications pratiques dans la manière de concevoir et commercialiser des systèmes d’IA (III).
1. L’obligation de transparence
Le règlement prévoit que les fournisseurs informent les utilisateurs (i) du fait qu’ils interagissent directement avec un système d’IA et (ii) que les contenus générés ou manipulés par l’IA doivent être clairement marqués et détectables comme générées ou manipulées par une IA.
Les déployeurs, quant à eux, doivent (i) informer l’utilisateur du fonctionnement du système d’IA lorsque celui-ci est capable de reconnaitre des émotions ou de catégorisation biométrique, (ii) lui communiquer que les contenus ont été générés ou manipulés par une IA en cas de génération ou manipulation de deepfakes ou de textes publiés dans le but d’informer le public sur des questions d’intérêt public.
2. Les exceptions à l’obligation de transparence
De manière générale, l’obligation de transparence ne s’applique pas lorsque les systèmes sont autorisés par la loi à détecter, prévenir, instruire ou poursuivre des infractions pénales.
Outre cette dérogation générale d’autres exceptions spécifiques listées ci-dessous s’appliquent. Ces exceptions sont le résultat d’une mise en balance avec les libertés fondamentales d’entreprendre, de création et d’expression et d’information.
- L’obligation pour les fournisseurs de marquer les contenus générés ou manipulés par l’IA ne trouve pas application lorsque les systèmes d’IA remplissent une fonction d’assistance pour la mise en forme standard ou ne modifient pas de manière substantielle les données d’entrée fournies par le déployeur ou leur sémantique.
- L’obligation pour les déployeurs de communiquer que les contenus « deepfakes » ont été générés ou manipulés par une IA est limité à la divulgation de l’existence de tels contenus de sorte à ne pas entraver l’affichage ou la jouissance de l’œuvre lorsque les contenus font partie d’une œuvre ou d’un programme manifestement artistique, créatif, satirique, fictif ou analogue.
- L’obligation pour les déployeurs de communiquer que les contenus qui visent à informer le public sur des questions d’intérêt public ont été générés par l’IA ne trouve pas application lorsque le contenu a fait l’objet d’un processus d’examen humain ou de contrôle éditorial et lorsqu’une personne physique ou morale assume la responsabilité éditoriale de la publication du contenu.
3. Les implications pratiques de l’obligation de transparence
Pour essayer de comprendre quelles seront les implications pratiques de l’obligation de transparence pour les fournisseurs et les déployeurs, il convient de se tourner vers le projet projet de Code de bonnes pratiques sur la transparence des contenus générés par l’IA, élaboré sous l’égide de la Commission européenne, qui a vocation à structurer et concrétiser les obligations prévue par l’article 50 de l’AI Act.
Le projet de Code de bonnes pratiques préconise que les fournisseurs intègrent dans les métadonnées des contenus générés les informations prévues par le règlement, assorties de mécanismes de signature numérique garantissant leur intégrité et, dans la mesure du possible, des « watermark » (filigranes imperceptibles) directement intégrés à l’out-put, qui puissent survivre aux opérations de transformation ainsi qu’aux possibles altérations du contenu. En cas d’impossibilité technique d’implémentation de ces mesures, le projet de Code de bonnes pratiques envisage le recours à des mécanismes complémentaires de « logging » (journalisation) ou de « digital footprint » (empreintes numérique).
Selon le projet, ces exigences devraient être intégrées par les fournisseurs dès la conception des systèmes d’IA et être placées en amont afin de de faciliter la conformité des acteurs en aval et d’assurer la traçabilité tout au long de la chaîne de valeur.
Pour garantir l’efficacité de l’obligation de transparence, le projet de Code de bonnes pratiques prévoit que les fournisseurs mettront gratuitement à disposition une interface (par exemple une API ou une interface utilisateur) ou un outil de détection accessible au public permettant aux utilisateurs et aux autres parties intéressées de vérifier, avec des scores de confiance, si un contenu a été généré ou manipulé par leur système ou modèle d’IA.
En outre, le projet prévoit la création d’une icône commune au sein de l’UE pour signaler les contenus générés ou manipulés par l’IA.
Le projet est particulièrement détaillé : pour donner quelques exemples, nous traiterons des recommandations prévues pour les « deepfakes » (A) et pour les contenus qui visent à informer sur des questions d’intérêt public (B).
A. Les recommandations pour les « deepfakes »
Le projet de Code de bonnes pratiques sur la transparence des contenus générés par l’IA préconise que :
- Les « deepfakes » soient signalés de manière claire et distincte dès la première exposition.
- En cas de vidéo en temps réel il y ait un affichage continu d’une icône non intrusif accompagnée d’un avertissement au début de la vidéo.
- En cas de vidéo non temps réel il y ait un signalement par icône visible accompagnée d’un avertissement au début et/ou icône permanente.
- En cas de contenu multimodal (image-texte-son, etc.) il y ait une icône affichée en permanence, clairement visible sans action de l’utilisateur.
- En cas d’image « deepfake » il y ait une icône fixe, visible et distinct de l’image, non dissimulé.
- En cas d’audio < 30 secondes il y ait un avertissement sonore bref au début indiquant l’origine artificielle.
- En cas d’audio long (podcast, etc.) il y ait un avertissements sonores répétés.
B. Les recommandations pour les contenus qui visent à informer sur des questions d’intérêt public
Le projet de Code de bonnes pratiques sur la transparence des contenus générés par l’IA préconise que, pour les contenus qui visent à informer l’utilisateur, le déployeur adopte des procédures et conserve de la documentation proportionnée à sa taille mais qui inclue au minimum les éléments suivants :
- l’identification de la personne physique ou morale responsable sur le plan éditorial (nom, fonction et coordonnées) ;
- un aperçu des mesures organisationnelles et techniques concrètes ainsi que des ressources humaines mises en place afin de garantir un contrôle humain ou éditorial adéquat avant la publication des contenus textuels générés ou manipulés par l’IA, en tenant compte, le cas échéant, des spécificités nationales (facteurs linguistiques, culturels ou contextuels pouvant influencer l’interprétation ou l’impact) ;
- la date de révision et d’approbation ;
- une référence à la version finale approuvée du contenu (par exemple, nom du fichier, URL ou tout autre identifiant interne).
En conclusion, pour les entreprises, il ne s’agit pas d’attendre l’application formelle de l’article 50, mais d’anticiper dès maintenant la mise en œuvre de mécanismes de transparence à la fois juridiquement fiables, techniquement robustes et conformes à ce qui est appelé à s’imposer comme le standard européen de transparence en matière de contenus générés par l’intelligence artificielle.

Pas de contribution, soyez le premier