L’hypertrucage ou « deepfake » est une technique de synthèse mono ou multimédia reposant sur l'intelligence artificielle. Elle peut servir à superposer ou fusionner des images, des fichiers vidéo ou audio sur d'autres images ou fichiers vidéo ou audio, à créer un contenu artificiel sur une personne cible à partir du comportement d’une personne source, ou même à créer artificiellement des contenus ressemblants à partir de commandes textuelles.

Bien que ces technologies puissent être utilisées à des fins créatives ou ludiques, elles présentent des risques importants.

Désinformation, perte de crédibilité, constitution de fausses preuves, contenus pornographiques, montages scabreux ou suggestifs, les risques associés à ces techniques sont innombrables - et ce d’autant plus que ces deepfakes peuvent aisément faire l’objet d’une diffusion rapide et massive sur les réseaux sociaux.

L'arsenal juridique civil offre actuellement à la victime la possibilité de réagir, et les dispositions pénales seront bientôt renforcées pour appréhender ces pratiques et permettre d’y répondre efficacement.

I. Les fondements civils envisageables pour lutter contre les deepfakes

La personne victime d’un deepfake a la possibilité de mobiliser plusieurs catégories de droits :

  • La violation des droits de la personnalité :

L’image et la voix d’une personne sont des attributs de sa personnalité et leur protection constitue une composante essentielle de son épanouissement personnel.

En effet, la protection de la vie privée fondée sur l’article 9 du code civil présuppose la maîtrise par l’individu de son image et de sa voix. La jurisprudence a développé un droit prétorien permettant à toute personne de s’opposer à la diffusion, sans son autorisation expresse, de son image ou de sa voix en tant qu’attribut de sa personnalité. [1]

À titre illustratif, la cour de cassation a rappelé ce principe à plusieurs reprises : « Chaque personne dispose sur son image d’un droit exclusif qui lui permet de s’opposer à sa reproduction ». [2]

Or, les deepfakes sont par essence susceptibles de porter atteinte au droit à l’image et/ou à la voix d’une personne puisque la reprise de ses traits et/ou de ses intonations ont pour objectif de l’identifier personnellement.

Ainsi, la victime dispose de la possibilité de se fonder sur la violation de sa vie privée pour faire cesser les atteintes et obtenir la réparation de son préjudice.

Le simple fait que la victime ait jadis consenti à la captation ou à la diffusion de son image ou de sa voix n’est pas susceptible de légitimer le montage ou la diffusion litigieuse.

  • La violation des droits d’auteur ou des droits de l’artiste-interprète :

Les titulaires de droits de propriété intellectuelle tels que les droits d’auteur ou les droits voisins de l’artiste interprète, sont susceptibles de se défendre en cas de deepfakes réalisés en violation de leurs droits.

En effet, dans l’hypothèse où les concepteurs d’un deepfake ont utilisé, adapté ou exploité sans autorisation, tout ou partie d’une œuvre antérieure (musique, film, photographie) ou d’une interprétation tirée d’une œuvre artistique, ils s’exposent à des poursuites judiciaires fondées sur la contrefaçon des droits d’auteur ou des droits voisins.

Dans cette hypothèse, il conviendra cependant de prouver la reproduction, l’imitation ou l’adaptation de l’œuvre antérieure ou de son interprétation.

  • La violation des données à caractère personnel :

L’image ainsi que la voix d’une personne constituent des données à caractère personnel au sens de la réglementation.

En effet, en vertu du RGPD et de la Loi Informatiques et Libertés, les données à caractère personnel désignent toutes données permettant d’identifier directement ou indirectement une personne physique, telles que nom, prénom, image, voix etc.

Le traitement de données à caractère personnel désigne toute opération sur les données à caractère personnel, et notamment l’utilisation, la communication par transmission, diffusion ou toute autre forme de mise à disposition.

Ainsi, dans l’hypothèse d’un deepfake, le diffuseur se rend coupable de traitement illicite de données à caractère personnel s’il n’a pas recueilli l’autorisation expresse et préalable de la personne concernée.

Si la victime n’a jamais consenti aux traitements de ces données à caractère personnel, elle pourra solliciter la suppression de ces diffusions et saisir la CNIL en cas d’absence de réponse de l’auteur de la diffusion ou du réseau social.

II. Vers un renforcement des dispositions pénales pour lutter contre les deepfakes ?

Si le cadre actuel n’est pas dénué de tout instrument pour lutter contre les deepfakes, un projet de loi permettra prochainement de lutter plus efficacement contre ces usages.

  • Le cadre législatif actuel :

Les articles 226-1 et suivants du Code pénal relatifs aux atteintes à la vie privée sanctionnent d’un (1) an d’emprisonnement et de 45 000 euros d’amende la captation et la diffusion d’images d’un individu sans son consentement en ce que cette capture ou cette diffusion porte atteinte à l’intimité de sa vie privée. [3]

L’article 226-8 du Code pénal relatif à l’atteinte à la représentation de la personne punit quant à lui d’un (1) an d’emprisonnement et de 15 000 euros d’amende « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention ». [4]

Dans l’éventualité où l’auteur de l’atteinte ne serait pas directement identifiable, il sera possible de se retourner contre le réseau social ou contre l’hébergeur du site web litigieux sur lequel les contenus sont diffusés.

  • Les renforcements salvateurs attendus :

Un projet de loi visant à sécuriser et réguler l’espace numérique est actuellement en discussion au parlement. Deux amendements déposés par le gouvernement concernent spécifiquement les deepfakes. [5]

Le premier de ces aliénas a pour objet d’étendre la notion de montage aux deepfakes, que ceux-ci soient visuels ou sonores : « Est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de publier, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et reproduisant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention » ;

Le second alinéa a pour but objectif de lutter contre l’enjeu de « viralité » propre aux réseaux sociaux en introduisant une circonstance aggravante lorsque le deepfake a été publié sur un service de communication au public en ligne. Dans cette hypothèse, l’amendement propose que les peines soient alors portées à deux ans d’emprisonnement et 45.000 euros d’amende.

Par ailleurs, le gouvernement envisage d’enrichir la législation en introduisant un nouvel article 226-8-1 au Code pénal pour lutter contre les deepfakes à caractère sexuel.

Cette nouvelle disposition aurait pour objectif de condamner la diffusion sans consentement du montage ou de l’hypertrucage d’une personne présentant un caractère sexuel comme suit : « Est puni de deux ans d’emprisonnement et de 60 000 euros d’amende le fait de publier, sans son consentement, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne, et présentant un caractère sexuel. Est assimilé à l’infraction mentionnée au présent alinéa et puni des mêmes peines le fait de publier, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et reproduisant l’image ou les paroles d’une personne, sans son consentement, et présentant un caractère sexuel ».

*            *

      *

Reste à espérer que le droit s’organise rapidement afin de pouvoir lutter efficacement contre ces nouveaux usages qui induisent des risques sans précédents pour les personnes concernées.

Etienne Bucher

https://www.erisavocat.com/

[1] https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000006419288

[2] https://www.legifrance.gouv.fr/juri/id/JURITEXT000017637987/

[3] https://www.legifrance.gouv.fr/codes/id/LEGISCTA000006165309/

[4] https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000006417938

[5] https://www.senat.fr/enseance/2022-2023/778/Amdt_128.html