1. Protection des œuvres générées par l’Intelligence Artificielle
En droit d’auteur, on débat de la possibilité de protéger les œuvres générées par l’IA générative et de la titularité de ces créations. Une œuvre est protégeable uniquement si elle est « originale », c’est-à-dire si elle exprime la personnalité de l’auteur à travers des choix libres et créatifs. Si l’on prend l’exemple de la photographie, l’auteur devra être en mesure d’expliquer ses choix concernant : la composition, la mise au point, la lumière, la post-production, etc.
Aujourd’hui, nous pouvons généralement conclure que, si la jurisprudence considère parfois comme originales les œuvres créées avec l’assistance de l’IA à condition de démontrer une intervention de l’auteur allant au-delà des simples « instructions », elle nie la protection aux œuvres générées de manière autonome par l’IA, c’est-à-dire celles où l’auteur se contente de fournir un « prompt » à la machine. Cette position est justifiée par le fait que les « prompts » ne seraient pas des instructions spécifiques et prévisibles et qu’elles ne seraient pas suffisamment créatives pour exprimer la personnalité de l’auteur.
À la lumière de votre expérience en tant que développeur de logiciels de machine learning et d’intelligence artificielle, quelle est votre opinion sur le manque de créativité des « prompts », sur l’absence d’expression de la personnalité de l’utilisateur, ainsi que sur l’imprévisibilité du résultat ? L’intervention humaine est-elle vraiment aussi limitée et insignifiante ?
Mon expérience dans le développement de logiciels basés sur des technologies de machine learning et d’IA, en particulier sur des modèles linguistiques avancés, m’a amené à reconnaître l’importance cruciale et l’impact significatif que l’écriture d’instructions efficaces a sur le résultat final des modèles d’IA. Ce phénomène, connu sous le nom d' »ingénierie des prompts », émerge comme un domaine d’étude spécifique, visant à optimiser les instructions pour obtenir de meilleurs résultats et plus pertinents.
Les « instructions » peuvent varier considérablement en termes de détail et de créativité. Par exemple, une instruction générique telle que « créer une image de paysage » peut produire un résultat largement imprévisible et peu personnalisé. En revanche, une instruction détaillée et bien conçue, qui spécifie l’heure de la journée, les caractéristiques environnementales et l’atmosphère souhaitée, démontre comment l’intervention humaine peut être profondément créative et refléter la personnalité de l’utilisateur. Ce type d’interaction suggère que l’humanité et la personnalité de l’auteur peuvent être transmises à travers les instructions, influençant significativement la production générative de l’IA.
La nature même de l’IA générative comporte un élément d’imprévisibilité ; fournir la même instruction à différents moments ou à différents modèles peut entraîner des résultats variables. Cette caractéristique peut être interprétée à la fois comme une limitation et comme une source de créativité, car la variété des résultats peut surprendre et dépasser les attentes initiales, conduisant à des créations uniques qui reflètent un dialogue entre l’intention humaine et la capacité de traitement de l’IA.
La créativité manifestée dans les œuvres générées par l’IA peut donc être vue comme un reflet de la créativité humaine, qui est intrinsèque aux données d’entraînement et aux instructions fournies via les « prompts ». Cela pose des questions fondamentales sur la nature de la créativité et de l’originalité. Les modèles d’IA, bien qu’ils soient capables de produire de nouvelles œuvres, reposent sur des données préexistantes, de manière similaire à ce qui se passe dans les processus créatifs humains, qui réinterprètent souvent et retravaillent des idées déjà connues.
La citation de Picasso, reprise par Steve Jobs, « Les bons artistes copient, les grands artistes volent », illustre efficacement ce concept. Picasso faisait référence à l’adoption et à l’adaptation d’idées existantes pour créer quelque chose de nouveau et de révolutionnaire, une pratique courante dans de nombreuses formes d’expression créative, y compris la technologie. Ce principe est également applicable dans le contexte de l’IA : les modèles d’IA « volent » des idées à partir des vastes données sur lesquelles ils sont entraînés pour créer quelque chose qui peut sembler nouveau et original. Le défi et l’opportunité pour les humains résident dans la manière de guider ce processus, en intégrant et en adaptant les résultats de l’IA de manière à refléter des intentions créatives et originales.
En conclusion, l’intervention humaine dans le processus de création au moyen de l’IA va bien au-delà de la simple formulation d’instructions. La spécificité, la créativité des instructions et la capacité d’interagir avec les résultats générés peuvent réellement refléter les choix créatifs et personnels de l’utilisateur. La question de la protection des œuvres générées par l’IA devrait donc prendre en compte la profondeur de l’interaction humaine dans le processus créatif. À cet égard, il est essentiel que, à l’avenir, la jurisprudence puisse reconnaître et évaluer adéquatement la contribution humaine, y compris l’utilisation innovante des instructions et la sélection critique des résultats, comme des éléments distinctifs de l’originalité et de la créativité dans les œuvres générées par l’IA.
2. « Certification » du processus créatif des œuvres générées par l’intelligence artificielle
À la lumière de ces considérations, dans l’éventualité où la position de la jurisprudence changerait, pour démontrer l’originalité, l’auteur devra être en mesure de garder la trace des « prompts » et de son dialogue avec la machine.
Je vous demande donc, comment archiver avec une date certaine votre « dialogue » avec l’intelligence artificielle ?
L’enregistrement avec date certaine du « dialogue » avec l’IA est une question essentielle pour garantir l’attribution et la propriété intellectuelle des créations générées avec des systèmes d’intelligence artificielle. Bien que la technologie pour certifier l’exactitude et la datation de tels dialogues soit disponible, son utilisation effective dépend d’un ensemble de facteurs, y compris la réglementation et l’accessibilité de ces outils aux différents utilisateurs.
Les grandes entreprises qui proposent des services d’intelligence artificielle disposent certainement des capacités techniques pour mettre en œuvre des systèmes de certification des données. Dans ce contexte, l’introduction de réglementations reconnaissant explicitement aux entreprises le rôle d’entités certificatrices pour les données générées via leurs services pourrait être utile. Cette approche pourrait faciliter la protection des créations générées avec l’assistance de l’IA, en fournissant un mécanisme clair et reconnu pour attester de leur origine et du moment de leur création.
Pour les modèles d’IA de plus petite taille, qui pourraient ne pas bénéficier du soutien des grandes entreprises, la situation est plus complexe. Dans ces cas, le développement et la mise en œuvre de services publics dédiés à la certification des dialogues avec l’IA pourraient offrir une solution. Ces services pourraient agir comme des intermédiaires neutres, fournissant des attestations de date certaine accessibles à tous les utilisateurs, quelle que soit l’échelle de leur utilisation de l’IA. À cet égard, les technologies décentralisées, telles que la blockchain, représentent une opportunité prometteuse pour relever ce défi. L’utilisation de la blockchain pour enregistrer les dialogues avec l’IA pourrait offrir une méthode sûre et transparente pour en certifier la date sans nécessiter d’entité certificatrice centrale.
3. Entrainement de l’intelligence artificielle, violation du droit d’auteur et l’exception du « data mining »
Pour constituer une violation de droit d’auteur, il est nécessaire que l’œuvre soit reproduite, c’est-à-dire fixée sur un support physique ou numérique. Dans les premières affaires de violation du droit d’auteur au cours de l’ »entrainement » de l’IA générative qui se déroulent outre-Atlantique, l’une des défenses des grandes entreprises technologiques consiste à affirmer que l’ »entrainement » de l’IA serait assimilable à l’apprentissage humain basé sur l’observation. Par conséquent, pendant l’ »entrainement », aucune copie numérique des œuvres ou des bases de données ne serait effectuée car les logiciels seraient capables d’extraire des données des œuvres ou des bases de données sans effectuer de copies numériques, même partielles des mêmes.
Qu’en pensez-vous, et quelle est votre opinion à ce sujet ? Et comment vérifier les sources de l’entraînement en l’absence d’une obligation de « divulgation » ?
D’un point de vue technique, il est correct d’affirmer que les « neural networks » à l’intérieur des modèles d’IA ne contiennent pas de copies numériques directes des œuvres. En effet, ils traitent et mémorisent des caractéristiques abstraites et des motifs détectés dans les données d’entraînement, les transformant en une série de paramètres mathématiques et de poids à l’intérieur du réseau. Ce processus permet aux modèles de générer des résultats nouveaux et uniques qui, bien qu’ils s’inspirent des données originales, ne sont pas des copies directes de celles-ci.
Cependant, pour pouvoir « apprendre » de cette manière, il est indéniable que les données originales doivent avoir été accessibles au système d’IA d’une manière ou d’une autre. Cela signifie qu’à un moment donné, les programmeurs et les entreprises ont dû charger et utiliser ces œuvres dans leurs systèmes pour l’entraînement. Ce processus soulève des questions juridiques et éthiques importantes concernant le droit d’auteur et l’utilisation d’œuvres protégées sans le consentement des titulaires des droits.
La vérification des sources utilisées pour l’entraînement des modèles d’IA en l’absence d’une obligation de « divulgation » est extrêmement difficile. Sans transparence obligatoire, il n’y a pas de moyen simple de déterminer exactement quelles données ont été utilisées pour entraîner un modèle spécifique. Cette opacité complique encore la question de la responsabilité et de la protection du droit d’auteur à l’ère de l’IA.
À cet égard, en Europe, on débat de la possibilité d’appliquer à l’IA générative l’exception du « data mining » prévue par la directive (UE) 2019/790. Cependant, cette exception ne s’applique pas si le titulaire du droit d’auteur a exercé son droit de « opt-out », c’est-à-dire s’il a exprimé son désaccord « de manière appropriée, notamment par des procédés lisibles par machine pour les contenus mis à la disposition du public en ligne. »
Quel est votre conseil pour les auteurs qui souhaiteraient communiquer leur désaccord avec l’utilisation d’une œuvre spécifique via des outils automatisés ? Peut-on imaginer une sorte de « watermark » invisible constitué de métadonnées à intégrer dans chaque contenu publié en ligne ?
Dans l’AI Act, il deviendra obligatoire pour certains modèles d’IA de publier les données avec lesquelles ils ont été formés. En même temps, il est nécessaire de protéger les droits de ceux qui ne souhaitent pas que leurs œuvres soient utilisées pour former ces technologies. La gestion de cette dynamique peut être relativement plus simple pour les modèles de grande taille développés par des entreprises de premier plan, qui sont soumises à un plus grand contrôle par les autorités. Cependant, la situation est plus compliquée pour les modèles plus petits, développés par de petites entreprises ou des programmeurs indépendants, où garantir le respect de ces droits peut être plus difficile. Dans ce contexte, la responsabilité et l’éthique de ceux qui produisent des modèles d’IA deviennent cruciales. L’éducation et la sensibilisation au respect du droit d’auteur devraient être encouragées au sein de la communauté des développeurs d’IA.
En ce qui concerne la communication du désaccord avec l’utilisation d’œuvres spécifiques, les auteurs pourraient envisager l’intégration de métadonnées, une sorte de « watermark » invisible, dans chaque contenu publié en ligne. Ces métadonnées pourraient contenir des informations claires sur les conditions d’utilisation de l’œuvre, y compris l’interdiction explicite d’entrainer des modèles d’IA sans le consentement de l’auteur. La mise en œuvre de telles métadonnées nécessiterait une standardisation et un soutien de la part des plateformes en ligne et des outils de publication, afin que les métadonnées soient reconnues et respectées par les systèmes d’IA lors de la collecte des données. De plus, il serait souhaitable de développer des technologies et des protocoles permettant de vérifier automatiquement le respect des conditions imposées par les auteurs, facilitant ainsi la tâche des autorités pour surveiller l’utilisation des données.
4. Responsabilité civile de l’intelligence artificielle
Restant sur le thème de la responsabilité, pouvons-nous parler de « prise de décision » autonome de l’IA ? Dans quelle mesure le programmeur influence-t-il la production et les décisions prises par l’IA, comme dans le cas de l’IA générative ou de la conduite autonome ?
La réflexion sur la possibilité d’attribuer une autonomie décisionnelle à l’intelligence artificielle (IA) et sur la responsabilité des actions entreprises par ses modèles soulève des questions fondamentales dans le domaine de l’éthique technologique et de la réglementation.
À l’heure actuelle, les systèmes d’IA, même les plus avancés, ne possèdent pas d’autonomie au sens humain. Ces systèmes fonctionnent en suivant des algorithmes et en traitant des données selon des paramètres et des logiques définis par leurs développeurs. Ce qui est parfois perçu comme une « autonomie » est en réalité le résultat de traitements mathématiques complexes, capables de simuler certains aspects de la logique ou du comportement humain mais sans conscience, intentionnalité ou émotions authentiques. La question de la responsabilité dans l’utilisation de l’IA est particulièrement complexe. La difficulté à interpréter les processus décisionnels des algorithmes d’IA, surtout dans les réseaux neuronaux de grande taille, rend difficile d’attribuer la responsabilité de manière claire et univoque. Cette incertitude s’étend à tous les acteurs impliqués : les développeurs, les fournisseurs de technologie et les utilisateurs finaux. Les développeurs et les programmeurs, à travers les choix techniques et les critères de formation des modèles, influencent de manière significative le comportement des algorithmes. Cependant, la difficile interprétation de ces systèmes peut rendre complexe, voire impossible, de prévoir ou d’expliquer toutes les réponses possibles de l’IA à des situations non rencontrées auparavant lors de la phase de formation. De plus, la question de la responsabilité est d’autant plus compliquée lorsque l’IA est mise en œuvre dans des applications critiques, telles que les systèmes de conduite autonome, où des décisions erronées peuvent avoir des conséquences directes sur la sécurité des personnes. Dans ces contextes, déterminer qui est responsable – le créateur de l’algorithme, le fabricant du véhicule, l’utilisateur final ou une combinaison de ceux-ci – est un défi qui nécessite un examen juridique et éthique attentif.
Dans ce contexte, éviter l’anthropomorphisation de l’IA est fondamental pour maintenir une compréhension claire de ses capacités et limites. Attribuer à l’IA des qualités humaines telles que la conscience ou l’intentionnalité peut conduire à des attentes irréalistes ou à des évaluations erronées de son fonctionnement et de sa fiabilité. La nécessité d’une réglementation claire et de lignes directrices éthiques est évidente, afin de garantir que l’utilisation de l’IA soit sûre, éthique et légalement responsable. Cette réglementation devrait tenir compte de la complexité technique des systèmes d’IA et de la chaîne de responsabilité, de la conception à l’utilisation finale. Aborder ces questions est essentiel pour exploiter les avantages de l’IA tout en minimisant les risques associés à sa mise en œuvre dans la société.
Pas de contribution, soyez le premier