Depuis plusieurs années déjà, la plateforme YouTube a instauré un mécanisme de sanctions qui vise à favoriser des comportements responsables et la diffusion de contenus respectueux.
YouTube est une plateforme qui offre la possibilité aux créateurs de contenus de partager leurs vidéos en ligne. Ces mêmes vidéos sont vues, commenter, partager, aimer, par les utilisateurs qui constituent le socle de la communauté YouTube. Afin de générer des revenus, les vidéos sont proposés aux annonceurs afin d’y insérer leurs publicités. Le visionnage de ces publicités est une source de revenus pour les créateurs et la plateforme.
Cependant, dans certains cas, la plateforme se réserve le droit de démonétiser les vidéos, autrement dit d’arrêtait la diffusion de publicités sur la chaîne d’un créateur qui contreviendrait aux règles de la communauté.
Le règlement fixé par YouTube répond d’abord à des obligations légales qui lui incombent en tant qu’hébergeur et comprend dans une autre mesure les règles qui lui sont propres en tant qu’entreprise privée. Cependant le remaniement des outils de modération et le développement des sanctions prises à l’encontre des créateurs suscitent de nouvelles interrogations.
Peut-on considérer que la plateforme exerce des sanctions arbitraires à l’encontre de ces créateurs ?
- Le fondement des sanctions infligées par la plateforme YouTube envers les créateurs
- La régulation des contenus interdits sur les plateformes de partage
La plateforme YouTube en tant qu’hébergeur est soumise à un ensemble d’obligations légales. En France, la LCEN soumet les intermédiaires techniques tels que les hébergeurs et les fournisseurs d’accès à internet à un régime d’obligations et de responsabilité.
En outre, en tant que plateforme privée, elle se réserve le droit d’établir des règles qui sont les siennes.
- Les dispositions légales applicables aux hébergeurs
L’article 6 de la LCEN précise le régime spécial de responsabilité des hébergeurs. Ainsi un hébergeur ne peut pas voir sa responsabilité civile ou pénale engagée du fait des activités ou des informations stockées à la demande d’un destinataire de ces services s’il n’avait pas effectivement connaissance de leur caractère illicite ou si, dès le moment où il en a eu cette connaissance, il a agi promptement pour retirer ces données ou en rendre l’accès impossible.
Le même article impose aux hébergeurs ainsi qu’aux FAI une obligation de concourir à la lutte contre la diffusion de certaines infractions, compte tenu de l’intérêt général attaché à la répression de celles-ci. Ces infractions sont les suivantes : l’apologie des crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et leur apologie, l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, ainsi que des atteintes à la dignité humaine.
L’obligation de concourir à la lutte contre les contenus illicites susmentionnés se traduit par la mise en place d’un ensemble de dispositifs de la part des hébergeurs (dispositif de signalement par exemple).
Dans le même temps, en tant qu’intermédiaire technique, la plateforme est donc soumise au principe de neutralité du net consacré par loi n° 2016-1321 du 7 octobre 2016 pour une République numérique (Loi Lemaire).
On parle aussi de neutralité des réseaux ou encore d'internet ouvert. Son principe est de garantir l’égalité de traitement et d’acheminement de tous les flux d’information sur internet, quel que soit leur émetteur ou leur destinataire. Au-delà du point de vue purement technique, la neutralité renvoie par ailleurs à plusieurs enjeux économiques et sociaux essentiels : la liberté d’expression, la capacité d’innovation, la concurrence ouverte, la non-discrimination, la diversité des contenus…
- La régulation des contenus par la plateforme
Le partage de contenus illicites doit donc être encadré par la plateforme. Sont donc exclus d’office de la plateforme tous les contenus qui contreviendraient à la loi, c’est d’ailleurs ce que rappelle le règlement mis en place par la plateforme YouTube.
Pour faire face à leur responsabilité, les plateformes telles que YouTube utilisent divers procédés de modération.
Une partie de la modération est relayée à des modérateurs spécialement engagés pour filtrer les contenus. Ces embauches ne vont pas sans poser de problème. Il est possible de citer à titre d’exemple les troubles psychologiques qui en découlent pour les modérateurs exposés en continu à des contenus d’une extrême violence, mais également de l’opacité qui réside autour du travail de ces modérateurs soumis à des clauses de confidentialité très strictes.
Au-delà des opérations de filtrage effectuées par des êtres humains, les plateformes ont également recours à l’intelligence artificielle pour occuper des fonctions de modération. Si la reconnaissance automatique des images violentes ou pornographiques atteint aujourd’hui des scores performants, les dispositifs équivalents en matière d’analyse de discours présentent des marges d’erreur beaucoup plus importantes, multipliant les risques de censure abusive. Les contenus soumis à interprétation, comme c’est le cas des fausses informations ou des discours haineux, s’avèrent, en effet, plus difficiles à traiter par des procédures automatisées, dans la mesure où celles-ci peinent à prendre en considération les contextes de leur énonciation.
En outre, afin de prévenir les potentielles dérives qui pourraient voir le jour, un ensemble de sanctions sont prévues par la plateforme.
Dans un premier temps, les créateurs de contenus qui dérogent « aux règles de la communauté » se voient infliger une mise en garde. La mise en garde se transforme ensuite en avertissement, les sanctions se durcissent et si le créateur reçoit un troisième avertissement au bout de 90 jours, sa chaîne sera définitivement supprimée de la plateforme.
À titre d’exemple, il est possible de citer le youtubeur Logan Paul qui en 2017, avait publié une vidéo dans laquelle il se mettait scène avec des amis dans la forêt japonaise d’Aokigahara tristement célèbre pour ses suicides et y montrait un homme pendu. Le vlogueur américain aux seize millions d’abonnés s’était vu adresser un avertissement pour violation des conditions d’utilisation.
Malgré sa suppression, la vidéo a malheureusement refait surface. Le partage ou les procédés d’enregistrement ne permettent pas toujours de contrer la diffusion des contenus même supprimés.
Cet avertissement ne semble pas avoir suffi au créateur qui postait quelques semaines plus tard une nouvelle vidéo dans laquelle il s’attaquait à des rats morts à coups de taser. Face à ce nouveau scandale, la plateforme avait donc décidé de démonétiser le Youtubeur mais bien évidemment, la vidéo n’avait pas fait l’objet d’un retrait. Cependant, lorsque les vidéos sont démonétisées, elles ne sont plus mises en avant par l’algorithme.
A la suite de cette affaire, de nombreux internautes et groupes d’action ont mis en exergue le manque de modération de la plateforme et ont dénoncé l’opacité de ce système. Les critères qui président au retrait d’un contenu ne sont pas rendus publics, et les internautes ne disposaient jusqu’à récemment d’aucune voie de recours pour contester un retrait abusif. L’entrée en vigueur du DMA et du DSA courant 2023 devrait changer la donne.
- Les sanctions prévues pour des comportements des créateurs en dehors de la plateforme
Plus récemment, deux affaires impliquant deux youtubeurs français ont relancé le débat autour des sanctions prises par la plateforme à l’égard de ces créateurs de contenus. En effet, si jusqu’à présent les créateurs étaient souvent sanctionnés pour des contenus partagés en ligne dérogeant aux règles de la communauté, ce sont à présent les comportements en dehors de la plateforme qui sont visés.
La plateforme dispose d’une page spécifique sur laquelle elle rappelle toutes les règles applicables. Elle y définit « la responsabilité des créateurs », et fait mention du comportement des vidéastes hors de son site. Elle y résume les cas dans lesquels YouTube peut infliger une sanction, on retrouve notamment « Certains comportements sur la plate-forme et ailleurs peuvent également être considérés comme inappropriés et entraîner des sanctions ». Parmi les exemples, on trouve la « participation à des actes abusifs, violents ou cruels » ou encore « un comportement prédateur impliquant des communications au sujet de ou avec des mineurs ».
Il est possible d’interpréter ces sanctions comme une volonté de renforcer la prévention face à la « célébrité » qui peut parfois en amener plus d’un à commettre des faits répréhensibles par la loi.
En effet, YouTube souhaite avant tout garantir la sécurité et la confiance de ses utilisateurs qui représentent le moteur de son activité. En procédant à la démonétisation de la chaîne des créateurs mis en examen, cette dernière donne le ton aux autres créateurs et affiche une tolérance zéro à l’égard de tels comportements sanctionnés par la loi.
Il est aussi possible de s’interroger sur les préjudices d’images que de telles affaires provoquent pour cette dernière. En effet, en adoptant de telles mesures, cherche-t-elle simplement à ne pas entacher son image ? Dans un monde où tout est débat et où tout se sait à « vitesse grand V », les internautes pourraient se retourner contre la plateforme qui « implicitement » cautionnerait les vidéos postées par ces créateurs alors qu’ils font l’objet de poursuites judiciaires.
YouTube en tant qu’entreprise privée favorise une logique économique qui vise d’une part à protéger ses utilisateurs afin de conserver l’attractivité de la plateforme, mais également à protéger les annonceurs (clients de la plateforme) en ne les associant pas à des personnalités controversées.
- La remise en question de la légitimité de ces sanctions
- La question de la partialité des sanctions prises à l’encontre des créateurs
La pertinence de certaines sanctions a dernièrement fait l’objet de nombreuses controverses sur la toile. Entre les passe-droits accordés à certains créateurs et la régulation au profit des annonceurs, les créateurs de contenus font face à une pression plus importante.
Dernièrement, comme en témoignent de nombreux créateurs, la plateforme de vidéos en ligne a renforcé son outil de reconnaissance vocale en sanctionnant tous les créateurs prononçant des injures et des grossièretés. Certains d’entre eux ont dû trouver des astuces en ajoutant des bruits de censure ou des bruits d’animaux sur des vidéos déjà publiées afin d’en dissimuler tous les gros mots. Cette réglementation impacte directement les revenus des Youtubeurs. En effet les modifications de ce règlement sont rétroactives et sans préavis : elles s’appliquent donc immédiatement sur toutes les vidéos, y compris celles qui sont déjà en ligne parfois depuis plusieurs années.
Dans son règlement, YouTube indiquait déjà auparavant qu’un contenu pouvait être soumis à une limite d’âge, être supprimé ou avoir un avertissement s’il employait un usage excessif de langage vulgaire. Néanmoins, il semblerait que le durcissement des politiques du langage sur YouTube ne concernerait pas seulement les injures. En effet, sur Twitter, des streamers affirment même que certains mots seraient également bannis même s’il ne s’agit pas des mots vulgaires.
La plateforme semble engager un changement dans sa modération mais en faveur de qui ?
YouTube, de son côté justifie cette nouvelle règle par une meilleure optimisation monétaire du contenu produit sur la plateforme. En effet la plateforme est un intermédiaire assurant la mise en relation entre les annonceurs et les créateurs de contenus. Afin de protéger ses principaux clients, la plateforme mise donc sur des créateurs qui ne causeront aucun préjudice aux annonceurs avec qui elle travaille.
En outre, l’adoption du DSA n’a-t-elle pas créé une agitation au sein de la plateforme qui tente désormais de réguler plus sévèrement les contenus illicites afin de se préparer à son entrée en vigueur.
- Le difficile équilibre entre la régulation déléguée et la régulation privée des plateformes
Il est également possible de s’interroger sur les conséquences que ces sanctions peuvent provoquer. Vont-elles nuire à la présomption d’innocence ?
Récemment la plateforme a pris des mesures de sanctions contre des vidéastes accusés de viol, de harcèlement et de corruption de mineurs. Or ces accusations n’ont fait l’objet d’aucune poursuite et encore moins l’objet d’une décision de justice permettant de déclarer coupables les créateurs de contenu.
Ces sanctions provoquent des interrogations. La régulation privée va-t-elle prendre le pas sur la régulation déléguée ? Devra-t-on prendre en compte des anciennes condamnations de créateurs de contenu établis sur la plateforme ? Il est en effet possible que certains créateurs de contenu aient fait l’objet d’une condamnation judiciaire avant d’entamer des activités sur la plateforme.
Doit-on craindre qu’une forme de discrimination naisse de ces sanctions ? Ou doit-on interpréter ces sanctions comme des répercussions du préjudice d’image causé à la plateforme ?
De plus, qu’en est-il en cas d’erreur judiciaire ? En effet, le créateur qui se trouvera condamné devra-t-il être indemnisé dans le cas d’une erreur de justice ayant mené à ces sanctions sur la plateforme qui aujourd’hui, constitue le fonds de commerce de beaucoup de créateurs.
Les sanctions prises à l’égard des créateurs devraient peut-être se calquer sur les faits qui sont sanctionnés par la justice. En effet, à l’issue du procès qui a opposé Marvel Fitness à d’autres créateurs de la plateforme pour cyberharcèlement en meute, le créateur de contenu a vu sa chaîne démonétisée comme il le confie dans une de ses vidéos.
Enfin il est légitime de se demander si la plateforme cherche à incarner une seconde justice. Doit-on envisager et tolérer une régulation privée ?
Il faut peut-être envisager la possibilité d’une régulation déléguée (par les lois et les règlements) qui s’exécute en parallèle d’une régulation privée.
SOURCES :
- Qualification d’hébergeur retenue pour la société Dailymotion (pas de rôle actif) dans l’arrêt Cass. 1re civ., 17 févr. 2011, n° 09-67.896, Sté Nord-Ouest, Sté UGC Images et a. c/ Sté Dailymotion
- https://www.arcep.fr/nos-sujets/la-neutralite-du-net.html
- Règlement de YouTube https://support.google.com/youtube/answer/2802032?hl=fr
- https://support.google.com/youtube/answer/7650329?hl=fr
- Le cas de Logan Paul : https://www.lemonde.fr/pixels/article/2018/01/05/le-scandale-logan-paul-met-en-lumiere-les-gros-defauts-de-moderation-sur-youtube_5237956_4408996.html
- Les dérives de la modération en ligne : https://www.sudouest.fr/justice/contenus-offensants-les-stars-de-youtube-sont-elles-exemptees-de-sanctions-sur-la-plateforme-2508055.php
- La modération du contenu portant sur les armes à feu : https://www.armes-ufa.com/spip.php?article3316
- Les exemples des dérives de la modération sur YouTube : https://start.lesechos.fr/innovations-startups/tech-futur/la-grogne-des-youtubeurs-face-aux-nouvelles-regles-de-monetisation-1176471
- La modération sur YouTube : https://www.europe1.fr/medias-tele/youtube-devient-il-de-plus-en-plus-lisse-4165528
- DSA : https://eur-lex.europa.eu/legal-content/FR/TXT/PDF/?uri=CELEX:32022R2065&from=FR
- DSA : https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act
Pas de contribution, soyez le premier