Derrière la banalisation des chiffrages de dossier en droit du travail issus des IA génératives se cache une question que le discours dominant évite : et si leur défaillance n'était pas contingente, mais structurelle ? Tentative de réponse, entre épistémologie du contentieux social et chantier déontologique ouvert.
Le phénomène ne se discute plus. Des clients, salariés ou employeurs, consultent désormais leur avocat en droit du travail munis d'un montant issu d'un modèle conversationnel, présenté comme une évaluation de leur dossier. La figure est devenue banale. Et le discours qui l'accompagne s'est installé dans une formule : l'outil se tromperait encore, mais « il faudrait vérifier ». Cette manière de poser le problème manque pourtant l'essentiel.
Le présupposé implicite est celui d'un défaut technique, susceptible d'être corrigé à mesure que les modèles s'améliorent. Il faut l'interroger. L'hypothèse défendue ici est autre. Chiffrer un dossier en droit du travail n'est pas une opération que l'on peut réduire au calcul. C'est une opération juridictionnelle, contradictoire, stratégique, qui mobilise trois actes irréductibles : la qualification juridique, l'appréciation probatoire et l'anticipation des conduites. Aucun de ces trois actes ne relève de la logique inférentielle des grands modèles de langage. L'impossibilité n'est donc pas technique. Elle est épistémique.
Le propos qui suit en tire deux conséquences. D'abord, sur le plan descriptif, en revenant sur ce qu'est réellement le chiffrage d'un dossier prud'homal (I), et sur les raisons pour lesquelles la logique d'un LLM y échoue par construction (II). Ensuite, sur le plan prospectif, en esquissant les chantiers déontologiques et réglementaires que cette situation ouvre — définition de la consultation juridique, qualification au regard de l'AI Act, triangle de responsabilité (III).
I. Le chiffrage d'un dossier prud'homal comme opération juridictionnelle irréductible
A. L'acte de qualification : un jugement normatif
Chiffrer suppose d'abord qualifier. Et qualifier, c'est choisir. Un même récit peut relever d'un licenciement pour cause non réelle et sérieuse, d'une nullité, d'une prise d'acte, d'une résiliation judiciaire ou d'une rupture conventionnelle contestée. Or ces régimes ne se superposent pas : ils s'excluent.
L'article L. 1232-1 du Code du travail pose l'exigence de cause réelle et sérieuse. Lorsque celle-ci fait défaut, l'article L. 1235-3 encadre l'indemnité entre des minima et maxima fixés par tranche d'ancienneté et, pour certains planchers, par taille d'entreprise. Si le licenciement est nul, le régime bascule vers l'article L. 1235-3-1, lequel écarte le barème et prévoit un plancher de six mois de salaire lorsque la réintégration n'est pas retenue. Deux régimes indemnitaires exclusifs l'un de l'autre. Un même récit, deux chiffrages possibles — parfois du simple au triple.
Le débat sur la conventionnalité du barème a été tranché. Dans deux arrêts rendus en formation plénière, la chambre sociale de la Cour de cassation a retenu la conformité du dispositif à l'article 10 de la convention n° 158 de l'Organisation internationale du travail et refusé le contrôle de conventionnalité in concreto [[Cass. soc., formation plénière, 11 mai 2022, n° 21-14.490]]. Elle a simultanément nié l'effet direct horizontal de l'article 24 de la Charte sociale européenne révisée [[Cass. soc., formation plénière, 11 mai 2022, n° 21-15.247]]. Il en résulte un cadre juridique stabilisé, dans lequel il reste au juge du fond une appréciation de situation, encadrée par la fourchette légale. Cette appréciation — voilà le point — n'est ni mécanique, ni probabilisable : elle procède d'un jugement normatif.
B. L'appréciation probatoire : un exercice contradictoire mouvant
La valeur d'un dossier ne se mesure pas à son récit, mais à ce qui peut être démontré. Deux situations apparemment jumelles peuvent avoir une valeur contentieuse radicalement différente selon la qualité des pièces et le régime probatoire applicable. En matière de harcèlement moral, l'article L. 1154-1 du Code du travail institue un mécanisme d'aménagement de la charge de la preuve : il appartient au salarié de présenter des éléments de fait laissant supposer l'existence d'un harcèlement, à charge pour l'employeur de démontrer que les agissements invoqués relèvent d'éléments objectifs étrangers à tout harcèlement. Ce régime particulier, d'inspiration communautaire, n'a aucun équivalent dans la simple description d'une situation.
Le terrain probatoire est surtout mouvant. L'Assemblée plénière de la Cour de cassation a opéré, fin 2023, un revirement de jurisprudence majeur sur la recevabilité de la preuve obtenue de manière déloyale. Elle juge désormais que, dans un procès civil, l'illicéité ou la déloyauté dans l'obtention ou la production d'un moyen de preuve ne conduit pas nécessairement à l'écarter des débats, le juge devant apprécier la proportion entre le droit à la preuve et les droits antinomiques en présence [[Cass. ass. plén., 22 déc. 2023, n° 20-20.648]]. Ce glissement est capital. Il signifie qu'une pièce hier irrecevable peut aujourd'hui fonder un licenciement, et inversement. La valeur d'un dossier dépend donc d'un cadre probatoire en mouvement, contextualisé, contradictoire — qu'un modèle figé par son corpus d'entraînement ne peut pas actualiser en temps réel et, surtout, ne sait pas appliquer à des pièces qu'il n'a jamais eues sous les yeux.
C. L'anticipation stratégique : modéliser l'adversité, non projeter un texte
Le chiffrage transactionnel obéit encore à une autre logique. Il ne s'agit plus de calquer une décision hypothétique du juge, mais d'évaluer ce qu'un accord raisonnable peut produire, compte tenu du temps, du risque procédural, de l'exposition réputationnelle de l'employeur, de l'appétence au contentieux des parties. La prescription joue son rôle d'aiguillage : l'action portant sur la rupture du contrat de travail est enfermée dans un délai de douze mois à compter de la notification, conformément à l'article L. 1471-1 du Code du travail, tandis que les actions salariales relèvent d'un régime distinct. La transaction, elle, obéit aux articles 2044 et suivants du Code civil — logique de compromis, non de liquidation.
Cet exercice d'anticipation est relationnel. Il se joue dans un rapport de force, pas dans une équation.
II. La logique inférentielle des LLM : un échec structurel
A. Vraisemblance textuelle n'est pas validité normative
Un grand modèle de langage produit, token après token, la suite la plus probable au regard de son corpus d'entraînement et de l'invite reçue. Ce n'est pas un raisonnement juridique. Cela ressemble à un raisonnement juridique. La nuance est essentielle.
Un syllogisme juridique articule une majeure normative, une mineure factuelle et une conclusion opposable. Un LLM ne distingue pas la norme du texte qui la décrit. Il peut en conséquence mobiliser une règle générale là où une disposition conventionnelle plus favorable s'applique, retenir un plafond là où une nullité ouvre un plancher, agréger des postes indemnitaires que le droit tient pour exclusifs. Le nombre qui en ressort s'inscrit dans un énoncé cohérent — il ne renvoie à aucune opération juridique vérifiable. On peut l'appeler chiffrage halluciné : crédible à la lecture, creux à la vérification.
Une illustration, pour fixer le propos. Un employeur produit, dans une procédure de licenciement pour faute grave, l'enregistrement clandestin d'un entretien informel. Avant le 22 décembre 2023, la preuve était mécaniquement écartée ; depuis, le juge doit procéder à une mise en balance concrète, apprécier si la production du document était indispensable à l'exercice du droit à la preuve et si l'atteinte aux droits antinomiques demeurait proportionnée. Un LLM entraîné sur un corpus antérieur au revirement continuera de proposer le raisonnement ancien — avec un chiffrage correspondant à un licenciement sans cause réelle et sérieuse. Un modèle plus récent aura intégré la nouvelle solution, mais sans savoir, dans le dossier qui lui est soumis, si les conditions de proportionnalité sont ou non réunies, faute de disposer des pièces. Dans les deux cas, la sortie chiffrée est juridiquement inopérante : elle repose soit sur une règle dépassée, soit sur une règle correcte appliquée à un récit qui ne la conditionne pas. Le droit vit dans les pièces et dans les arrêts récents. Le LLM, par construction, ne vit ni dans les unes, ni dans les autres.
B. Un chiffrage sans pièces
Quand bien même la qualification serait plausible, demeure un obstacle plus fondamental : le modèle raisonne sur un récit, jamais sur un dossier. Or c'est précisément dans l'écart entre l'information et la démonstration que se loge la valeur contentieuse. Peser la force d'une attestation au sens de l'article 202 du Code de procédure civile, apprécier la recevabilité d'un enregistrement clandestin au regard du test de proportionnalité issu du revirement de décembre 2023, juger de la cohérence d'une chronologie au vu des pièces versées : rien de cela n'est accessible à un outil qui n'a accès qu'à une description textuelle des faits. Deux dossiers strictement identiques dans leur récit peuvent ainsi recevoir le même chiffrage algorithmique alors que leur valeur juridique diffère, selon la pratique, dans un rapport de un à quatre.
C. La projection d'un scénario, non l'anticipation d'un rapport de force
Dernière limite, souvent sous-estimée : le LLM ne modélise pas l'adversité. Il ne connaît pas le coût du temps, ne pondère pas la rationalité de l'employeur, n'intègre pas la probabilité d'un rejet partiel ou d'une requalification. Nourri aux argumentaires écrits, il tend mécaniquement à l'agrégation maximale des postes de préjudice. L'effet sur la négociation est délétère : le justiciable arrive avec une ancre artificielle qui durcit la discussion avant même qu'elle ne commence, et déplace le point d'équilibre d'une transaction qui aurait pu aboutir.
Ces trois limites ne sont pas des défauts d'entraînement à corriger dans une version ultérieure. Elles tiennent à ce qu'est, structurellement, un modèle statistique de langage.
III. Chantier prospectif : déontologie, AI Act, responsabilité
A. La consultation juridique à l'épreuve de l'IA
L'article 54 de la loi n° 71-1130 du 31 décembre 1971 réserve la consultation juridique aux professions habilitées. Encore faut-il s'entendre sur la notion. Depuis 2011, le Conseil national des barreaux la définissait comme une prestation intellectuelle personnalisée tendant, sur une question posée, à la fourniture d'un avis ou d'un conseil fondé sur l'application d'une règle de droit en vue, notamment, d'une éventuelle prise de décision. L'adjectif « intellectuelle » opérait silencieusement un double filtre : il renvoyait à une réflexion humaine et il excluait, en creux, l'information juridique documentaire.
L'essor des IA génératives a brouillé cette ligne. Une prestation peut désormais être personnalisée — adaptée au cas posé par l'utilisateur — sans reposer sur un travail intellectuel au sens propre, dès lors que la sortie est produite par un modèle statistique sans intervention humaine. Le Conseil national des barreaux a tiré les conséquences de ce décalage par une décision de son Assemblée générale du 12 décembre 2025. Sur un rapport de sa Commission de l'exercice du droit, l'Assemblée a acté la suppression du terme « intellectuelle » dans la proposition de définition, privilégiant une approche centrée sur la finalité de la prestation. La nouvelle rédaction définit la consultation juridique comme une prestation personnalisée tendant, sur une question posée, à la fourniture d'un avis ou d'un conseil fondé sur l'application d'une règle de droit en vue, notamment, d'une éventuelle prise de décision.
Le déplacement mérite attention. L'institution a refusé l'option alternative qui consistait à maintenir la définition de 2011 au motif que la responsabilité du conseil juridique demeurerait humaine, même en cas d'usage d'outils automatisés. Elle a préféré protéger la qualification par la finalité — la prestation vise-t-elle à éclairer une prise de décision juridique personnalisée ? — plutôt que par la nature des opérations mobilisées en amont. Par voie de conséquence, l'Assemblée a donné mandat à la commission des règles et usages de proposer une modification du Règlement intérieur national précisant que l'avocat est tenu de réaliser une prestation intellectuelle au service de ses clients. Le qualificatif n'est pas supprimé : il est déplacé. Du côté de la définition de la consultation, il tombe ; du côté de l'obligation professionnelle de l'avocat, il demeure. Cette dissociation est fine. Elle permet de préserver le périmètre du droit sans créer la fiction d'une consultation « intellectuelle » que certains outils ne pratiquent plus, tout en ancrant la responsabilité sur le professionnel.
B. L'AI Act : question ouverte plutôt que réponse arrêtée
Le règlement (UE) 2024/1689 du 13 juin 2024, publié au Journal officiel de l'Union européenne le 12 juillet 2024, s'applique par étapes. Les interdictions relatives aux pratiques inacceptables sont entrées en vigueur le 2 février 2025. Les obligations sur les modèles à usage général sont applicables depuis le 2 août 2025. Les règles relatives aux systèmes à haut risque listés à l'annexe III, parmi lesquels figurent ceux destinés à être utilisés dans l'administration de la justice, seront pleinement applicables le 2 août 2026.
Il faut toutefois se garder d'une lecture hâtive. Le règlement vise expressément, au point 8 de l'annexe III, les systèmes utilisés par ou pour le compte d'une autorité judiciaire pour aider à rechercher et interpréter les faits et le droit, ainsi qu'à appliquer le droit à un ensemble concret de faits. La qualification d'un usage conversationnel généraliste, détourné par le justiciable ou son conseil vers le chiffrage d'un dossier, n'est pas automatique. L'article 6, paragraphe 3, prévoit en outre une clause d'exception : un système relevant d'un domaine de l'annexe III échappe à la classification à haut risque lorsqu'il n'exécute qu'une tâche procédurale étroite, améliore une activité humaine existante, ou se borne à détecter des schémas sans influencer la décision. La frontière est donc poreuse.
Subsiste en revanche une autre obligation, moins remarquée mais structurellement importante. L'article 50 du règlement impose, indépendamment de la classification en haut risque, que les systèmes d'IA destinés à interagir directement avec des personnes physiques soient conçus de telle sorte que les intéressés soient informés qu'ils interagissent avec une IA, sauf évidence contextuelle. Cette obligation est applicable à compter du 2 août 2026 et concerne l'ensemble des modèles conversationnels grand public. Elle ne règle pas la question du chiffrage en tant que tel, mais elle ancre un principe : la sortie d'un LLM ne peut se présenter comme la parole humaine qu'elle imite. C'est une première brique. D'autres sont à poser.
C. Le triangle de responsabilité
Trois foyers de responsabilité s'esquissent, qu'il convient de distinguer.
Celui de l'éditeur du modèle, d'abord. Sur le fondement de l'article 1240 du Code civil, une action en responsabilité civile demeure concevable, sous réserve d'établir la faute, le dommage et le lien de causalité — exercice complexe lorsque la sortie litigieuse résulte d'une interaction avec l'utilisateur. Le règlement européen apporte un premier étage normatif : documentation technique, gestion des risques, transparence, surveillance post-commercialisation sont des obligations qui, lorsqu'elles sont applicables, créent des standards objectivables. Leur violation pourra alimenter, en droit interne, la caractérisation d'un manquement fautif.
Celui de l'utilisateur, ensuite. Le salarié ou l'employeur qui oppose à son cocontractant un chiffrage issu d'une IA n'est pas pour autant libre de tout reproche. Diffuser un montant présenté comme un droit acquis, l'articuler à une mise en demeure, en faire le point de départ d'une rupture des négociations : autant de conduites susceptibles, selon les circonstances, d'engager la responsabilité de leur auteur. La question se posera avec une particulière acuité dans les contentieux de rupture où le chiffrage initial aura faussé l'ensemble du rapport de force.
Celui de l'avocat, enfin, qui est doublement exposé. D'un côté, s'il s'appuie sur une sortie d'IA sans la soumettre à un contrôle propre, il manque à l'exigence de compétence qui gouverne l'exercice professionnel et peut engager sa responsabilité. De l'autre, s'il n'exerce pas son devoir pédagogique en face d'un client venu avec un chiffrage préconstitué, il laisse s'installer une ancre qu'il devra ensuite défaire — au prix parfois d'une perte de confiance. Le Conseil national des barreaux a d'ailleurs adopté, en 2024 puis complété depuis, un guide sur la déontologie et l'intelligence artificielle générative, rappelant les exigences cardinales de la profession : secret professionnel, prudence, indépendance, information du client, compétence. Le document opérationnel est là. Il reste à la jurisprudence d'en tracer les contours contentieux.
Conclusion
En échouant à chiffrer, le LLM rappelle a contrario ce qu'est un chiffrage : un acte de qualification, une pesée probatoire, une anticipation stratégique. Trois opérations de jugement, irréductibles au calcul. Cette révélation en creux mérite d'être accueillie plutôt que déplorée. Elle renvoie la profession à ce qui fait sa singularité : non pas la maîtrise d'un savoir que la machine pourrait un jour accumuler, mais l'exercice d'un discernement que la logique statistique ne reproduira pas — parce qu'il suppose des pièces, une contradiction, un sens du temps et une lecture du rapport de force.
L'enjeu qui s'ouvre n'est donc pas de résister à l'IA. Il consiste à rappeler, et si nécessaire à redire devant le législateur, les juridictions et les clients eux-mêmes, que le droit ne se décrète pas à partir d'un prompt. Une sortie plausible n'est pas une opération juridique ; un nombre cohérent n'est pas un droit ; une prestation automatisée n'est pas une consultation. La réponse déontologique et réglementaire à ces équivalences trompeuses ne fait que commencer. Elle occupera les prochaines années.
Sources
- Code du travail, art. L. 1232-1, L. 1235-3, L. 1235-3-1, L. 1154-1, L. 1471-1 — https://www.legifrance.gouv.fr/codes/texte_lc/LEGITEXT000006072050/
- Code civil, art. 1240 et 2044 — https://www.legifrance.gouv.fr/codes/texte_lc/LEGITEXT000006070721/
- Code de procédure civile, art. 202 — https://www.legifrance.gouv.fr/codes/texte_lc/LEGITEXT000006070716/
- Cass. soc., formation plénière, 11 mai 2022, n° 21-14.490 (conformité du barème Macron à l'article 10 de la convention OIT n° 158) — https://www.courdecassation.fr/decision/627baf3e45b02805d407c3d5
- Cass. soc., formation plénière, 11 mai 2022, n° 21-15.247 (absence d'effet direct horizontal de l'article 24 de la Charte sociale européenne) — https://www.courdecassation.fr/decision/627baf3e45b02805d407c3d6
- Cass. ass. plén., 22 décembre 2023, n° 20-20.648 (recevabilité de la preuve déloyale sous condition de proportionnalité) — https://www.legifrance.gouv.fr/juri/id/JURITEXT000048769030
- Loi n° 71-1130 du 31 décembre 1971 portant réforme de certaines professions judiciaires et juridiques, art. 54 — https://www.legifrance.gouv.fr/loda/id/LEGITEXT000006068396/
- Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle (AI Act) — https://eur-lex.europa.eu/eli/reg/2024/1689/oj?locale=fr
- CNIL, entrée en vigueur du règlement européen sur l'IA — https://www.cnil.fr/fr/entree-en-vigueur-du-reglement-europeen-sur-lia-les-premieres-questions-reponses-de-la-cnil
- CNB, Assemblée générale du 12 décembre 2025 : modification de la proposition de définition de la consultation juridique — https://www.cnb.avocat.fr/fr/actualites/le-cnb-modifie-sa-proposition-de-definition-de-la-consultation-juridique-pour-ladapter-aux-enjeux-de
- CNB, Guide sur la déontologie et l'intelligence artificielle — https://cnb.avocat.fr/actualite/le-cnb-adopte-un-guide-sur-la-deontologie-et-l-intelligence-artificielle
- Convention OIT n° 158, art. 10 — https://www.ilo.org/fr/normlex

Pas de contribution, soyez le premier