L’intelligence artificielle (IA) est une technologie permettant à des machines d’analyser leur environnement, de traiter des données, de résoudre des problèmes et d’adapter leur comportement, parfois de manière autonome.
Cette définition, souvent perçue comme abstraite, prend désormais une importance très concrète dans la vie professionnelle, tant l’IA s’invite aujourd’hui dans les décisions RH les plus courantes.
L’intelligence artificielle transforme en profondeur le monde du travail, notamment les décisions RH : tri des CV, analyse des lettres de motivation, évaluation des tests de personnalité ou de compétence, analyse des performances, recommandations d’avancement, scoring des comportements, propositions de sanctions, gestion des plannings, prédiction des absences…
Ces outils promettent efficacité et objectivité, mais ils peuvent également introduire des risques sérieux pour l’égalité de traitement des salariés et la transparence des décisions.
Ces dispositifs sont souvent présentés comme neutres et objectifs. Pourtant, ils peuvent produire des erreurs, amplifier des discriminations ou conduire à des décisions opaques. L’opacité technique, combinée à l’absence d’information des salariés, crée un terrain propice aux injustices.
L’IA dans la prise de décision de l’employeur : un phénomène bien réel mais invisible
L’un des aspects les plus préoccupants de l’introduction de l’intelligence artificielle dans les entreprises est sa discrétion. Dans de nombreux cas, les salariés ne savent pas qu’un algorithme a influencé — parfois de manière décisive — une décision les concernant.
Cette invisibilité est d’autant plus problématique que l’usage de ces outils s’étend rapidement, sans toujours être annoncé.
L’IA intervient désormais à différents stades :
Au stade du recrutement, l’IA peut filtrer des candidatures avant même qu’un recruteur n’ouvre un CV. Elle élimine automatiquement les profils jugés « non pertinents » selon des critères parfois opaques. Elle repère des mots‑clés, identifie des tournures, analyse des expériences. Certains outils proposent même une évaluation comportementale à partir du ton d’une voix ou d’une vidéo d’entretien.
Au stade de l’évaluation, de plus en plus d’entreprises utilisent l’IA pour analyser la performance des salariés. Elle traite des objectifs, détecte des « anomalies » et s’appuie sur des modèles prédictifs pour anticiper les résultats.
Tout au long de la carrière, certains outils identifient des salariés considérés comme « haut potentiel », recommandent des promotions, des augmentations, des mobilités ou des bonus.
En matière disciplinaire, l’employeur peut utiliser des systèmes de surveillance algorithmique détectant retards, comportements jugés déviants ou pauses considérées comme trop longues.
Selon les analyses juridiques récentes, ces systèmes peuvent générer des décisions RH biaisées, imprécises voire tout à fait illicites lorsqu’ils ne sont pas correctement encadrés.
Le risque ne vient pas seulement de l’algorithme lui‑même, mais surtout de l’absence de contrôle humain réel.
L’IA peut intégrer des données incomplètes, commettre des erreurs d’interprétation et reproduire ou amplifier des biais liés à l’âge, au sexe, à l’origine, au handicap ou au lieu de résidence.
Sans vigilance, ces biais s’invitent dans des décisions qui engagent l’avenir professionnel d’une personne.
Comment reconnaître qu’une IA a influencé la décision de l’employeur ?
Il est parfois difficile de savoir si une décision a été influencée par un outil d’IA. L’IA laisse rarement des traces visibles et son intervention est souvent présentée comme un simple soutien technique.
Pourtant, certains signaux doivent alerter :
Une décision prise très rapidement, formulée de manière quasi identique pour plusieurs personnes, ou accompagnée d’une justification très limitée constitue un premier indice. Ce type de réponse standardisée révèle souvent qu’un algorithme a pré‑classé des dossiers avant toute intervention humaine. La rapidité extrême d’un refus, ou au contraire un classement inattendu et inexpliqué, doit interroger.
Un discours insistant sur les données, les scores, les correspondances statistiques ou les analyses automatisées peut aussi trahir un recours à des outils prédictifs. Lorsque l’on vous explique qu’il s’agit d’un “outil d’aide à la décision”, cela signifie généralement que l’IA a déjà joué un rôle déterminant.
Si l’évaluation repose exclusivement sur des indicateurs chiffrés, sans contextualisation ou prise en compte d’éléments qualitatifs, l’usage d’un système algorithmique est probable. Les outils de mesure de productivité “en temps réel” ou de surveillance automatisée en sont des exemples typiques.
Enfin, l’impossibilité d’obtenir une explication individualisée, cohérente et compréhensible doit alerter. Une décision qui ne peut être expliquée rationnellement par un humain n’est pas conforme au cadre légal.
Le Code du travail, le RGPD et l’IA Act : trois protections complémentaires
Le Code du travail impose que toute décision affectant un salarié — recrutement, sanction, évaluation — soit justifiée et que le contrat de travail soit exécuté de bonne foi.
L’employeur doit donc pouvoir expliquer la décision, indépendamment d’un outil automatisé.
Le RGPD renforce cette protection en interdisant les décisions entièrement automatisées produisant des effets juridiques, sauf conditions strictes, et en imposant une information claire sur l’usage des données.
Cela signifie qu’un salarié peut exiger qu’une décision le concernant soit revue par un humain compétent.
Avec l’IA Act, l’Europe va plus loin : les outils RH deviennent des systèmes à haut risque, soumis à des obligations de traçabilité, de supervision humaine et de prévention des biais.
Les entreprises doivent désormais démontrer que leurs outils IA ne produisent ni discriminations ni résultats arbitraires.
Ensemble, ces trois cadres juridiques forment un rempart contre les dérives algorithmiques et garantissent que la technologie ne prenne pas le pas sur les droits fondamentaux des salariés.
Ils affirment un principe essentiel : la décision finale doit rester humaine, maîtrisée et juridiquement justifiable.
Faire valoir ses droits
Lorsque l’IA influence une décision, les salariés ont le droit – et même l’intérêt – de demander des explications, d’exiger une intervention humaine effective et de contester toute évaluation ou mesure disciplinaire entachée d’erreur ou de biais.
Les employeurs doivent assumer la responsabilité des outils qu’ils utilisent, les contrôler, les documenter et garantir qu’ils n’entraînent aucune discrimination.
Face à une décision rapide, incompréhensible ou manifestement injuste, il ne faut pas hésiter à faire valoir vos droits pour rétablir l’équilibre.
La technologie ne peut pas – et ne doit jamais – prendre le pas sur les garanties fondamentales dues à chaque salarié.

Pas de contribution, soyez le premier