Nous l’avions annoncé, tout le monde en parlait, l’année 2026 sera celle des agents IA. Ces outils sont de plus en plus présents dans les processus et les méthodes de travail, avec les avantages et les risques qu’ils comportent.
En RH, les agents peuvent être une source importante de gain d’efficacité. Encore faut-il savoir comment les développer et les encadrer afin d’obtenir des résultats valides, éthiques et utiles.
Alors, tous les agents sont-ils égaux? Non, et nous allons voir la distinction entre les différents types d’agents.
Plusieurs entreprises du monde de l’IA proposaient déjà, en 2025, des agents dotés d’une autonomie assez intéressante.
Nous avions démontré le fonctionnement du mode agent de ChatGPT (OpenAI) lors du congrès CRHA, notamment pour réaliser de l’étalonnage concurrentiel sur le Web. Depuis, Google et Anthropic ont lancé, respectivement, des outils de type agentique ultraperformants, tels que Antigravity (Google), ainsi que Claude Code et Claude Cowork (Anthropic), pour ne nommer que ceux-là. Mais la grande révolution qui a bouleversé le marché, c’est le fameux OpenClaw, qui propose un degré d’autonomie aussi extraordinaire que risqué.
Alors, existe-t-il des avenues viables pour les agents IA en RH? Commençons par bien comprendre ce qu’est un agent IA.
Un agent IA est un programme doté d’un certain degré d’autonomie, capable de percevoir son environnement (programmes, données, systèmes, etc.), de raisonner afin d’établir un plan d’action et d’agir pour atteindre un objectif précis. Le mot clé de cette définition est bel et bien l’autonomie, car c’est elle qui fait toute la différence. Selon la définition de Bornet et Wirtz (2025)1, il existe cinq niveaux d’autonomie.
L’individu saisit une demande et la machine répond selon des règles prédéfinies. Ce type de système existe depuis longtemps. Il s’agit d’algorithmes qui sont programmés selon des règles précises pour réaliser une tâche.
Une fois que l’on a trouvé la recette, ces algorithmes sont très efficaces et présentent une très faible marge d’erreur. Cependant, ils sont très limités en matière de capacité d’adaptation à d’autres types de besoins et disposent de peu d’autonomie. Soit l’humain déclenche le processus, soit celui-ci est activé dans un contexte très précis défini par l’humain. Il s’agit avant tout d’une automatisation mécanique.
Exemple : chaque mois, vous transmettez un fichier Excel et, grâce à une automatisation, l’algorithme place des données spécifiques dans un autre tableau, permettant ainsi de créer des tableaux de bord.
À ce niveau, les agents possèdent, grâce à l’IA, une capacité à « comprendre » le texte (traitement du langage naturel), les contenus et à enrichir leurs calculs en fonction des données qu’ils reçoivent.
Exemple : une IA pourrait trier les courriels pour les classer en fonction des thématiques et même en développer de nouvelles afin d’améliorer la méthode de classification.
Ce type d’agent gère des processus complexes, mais requiert l’approbation d’un humain à certaines étapes clés.
Exemple : une IA pourrait trier des CV entrants, planifier des rendez-vous en fonction de votre agenda et envoyer des documents aux candidats et candidates en préparation de l’entrevue. Cependant, avant de confirmer un rendez-vous, elle pourrait vous solliciter votre approbation afin de valider vos préférences en matière de disponibilité.
Ce sont des agents capables de gérer des flux de travail de manière autonome dans un contexte donné, mais dont la performance pourrait s’avérer inefficace lorsque le contexte change.
Exemple : si une IA a été entraînée à classer les courriels selon les pratiques en vigueur dans votre succursale nord-américaine, elle pourrait devenir inefficace dans un autre contexte culturel, où son apprentissage ne lui permettrait pas d’interpréter correctement certains messages.
Un agent de niveau 5 va prendre toutes les décisions qu’il juge nécessaires pour atteindre l’objectif qui lui a été fixé, et ce, sans votre approbation et en fonction des informations dont il dispose.
Exemple : le fameux OpenClaw peut accéder aux dossiers et aux applications que vous leur avez indiqués à l’origine de votre demande et utiliser tous les outils auxquels ils ont accès pour réaliser la tâche. Ils pourraient décider d’envoyer des courriels ou encore de fouiller dans l’intégralité de vos données sans que vous en soyez avisé.
Bien entendu, à la lecture de la description des agents, vous avez sûrement eu une multitude d’idées du rôle que peut jouer un agent dans vos différents processus.
Toutefois, dans le contexte où notre profession est encadrée par un ordre professionnel (CRHA), ainsi que par des lois et des règlements très stricts, il est important de rappeler que les spécialistes en RH sont en tout temps responsables de ce qui est généré par la machine.
Le niveau 5 (pleinement autonome) est donc pour l’instant à proscrire, tant qu’on ne maîtrise pas pleinement cette technologie. Sachez que de nouvelles versions mieux contrôlées sont déjà en expérimentation (p. ex. NanoClaw).
Pour les agents de niveau 4 (agents semi-autonomes), il est tout à fait possible de les utiliser pourvu que les processus et le périmètre d’activité aient été clairement définis, testés et validés. Plus les RH perfectionneront l’automatisation intelligente des processus, plus elles pourront évoluer du niveau 2 au niveau 4.
Attention : il existe des règles (lois) qui encadrent l’automatisation. Par exemple, selon les juridictions pertinentes pour vos activités, certains articles de loi pourraient vous obliger à informer les individus lorsque le traitement de leurs candidatures est effectué de manière totalement automatisée. Prenez donc toujours la peine de valider la légalité de vos processus avec des professionnelles et professionnels du domaine. Cela dit, nous vous encourageons, en tant que spécialistes RH, à valider les décisions automatisées.
Il s’agit d’une avancée technologique très prometteuse pour notre domaine d’activité, où l’on retrouve un grand nombre de processus structurés. Elle nous permettra, sans l’ombre d’un doute, de nous éloigner des tâches mécaniques et répétitives pour nous consacrer à des activités à valeur ajoutée mettant à profit nos capacités humaines, telles que : notre vision, notre présence, notre empathie, notre créativité ou encore, notre jugement.
Emilie est cofondatrice et rédactrice en chef du e-magazine FacteurH.com ainsi qu'animatrice de l'émission Web VecteurH.
Didier Dubois a cofondé HRM Groupe en 2006 qui s'est joint à Humance en 2023.
Facteur H est un espace convivial de référence francophone en ressources humaines pour rester à l’affût des nouvelles tendances et trouver des solutions concrètes et applicables aux défis organisationnels d’aujourd’hui et de demain.