Dév. organisationnelDroit du travailLeadershipRémunérationSanté/sécuritéMarketing RH

Le Shadow IA et le grand déni

Emilie Pelletier
Emilie Pelletier
Didier Dubois
Didier Dubois 1 octobre 2025

En matière d’IA, une chose est claire: les membres du personnel ont déjà pris de l’avance. Selon KPMG, la proportion des employées et employés déclarant utiliser l’intelligence artificielle à des fins professionnelles est passée de 54% en 2022 à 67% en 2024. Pourtant, seulement 39 % d’entre eux ont reçu une formation formelle, et près de la moitié (48%) admet avoir une connaissance limitée de ces outils.

Ce décalage n’est pas anodin. Il révèle une fracture entre l’appétit technologique des équipes et les structures de gouvernance mises en place par les organisations. Dans plusieurs entreprises, l’accès est restreint à des outils «maison» comme Copilot (dans sa version la plus prudente), mais sur le terrain, on observe une tout autre réalité: des membres de l’équipe qui, de leur propre initiative et parfois à leurs frais, utilisent ChatGPT, Claude ou Gemini, sans approbation formelle.

Bienvenue à l’ère du Shadow IA.

Shadow IA: définition d’un phénomène en pleine croissance

Inspiré du concept bien connu de Shadow IT, le Shadow IA désigne l’utilisation d’outils ou de modèles d’intelligence artificielle par des employées et employés sans validation ni supervision des services informatiques ou des comités de gouvernance de données.

Cela peut aller de l’utilisation ponctuelle de ChatGPT pour résumer un rapport jusqu’à l’intégration plus poussée d’agents conversationnels dans des processus métier. Le tout, sans contrôle.

Ce phénomène peut sembler anodin, voire ingénieux. Pourtant, il expose les organisations à une série de risques critiques, souvent invisibles… jusqu’à ce qu’il soit trop tard.

Une réalité qu’on ne peut plus ignorer

Ce n’est pas un phénomène marginal ni isolé à quelques individus innovateurs intrépides. Selon une étude récente d’IBM, 79% des employées et employés de bureau canadiens utilisent déjà l’IA dans leur quotidien professionnel. Pourtant, seulement un quart d’entre eux le fait à travers des solutions validées par leur organisation.

Autrement dit: trois quarts des gens qui utilisent l’IA le font dans l’ombre. On a déjà vu ce film; souvenez-vous des réseaux sociaux. Les entreprises interdisaient Facebook ou YouTube sur leurs réseaux internes, mais leurs équipes y accédaient via leur téléphone personnel. Aujourd’hui, ce même scénario se répète, mais avec des implications autrement plus sérieuses.

Les risques du Shadow IA: sous-estimés mais bien réels
1. Risques de sécurité

Les outils d’IA grand public ne respectent pas toujours les politiques de sécurité de l’entreprise. En saisissant des informations sensibles, des données clients, des stratégies internes, des codes sources, dans des interfaces non sécurisées, les membres du personnel ouvrent la porte à des fuites de données majeures, voire à des cyberattaques.

2. Risques juridiques et réglementaires

Les réglementations comme le RGPD en Europe ou la HIPAA aux États-Unis encadrent strictement l’utilisation des données personnelles. Or, plusieurs outils d’IA n’offrent aucune garantie sur la gestion des données une fois traitées dans leurs serveurs. En cas de non-conformité, les conséquences peuvent être lourdes, tant sur le plan légal que réputationnel.

3. Inefficacité opérationnelle

Au-delà de la sécurité, l’IA fantôme nuit à la cohérence. En laissant leurs équipes bricoler leurs propres solutions, les organisations se retrouvent avec des silos d’information, des doublons, voire des contradictions. Cela mine la qualité des décisions, la traçabilité des données et l’alignement stratégique.

Et si c’était aussi une opportunité déguisée?

Mais attention à ne pas jeter le bébé avec l’eau du bain. Si l’IA fantôme existe, c’est parce que les employées et employés sont curieux, créatifs et proactifs. Ce n’est pas un problème de mauvaise foi, mais un symptôme d’un environnement qui ne répond pas à leurs besoins d’agilité.

Et c’est là que le rôle des RH devient essentiel. Ce phénomène nous force à revoir notre posture: au lieu d’interdire, pourquoi ne pas encadrer intelligemment? En analysant les usages «fantômes» et en écoutant les besoins réels de leurs équipes, les organisations peuvent transformer cette énergie souterraine en levier d’innovation.

Encadrer l’IA, ce n’est pas la brider. C’est offrir un cadre clair, éthique et sécurisé pour que tout le monde puisse l’utiliser avec confiance. Et dans ce cadre, les RH deviennent les architectes d’une culture numérique responsable. Pas en dictant les outils, mais en facilitant les usages. Pas en contrôlant, mais en responsabilisant.

Conclusion: la peur n’est pas une stratégie

Ignorer le Shadow IA, c’est comme fermer les yeux en espérant que l’orage passe. Mais la réalité, c’est que les usages sont déjà là. Alors, mieux vaut accepter, comprendre et encadrer. Non pas pour freiner l’innovation, mais pour la canaliser. Le défi est clair: passer d’une posture défensive à une stratégie de transformation. Et ça commence par une question simple: vos équipes utilisent déjà l’IA. Que faites-vous avec cette réalité?

Partagez
Emilie Pelletier
À propos de Emilie Pelletier

Emilie est cofondatrice et rédactrice en chef du e-magazine FacteurH.com ainsi qu'animatrice de l'émission Web VecteurH.

En savoir plus
Didier Dubois
À propos de Didier Dubois

Didier Dubois a cofondé HRM Groupe en 2006 qui s'est joint à Humance en 2023.

En savoir plus

Facteur H est un espace convivial de référence francophone en ressources humaines pour rester à l’affût des nouvelles tendances et trouver des solutions concrètes et applicables aux défis organisationnels d’aujourd’hui et de demain.

Contactez-nous
© Facteur H - Tous droits réservés 2025 | Conception de site web par TactikMedia
crossmenuarrow-right