En matière d’IA, une chose est claire: les membres du personnel ont déjà pris de l’avance. Selon KPMG, la proportion des employées et employés déclarant utiliser l’intelligence artificielle à des fins professionnelles est passée de 54% en 2022 à 67% en 2024. Pourtant, seulement 39 % d’entre eux ont reçu une formation formelle, et près de la moitié (48%) admet avoir une connaissance limitée de ces outils.
Ce décalage n’est pas anodin. Il révèle une fracture entre l’appétit technologique des équipes et les structures de gouvernance mises en place par les organisations. Dans plusieurs entreprises, l’accès est restreint à des outils «maison» comme Copilot (dans sa version la plus prudente), mais sur le terrain, on observe une tout autre réalité: des membres de l’équipe qui, de leur propre initiative et parfois à leurs frais, utilisent ChatGPT, Claude ou Gemini, sans approbation formelle.
Bienvenue à l’ère du Shadow IA.
Inspiré du concept bien connu de Shadow IT, le Shadow IA désigne l’utilisation d’outils ou de modèles d’intelligence artificielle par des employées et employés sans validation ni supervision des services informatiques ou des comités de gouvernance de données.
Cela peut aller de l’utilisation ponctuelle de ChatGPT pour résumer un rapport jusqu’à l’intégration plus poussée d’agents conversationnels dans des processus métier. Le tout, sans contrôle.
Ce phénomène peut sembler anodin, voire ingénieux. Pourtant, il expose les organisations à une série de risques critiques, souvent invisibles… jusqu’à ce qu’il soit trop tard.
Ce n’est pas un phénomène marginal ni isolé à quelques individus innovateurs intrépides. Selon une étude récente d’IBM, 79% des employées et employés de bureau canadiens utilisent déjà l’IA dans leur quotidien professionnel. Pourtant, seulement un quart d’entre eux le fait à travers des solutions validées par leur organisation.
Autrement dit: trois quarts des gens qui utilisent l’IA le font dans l’ombre. On a déjà vu ce film; souvenez-vous des réseaux sociaux. Les entreprises interdisaient Facebook ou YouTube sur leurs réseaux internes, mais leurs équipes y accédaient via leur téléphone personnel. Aujourd’hui, ce même scénario se répète, mais avec des implications autrement plus sérieuses.
Les outils d’IA grand public ne respectent pas toujours les politiques de sécurité de l’entreprise. En saisissant des informations sensibles, des données clients, des stratégies internes, des codes sources, dans des interfaces non sécurisées, les membres du personnel ouvrent la porte à des fuites de données majeures, voire à des cyberattaques.
Les réglementations comme le RGPD en Europe ou la HIPAA aux États-Unis encadrent strictement l’utilisation des données personnelles. Or, plusieurs outils d’IA n’offrent aucune garantie sur la gestion des données une fois traitées dans leurs serveurs. En cas de non-conformité, les conséquences peuvent être lourdes, tant sur le plan légal que réputationnel.
Au-delà de la sécurité, l’IA fantôme nuit à la cohérence. En laissant leurs équipes bricoler leurs propres solutions, les organisations se retrouvent avec des silos d’information, des doublons, voire des contradictions. Cela mine la qualité des décisions, la traçabilité des données et l’alignement stratégique.
Mais attention à ne pas jeter le bébé avec l’eau du bain. Si l’IA fantôme existe, c’est parce que les employées et employés sont curieux, créatifs et proactifs. Ce n’est pas un problème de mauvaise foi, mais un symptôme d’un environnement qui ne répond pas à leurs besoins d’agilité.
Et c’est là que le rôle des RH devient essentiel. Ce phénomène nous force à revoir notre posture: au lieu d’interdire, pourquoi ne pas encadrer intelligemment? En analysant les usages «fantômes» et en écoutant les besoins réels de leurs équipes, les organisations peuvent transformer cette énergie souterraine en levier d’innovation.
Encadrer l’IA, ce n’est pas la brider. C’est offrir un cadre clair, éthique et sécurisé pour que tout le monde puisse l’utiliser avec confiance. Et dans ce cadre, les RH deviennent les architectes d’une culture numérique responsable. Pas en dictant les outils, mais en facilitant les usages. Pas en contrôlant, mais en responsabilisant.
Ignorer le Shadow IA, c’est comme fermer les yeux en espérant que l’orage passe. Mais la réalité, c’est que les usages sont déjà là. Alors, mieux vaut accepter, comprendre et encadrer. Non pas pour freiner l’innovation, mais pour la canaliser. Le défi est clair: passer d’une posture défensive à une stratégie de transformation. Et ça commence par une question simple: vos équipes utilisent déjà l’IA. Que faites-vous avec cette réalité?
KPMG (2025). Trust in AI 2025. https://kpmg.com/fr/fr/media/press-releases/2025/04/trust-in-ai-2025.html
IBM Canada (2024). Étude sur l’IA fantôme au Canada. https://www.newswire.ca/fr/news-releases/etude-d-ibm-l-utilisation-de-l-ia-fantome-augmente-alors-que-les-travailleurs-canadiens-devancent-les-employeurs-dans-l-adoption-de-l-ia-827607994.html
Emilie est cofondatrice et rédactrice en chef du e-magazine FacteurH.com ainsi qu'animatrice de l'émission Web VecteurH.
Didier Dubois a cofondé HRM Groupe en 2006 qui s'est joint à Humance en 2023.
Facteur H est un espace convivial de référence francophone en ressources humaines pour rester à l’affût des nouvelles tendances et trouver des solutions concrètes et applicables aux défis organisationnels d’aujourd’hui et de demain.