Personne ne veut avoir à faire ce genre de choix. Pourtant, c’est exactement ce à quoi certains concepteurs d’algorithmes doivent réfléchir. C’est le fameux « dilemme du tramway »[1] appliqué à l’intelligence artificielle. Et même si votre organisation n’a pas l’intention de concevoir des voitures autonomes, elle devra tôt ou tard faire face à des dilemmes, certes moins dramatiques, mais tout aussi fondamentaux. Qui peut accéder aux données? Comment prévenir les biais dans les modèles? À quel moment faut-il une supervision humaine?
Ces dilemmes ne se règlent pas par une politique. Ils exigent une charte.
Il est essentiel de bien distinguer la charte d’IA de la politique d’IA.
Voici les composantes clés les plus récurrentes d’une charte d’IA, telles que proposées dans le document de référence. Il n’y a malheureusement pas de modèles prédéfinis pour toutes les organisations, car dans chacune d’elle, ces composantes soulèvent des questions en lien avec le contexte spécifique. Bâtir une charte, c’est ouvrir une discussion sur les principes fondamentaux qui guident vos actions, et ce n’est pas toujours simple.
Les systèmes d’IA doivent pouvoir être compris par les humains. Même si un modèle est complexe, il doit rester possible de justifier ses décisions et de les expliquer simplement à ceux qu’il affecte. Sans explicabilité, pas de confiance. L’objectif n’est pas d’expliquer l’algorithme, mais plutôt de circonscrire les contextes d’utilisation et d’être capable d’expliquer comment cela s’inscrit dans un processus que vous êtes en mesure d’expliquer.
Qui est responsable des décisions prises par une IA? Il doit toujours y avoir un humain ou une structure responsable. Ce principe protège les individus et les organisations, en permettant la correction des erreurs et la gestion des risques. Les questions qui se posent alors sont : qu’est-ce qui doit être vérifié par l’humain? Comment et dans quel contexte? Si vous devez tout revérifier ou refaire pour valider le résultat, est-ce rentable d’utiliser l’IA? Si certains de vos employés sont membres d’un ordre professionnel, renseignez-vous sur le cadre fourni par leur ordre.
Les données, c’est le carburant de l’IA. Il est impératif de garantir leur sécurité, leur confidentialité et leur exactitude (et le respect de la Loi 25 au Québec, ou encore le RGPD en Europe). Une IA performante repose sur des données propres, bien gérées et protégées.
L’IA ne fonctionne pas en vase clos. Son utilisation doit être conforme aux lois, aux règlements et aux normes en vigueur. Cela comprend la protection des droits individuels, le respect des règles en lien avec la protection des données que nous avons mentionné, des lois fiscales, contractuelles et tout autre cadre législatif pertinent.
Informerez-vous vos clients et partenaires de votre utilisation de l’IA? Dans quels contextes? Êtes-vous prêts à communiquer ouvertement sur ses capacités, ses limites, et les impacts possibles? La transparence renforce la confiance.
La charte doit stipuler l’importance de garantir l’origine et les droits d’utilisation des données et des modèles d’IA. La traçabilité et le respect de la propriété intellectuelle sont au cœur d’une approche responsable. Mais la question est ,où mettrez-vous la ligne? Est-il approprié pour votre organisation que ses employés demandent à l’IA d’écrire un texte « dans le style » d’un auteur connu ou « en se mettant dans la peau » de cette personne? Où s’arrête l’inspiration et où commence le plagiat?
L’IA est un outil. Elle doit servir les humains, pas les remplacer. Ce principe défend une approche centrée sur l’humain : maintenir la supervision, préserver le jugement, et éviter la déshumanisation des décisions. Le principe est logique et intuitif. Mais une fois mentionné, comment le ferez-vous vivre? Comment ferez-vous pour planifier l’arrivée progressive de l’IA tout en préservant la pertinence du travail des employés qui l’utilisent? Quels sont les postes ou les employés vulnérables? Qu’allez-vous mettre en place pour développer des compétences durables pour vos équipes?
Enfin, une charte sans ancrage éthique n’a pas de valeur. Il s’agit de guider chaque étape du développement et de l’usage de l’IA avec les plus hautes normes morales, au service du bien commun et du respect de la dignité humaine. Comment s’assurer que votre utilisation de l’IA sera cohérente avec les valeurs de votre entreprise?
La politique vient en complément essentiel. Une fois les principes établis par la charte, la politique peut les traduire en règles concrètes, valides légalement, comme interdire l’usage de certains outils génératifs, ou définir les rôles dans la gouvernance de l’IA.
Elle s’appuie donc sur les fondations posées par la charte pour donner un cadre opérationnel et juridique aux projets d’IA de l’organisation.
Construire une charte d’IA, c’est prendre le temps de réfléchir avant d’agir. C’est poser les balises qui permettront à vos équipes de développer et d’utiliser des outils performants sans perdre leur âme ni votre réputation.
Alors, que vous soyez une PME curieuse ou une grande entreprise en pleine transformation numérique, commencez par vous poser la vraie question : quelles valeurs voulez-vous programmer dans vos machines?
Emilie est cofondatrice et rédactrice en chef du e-magazine FacteurH.com ainsi qu'animatrice de l'émission Web VecteurH.
Didier Dubois a cofondé HRM Groupe en 2006 qui s'est joint à Humance en 2023.
Facteur H est un espace convivial de référence francophone en ressources humaines pour rester à l’affût des nouvelles tendances et trouver des solutions concrètes et applicables aux défis organisationnels d’aujourd’hui et de demain.