Dév. organisationnelDroit du travailLeadershipRémunérationSanté/sécuritéMarketing RH

L’IA, les dilemmes et vous

emilie new facteur h
Emilie Pelletier
photo profil reseaux sociaux didier
Didier Dubois 3 juin 2025

Si vous aviez à choisir entre écraser deux médecins de 40 ans ou deux adolescents de 15 ans, que feriez-vous?

Personne ne veut avoir à faire ce genre de choix. Pourtant, c’est exactement ce à quoi certains concepteurs d’algorithmes doivent réfléchir. C’est le fameux « dilemme du tramway »[1] appliqué à l’intelligence artificielle. Et même si votre organisation n’a pas l’intention de concevoir des voitures autonomes, elle devra tôt ou tard faire face à des dilemmes, certes moins dramatiques, mais tout aussi fondamentaux. Qui peut accéder aux données? Comment prévenir les biais dans les modèles? À quel moment faut-il une supervision humaine?

Ces dilemmes ne se règlent pas par une politique. Ils exigent une charte.

Charte ou politique : deux outils, deux vocations

Il est essentiel de bien distinguer la charte d’IA de la politique d’IA.

  • Une politique (ou une directive) est un document obligatoire, souvent juridique, rédigé pour encadrer une conduite précise (p. ex., interdiction de l’utilisation de certains outils, protection des données). Elle est détaillée, contraignante, et liée à des obligations légales. Et surtout, elle vieillit vite : les outils changent, la technologie évolue, et ce qui était pertinent hier ne l’est plus nécessairement aujourd’hui.
  • Une charte, quant à elle, est un document de principes. Elle sert de boussole éthique. C’est un texte plus court, solennel, qui guide les décisions stratégiques et les évaluations des projets d’IA dans le temps. Elle permet l’alignement organisationnel et favorise un dialogue continu sur les usages et les valeurs, indépendamment des outils du moment.
Les fondations d’une charte d’IA

Voici les composantes clés les plus récurrentes d’une charte d’IA, telles que proposées dans le document de référence. Il n’y a malheureusement pas de modèles prédéfinis pour toutes les organisations, car dans chacune d’elle, ces composantes soulèvent des questions en lien avec le contexte spécifique. Bâtir une charte, c’est ouvrir une discussion sur les principes fondamentaux qui guident vos actions, et ce n’est pas toujours simple.

1. Explicabilité

Les systèmes d’IA doivent pouvoir être compris par les humains. Même si un modèle est complexe, il doit rester possible de justifier ses décisions et de les expliquer simplement à ceux qu’il affecte. Sans explicabilité, pas de confiance. L’objectif n’est pas d’expliquer l’algorithme, mais plutôt de circonscrire les contextes d’utilisation et d’être capable d’expliquer comment cela s’inscrit dans un processus que vous êtes en mesure d’expliquer.

2. Responsabilité

Qui est responsable des décisions prises par une IA? Il doit toujours y avoir un humain ou une structure responsable. Ce principe protège les individus et les organisations, en permettant la correction des erreurs et la gestion des risques. Les questions qui se posent alors sont : qu’est-ce qui doit être vérifié par l’humain? Comment et dans quel contexte? Si vous devez tout revérifier ou refaire pour valider le résultat, est-ce rentable d’utiliser l’IA? Si  certains de vos employés sont membres d’un ordre professionnel, renseignez-vous sur le cadre fourni par leur ordre.

3. Intégrité et sécurité des données

Les données, c’est le carburant de l’IA. Il est impératif de garantir leur sécurité, leur confidentialité et leur exactitude (et le respect de la Loi 25 au Québec, ou encore le RGPD en Europe). Une IA performante repose sur des données propres, bien gérées et protégées.

4. Citoyenneté

L’IA ne fonctionne pas en vase clos. Son utilisation doit être conforme aux lois, aux règlements et aux normes en vigueur. Cela comprend la protection des droits individuels, le respect des règles en lien avec la protection des données que nous avons mentionné, des lois fiscales, contractuelles et tout autre cadre législatif pertinent.

5. Transparence

Informerez-vous vos clients et partenaires de votre utilisation de l’IA? Dans quels contextes? Êtes-vous prêts à communiquer ouvertement sur ses capacités, ses limites, et les impacts possibles? La transparence renforce la confiance.

6. Propriété intellectuelle

La charte doit stipuler l’importance de garantir l’origine et les droits d’utilisation des données et des modèles d’IA. La traçabilité et le respect de la propriété intellectuelle sont au cœur d’une approche responsable. Mais la question est ,où mettrez-vous la ligne? Est-il approprié pour votre organisation que ses employés demandent à l’IA d’écrire un texte « dans le style » d’un auteur connu ou « en se mettant dans la peau » de cette personne? Où s’arrête l’inspiration et où commence le plagiat?

7. Place de l’humain

L’IA est un outil. Elle doit servir les humains, pas les remplacer. Ce principe défend une approche centrée sur l’humain : maintenir la supervision, préserver le jugement, et éviter la déshumanisation des décisions. Le principe est logique et intuitif. Mais une fois mentionné, comment le ferez-vous vivre? Comment ferez-vous pour planifier l’arrivée progressive de l’IA tout en préservant la pertinence du travail des employés qui l’utilisent? Quels sont les postes ou les employés vulnérables? Qu’allez-vous mettre en place pour développer des compétences durables pour vos équipes?

8. Éthique

Enfin, une charte sans ancrage éthique n’a pas de valeur. Il s’agit de guider chaque étape du développement et de l’usage de l’IA avec les plus hautes normes morales, au service du bien commun et du respect de la dignité humaine. Comment s’assurer que votre utilisation de l’IA sera cohérente avec les valeurs de votre entreprise?

Et la politique, dans tout ça?

La politique vient en complément essentiel. Une fois les principes établis par la charte, la politique peut les traduire en règles concrètes, valides légalement, comme interdire l’usage de certains outils génératifs, ou définir les rôles dans la gouvernance de l’IA.

Elle s’appuie donc sur les fondations posées par la charte pour donner un cadre opérationnel et juridique aux projets d’IA de l’organisation.

Conclusion : choisir l’intention avant l’action

Construire une charte d’IA, c’est prendre le temps de réfléchir avant d’agir. C’est poser les balises qui permettront à vos équipes de développer et d’utiliser des outils performants sans perdre leur âme ni votre réputation.

Alors, que vous soyez une PME curieuse ou une grande entreprise en pleine transformation numérique, commencez par vous poser la vraie question : quelles valeurs voulez-vous programmer dans vos machines?

Partagez
emilie new facteur h
À propos de Emilie Pelletier

Emilie est cofondatrice et rédactrice en chef du e-magazine FacteurH.com ainsi qu'animatrice de l'émission Web VecteurH.

En savoir plus
photo profil reseaux sociaux didier
À propos de Didier Dubois

Didier Dubois a cofondé HRM Groupe en 2006 qui s'est joint à Humance en 2023.

En savoir plus

Facteur H est un espace convivial de référence francophone en ressources humaines pour rester à l’affût des nouvelles tendances et trouver des solutions concrètes et applicables aux défis organisationnels d’aujourd’hui et de demain.

Contactez-nous
© Facteur H - Tous droits réservés 2025 | Conception de site web par TactikMedia
crossmenuarrow-right