Dév. organisationnelDroit du travailLeadershipRémunérationSanté/sécuritéMarketing RH

IA générative : potentiel énorme pour les entreprises ou dilemme éthique?

tessa new
Tessa Anaya 31 octobre 2023

La technologie de l'IA générative gagne en popularité, mais les entreprises suivent-elles des directives pour réglementer son utilisation? GetApp a interrogé des québécois qui se servent des applications de l'IA générative afin de connaître leur avis sur ces outils et sur la manière d'en tirer le meilleur parti.

 

Si les capacités de la technologie de l'IA générative offrent des possibilités considérables, elles suscitent également quelques inquiétudes. Selon une étude de Gartner, 70 % des organisations considèrent l'utilisation éthique et durable de l'IA (article en anglais) comme l'une de leurs principales préoccupations.


Une approche responsable de la mise en place de la technologie de l'IA générative permet aux organisations d'établir un rapport de confiance avec leurs employés, les parties prenantes et les clients. Alors que le Canada n'a pas encore adopté de loi spécifique à l'IA, les législateurs canadiens se penchent sur son utilisation pour la prise de décision automatisée. La loi applicable au secteur privé québécois (Loi sur la protection des renseignements personnels au Québec), amendée par le projet de loi n° 64, est pionnière en matière de législation qui réglemente la prise de décision automatique.

 

Dépendance excessive à l'IA et protection de la vie privée parmi les principales préoccupations éthiques

Selon Avivah Litan, analyste chez Gartner, les motifs d'inquiétudes les plus fréquents en matière d'IA générative (article en anglais) concernent la confiance, la sécurité, les trucages, la protection des données, les “hallucinations”, les risques liés à la cybersécurité et les questions de droit d'auteur.

 

Comme les modèles d'IA générative sont généralement entraînés sur d'importants volumes de données provenant de diverses sources, dont Internet, l'une de ces sources de données pourrait être inconnue, ce qui, dans certains cas, serait susceptible de porter préjudice aux entreprises. Prenons l'exemple d'une entreprise pharmaceutique qui dépendrait d'une formule produite par un logiciel d'IA générative pour la molécule d'un médicament qui serait protégée par un brevet et exposerait cette entreprise à des risques juridiques.

 

Nous avons également demandé aux personnes interrogées ce qui les inquiétait le plus en matière d'IA générative.

Ill FacteurH nov 2023 TA im1

Pour approfondir cette question, nous avons demandé aux personnes interrogées quels étaient les risques auxquels s'exposait leur entreprise lorsqu'elle utilisait les outils d'IA générative. Près de la moitié des personnes interrogées (47 %) considèrent que les risques liés à la cybersécurité viennent en tête de liste, suivis par les risques concernant la protection de la vie privée (35 %), le manque d'explications (30 %) et les risques juridiques et de conformité (27 %).

 

Pour répondre aux préoccupations éthiques des entreprises concernant l'utilisation de l'IA générative, les organisations devraient soumettre les résultats provenant des modèles de l'IA générative à des examens manuels et rigoureux pour identifier les résultats biaisés ou les fausses informations.

 

Comment les personnes interrogées contrôlent-elles la qualité des résultats produits par les outils de l'IA générative ?

Les logiciels de l'IA générative risquent de produire des résultats inattendus car ils sont entraînés sur de vastes ensembles de données provenant de sources multiples qui ne sont pas forcément vérifiées ni fiables. Il faut donc s'assurer de l'exactitude des résultats générés.

 

Pour nous assurer que les employés qui se servent ouvertement de l'IA générative au travail vérifient l'exactitude des résultats obtenus, nous leur avons demandé comment ils s'y prenaient. Nous avons identifié plusieurs options permettant d'évaluer l'exactitude des données.

  • 38 % des utilisateurs interrogés déclarent que leur entreprise recueille les commentaires des employés par le biais d'enquêtes.
  • 31 % disent comparer les résultats humains aux résultats de l'IA.
  • 25 % déclarent qu'une équipe spécialisée évalue les résultats.
  • 24 % disposent d'indicateurs clés de performance (ICP) pour contrôler les résultats de l'IA générative.
  • 22 % déclarent que leur entreprise ne contrôle pas ces résultats pour l'instant, mais pensent qu'elle devrait commencer à le faire.
  • Seules 4 % des personnes interrogées déclarent ne pas contrôler les résultats et ne pas juger nécessaire de le faire.


Sachant que seuls 4 % des utilisateurs ne contrôlent pas les résultats générés par les logiciels de l'IA, il serait sans doute utile de mettre en place des techniques et des méthodes permettant aux entreprises d'effectuer ces contrôles de manière régulière.


Les entreprises ont-elles mis en place une réglementation pour l'utilisation des applications de l'IA générative au travail?

La sécurité est un facteur essentiel à prendre en compte lors de l'introduction de toute nouvelle technologie dans les activités de l'entreprise. L'utilisation de l'IA générative peut concerner des informations sensibles, telles que les dossiers des clients, du contenu commercial ou des données financières essentielles aux activités d'une entreprise.


De fait, notre étude révèle que 79 % des employés québécois interrogés informent leur entreprise qu'ils utilisent l'IA générative au travail, tandis que 21 % d'entre eux ne le font pas.


Informer la direction de l'utilisation d'outils de l'IA générative peut épargner aux employés des risques tels que des attaques de cybersécurité ou des problèmes de droits d'auteur. Les travailleurs devraient idéalement obtenir le consentement de leurs responsables ou employeurs lorsqu'ils se servent des outils de l'IA générative, afin de pouvoir le faire à bon escient. Toute organisation devrait aussi communiquer clairement les consignes d'utilisation des logiciels de l'IA générative à leurs employés afin que ceux-ci puissent s'en servir si nécessaire.


Quelques facteurs à prendre en compte lors de l'établissement d'une politique d'utilisation de l'IA générative pour votre entreprise

  • Garantir le respect de la vie privée : les outils de l'IA générative recueillent des informations afin de produire des résultats. À ce titre, les employeurs devraient indiquer clairement aux employés qu'aucune information commerciale sensible ou confidentielle ne doit être partagée en tant qu'invité lors de l'utilisation des logiciels de l'IA générative.
  • Éviter toute partialité : les outils de l'IA générative peuvent présenter une certaine partialité, car ces modèles sont entraînés sur des quantités massives de données provenant de différentes sources qui peuvent être biaisées. Par exemple, si les données utilisées pour entraîner un logiciel de l'IA générative proviennent d'une source en faveur d'un sexe ou d'une origine spécifique, le système pourrait produire des résultats biaisés. Bien qu'il soit probablement impossible d'éliminer complètement ce problème, les entreprises devraient contrôler les résultats générés par l'IA pour éviter et corriger les erreurs ou résultats biaisés.
  • Viser la transparence : les entreprises devraient clairement mentionner dans leur document leur politique concernant l'utilisation par leurs employés des logiciels de l'IA dans leurs tâches quotidiennes. Elles devraient également indiquer à leurs clients ou partenaires commerciaux si et comment ces logiciels sont utilisés en rapport avec leurs services/produits.


Impact de l'IA générative sur l'emploi

Le développement des logiciels de l'IA générative, tels que Midjourney et ChatGPT, permet désormais de rédiger des articles, de générer des codes de programmation et de créer des modèles commerciaux en quelques secondes. Les employés pourraient donc craindre que l'IA ne remplace leur travail dans les années à venir.


Nous avons demandé aux personnes interrogées ce qu'elles en pensent et voici leurs réponses :

Ill FacteurH nov 2023 TA im2
Ill FacteurH nov 2023 TA im2


Sans surprise, 34 % des personnes interrogées se disent plutôt inquiètes, tandis que 28 % ne sont pas sûres de l'impact de cette technologie sur leur emploi. Par ailleurs, 24 % estiment que l'IA générative ne constitue pas une menace pour leur emploi. Dans l'ensemble, on remarque une certaine incertitude quant à l'impact de cette technologie sur l'emploi. Cela s'explique sans doute par le fait que les derniers outils de l'IA générative, tels que ChatGPT, sont relativement récents et que leurs effets réels restent difficiles à évaluer pour l'instant.


Cependant, selon une étude de Gartner,
l'impact sur l'emploi global restera neutre (article en anglais); il n'y aura pas de diminution ni d'augmentation nette jusqu'en 2026. Le même rapport indique également que les solutions basées sur l'IA permettront de créer plus d'un demi-milliard d'emplois nets au cours des dix prochaines années.


4 façons de limiter les risques liés à l'utilisation d'outils de l'IA générative pour les entreprises

Selon Mondaq, les investissements dans l'IA générative devraient atteindre 42,6 milliards de dollars américains (article en anglais) d'ici la fin de 2023. Cette projection se fonde sur le potentiel des applications de l'IA générative à stimuler la productivité et à favoriser l'innovation, comme expliqué dans la première partie de cet article.


En outre, 91 % des utilisateurs interrogés déclarent accorder une certaine importance ou une grande importance à la mise en œuvre de cette technologie, ce qui souligne encore l'intérêt qu'elle suscite.


Toutefois, il est important de garder à l'esprit que toute nouvelle technologie comporte des risques au même titre que des avantages. Cela ne signifie pas pour autant que les organisations doivent cesser de s'y intéresser et d'en tirer parti. Au contraire, les entreprises devraient suivre certaines étapes pour limiter les risques de l'IA générative et l'utiliser à leur avantage. Voici quelques suggestions :

  • Testez les outils en interne : avant qu'une entreprise ne pense à mettre en œuvre des plateformes de l'IA générative dans ses opérations quotidiennes, elle peut envisager de les tester à grande échelle avec ses employés et ses parties prenantes en interne afin de comprendre comment ces outils peuvent être utilisés au mieux.
  • Identifiez les bons outils : comme vous pouvez trouver une variété de logiciels gratuits disponibles sur le marché, recherchez de préférence les outils qui ont été soigneusement vérifiés et qui offrent une certaine forme de fiabilité aux entreprises.
  • Analysez le niveau de supervision requis : examinez le niveau de contrôle d'accès à accorder aux employés et décidez si l'utilisation de logiciels spécifiques de l'IA générative doit être supervisée par une quelconque autorité dirigeante et, le cas échéant, par qui.
  • Définissez une politique claire pour l'utilisation des logiciels de l'IA générative : les entreprises devraient disposer d'une stratégie détaillée définissant le cadre de cette utilisation ainsi que les conséquences auxquelles un(e) employé(e) ou partie prenante pourrait être confronté(e) en cas d'utilisation abusive de toute donnée sensible.


La technologie de l'IA générative gagne en popularité, mais les entreprises suivent-elles des directives pour réglementer son utilisation? GetApp a interrogé des québécois qui se servent des applications de l'IA générative afin de connaître leur avis sur ces outils et sur la manière d'en tirer le meilleur parti.

 

Partagez
tessa new
À propos de Tessa Anaya
En savoir plus

Facteur H est un espace convivial de référence francophone en ressources humaines pour rester à l’affût des nouvelles tendances et trouver des solutions concrètes et applicables aux défis organisationnels d’aujourd’hui et de demain.

Contactez-nous
© Facteur H - Tous droits réservés 2023 | Conception de site web par TactikMedia
crossmenuarrow-right