L’arrivée de l’IA au sein des entreprises suscite des craintes et de la méfiance chez certains salariés. Sentiment de dépossession, peur d’être remplacé... autant de réactions qui peuvent freiner son adoption. À l’autre bout du spectre, les “early adopters” attendent une stratégie claire pour intégrer ces technologies au service de leur métier.
Pour les dirigeants, cette polarisation présente deux risques :
• passer à côté de gains de productivité potentiels
• voir des usages non encadrés se multiplier en l'absence de politique interne
Comment, dans ce contexte, rassurer et mobiliser les équipes autour d'une ambition commune ?
Réduire les peurs liées à la nouveauté et à l’absence de maîtrise des outils
Offrir une expérience concrète de l’IA apparaît comme le premier facteur pour réduire les craintes des salariés. Selon l’étude de LaborIA, plus un salarié utilise l’IA, plus son avis est positif : 79% des utilisateurs interrogés estiment ainsi l'impact de l'IA “positif”, contre 12% des non-utilisateurs qui jugent l’impact “plutôt négatif” et 40% "sans impact".
Le défi est d’autant plus grand que le nombre actuel d’utilisateurs de l’IA reste faible parmi les actifs, la majeure partie des utilisateurs se concentrant chez les jeunes générations qui ne sont pas encore sur le marché du travail. Selon le baromètre IFOP pour Talan, près de 70% des 18-24 ans utilisent personnellement l’IA générative contre 47% des 25-34 ans et 22% des 35 ans et plus. Pour les entreprises, il est donc nécessaire d’adopter une démarche proactive de formation et de prise en main des outils, plutôt que de parier sur une conversion naturelle de tous les salariés.
Réduire les peurs liées aux représentations erronées
Les représentations erronées sont un autre facteur de frein à l’adoption de l'IA, sur lequel les entreprises peuvent agir. Les craintes des salariés proviennent la plupart du temps d’un imaginaire éloigné de la réalité actuelle de l’IA. Plutôt que de craindre un “remplacement cognitif” de l’homme par l’IA, les entreprises doivent démontrer que l’IA actuelle est un outil au service de l’optimisation des tâches. Déconstruire les idées reçues passe par la démystification : l’IA est un outil mathématique probabiliste, pas un être pensant.
Pour rassurer, il est aussi utile de rappeler que l'IA est utilisée de longue date dans de nombreux secteurs.
• Dans le secteur de la finance, les algorithmes de trading automatisent les opérations boursières, tandis que l’analyse de risques bénéficie également de l’IA.
• L’ automatisation des processus et la maintenance prédictive sont des pratiques courantes dans l’industrie grâce à l’IA.
• Les véhicules autonomes (comme ceux de Tesla) et les systèmes de navigation intelligents sont rendus possibles grâce à l’IA et la reconnaissance d’image.
Enfin, les biais culturels influencent les perceptions. C'est le résultat d'une étude menée par le BCG. En France, 31% des employés sont préoccupés par l’usage de l’IA générative au travail, contre 18% aux États-Unis et 7% en Chine, ce qui fait de la France le pays le plus pessimiste sur le sujet à l'échelle internationale.
Or, ce pessimisme a un impact direct sur le taux d’utilisation. Toujours selon le BCG, la pratique de l’IA chez les Français est de 7 points inférieure à la moyenne internationale. Un argument supplémentaire en faveur de l’élaboration d’un cadre commun à l’échelle de l’entreprise pour un déploiement harmonisé.
Faire adhérer à un usage encadré de l’IA
Si le premier enjeu est de mobiliser et d'inciter les salariés à recourir l'IA, le deuxième consiste à encadrer son usage. Faute de politique interne claire, beaucoup d'usages sont aujourd'hui non déclarés au sein des entreprises. Cette “shadow IA” concernerait 68% des Français qui utiliseraient l’IA générative en entreprise sans en informer leur supérieur (étude IFOP). Les risques associés pour les entreprises sont colossaux : reproduction de biais et de discriminations comme dans le cas de la campagne sexiste de recrutement d'Amazon, violation de la confidentialité comme chez Samsung, non-respect du droit d'auteur, etc.
Interdire purement et simplement les équipes d’accéder aux applications d'IA grand public semble peu réaliste. Tout comme les remplacer entièrement par des applications internes. Peu d’entreprises en auront les moyens. L'avancée des applications grand public, les compétences et les investissements requis rendent cette tâche hors de portée, à commencer pour les PME. Le scénario le plus probable est que coexistent des applications internes et des applications externes.
Dans ce contexte, il est crucial de définir rapidement des chartes d’utilisation des outils d’IA générative pour définir les usages et les outils autorisés par l'entreprise. Ces chartes peuvent stipuler, par exemple, que tout contenu généré par l'IA doit être impérativement contrôlé et validé par un salarié avant sa diffusion. C’est essentiel pour les départements marketing et communication qui utilisent de nombreux outils d’IA grand public. La charte d’utilisation interne des hôpitaux universitaires de Genève (ici) est un exemple de bonne pratique.
Conclusion
Intégrer l'IA dans le quotidien des salariés ne se fera pas sans efforts. Pour y parvenir, les salariés doivent être accompagnés. Bien que non obligatoire, l'implication des représentants syndicaux sur ce sujet peut favoriser un climat positif. La Commission de l’Intelligence Artificielle, mandatée par Emmanuel Macron, recommande d'ailleurs de faire de l’IA un sujet du dialogue social.