Sens & idées | Les paradoxes de l’IA dans les RH
Sens & idées, cabinet conseil, accompagne la performance et la transformation des entreprises par le management du changement, le bien-être au travail, la prévention des risques psychosociaux (et s’appuie sur un baromètre social, qualité de vie au travail, satisfaction des collaborateurs.
Sens & idées, performance, mutation, entreprises, démarche, RSE, management, changement, politiques, sociales, bien-être, travail, prévention, risques, psychosociaux, baromètre, social, vie, collaborateurs
16849
post-template-default,single,single-post,postid-16849,single-format-standard,ajax_leftright,page_not_loaded,boxed,,qode-theme-ver-5.6,wpb-js-composer js-comp-ver-4.3.4,vc_responsive

Les paradoxes de l’IA dans les RH

02 Apr Les paradoxes de l’IA dans les RH

Quand Skillate trie vos candidatures, quand HireVue analyse les entretiens, quand Neobrain cartographie vos compétences ou que Workday orchestre l’ensemble de votre SIRH, que se passe-t-il vraiment au-delà de l’automatisation ? Derrière la promesse d’une plus grande efficacité, le recours à l’IA en dit peut-être beaucoup sur la culture des organisations qui les utilisent.

 

L’IA en RH : de quoi parle-t-on vraiment ?

Largement utilisée dans le domaine du suivi des temps de travail et de la gestion des absences, le recours à l’Intelligence Artificielle s’étend à tous les niveaux de la gestion des RH. En matière de recrutement, des algorithmes de matching analysent des milliers de candidatures en quelques minutes, identifient des profils passifs sur les réseaux professionnels et permettent de réduire le temps moyen nécessaire à une embauche.

Pour la gestion des talents, des plateformes comme Workday ou 365Talents cartographient en continu les compétences disponibles dans l’entreprise et proposent des parcours de développement individualisés.

 

Si l’IA offre la promesse d’un traitement plus rapide et plus aisé des tâches rébarbatives et/ou à faible valeur ajoutée, son implémentation dans les organisations n’est pas aussi simple et linéaire qu’on l’imagine. Une étude récente menée par Yanki Hartijasti, Professeure d’Economie & Business à l’Université d’Indonésie, souligne en effet le caractère erratique du processus d’appropriation / assimilation des outils IA dans le management des RH, au carrefour de 3 puissants paradoxes.

 

1er paradoxe : Automatisation Vs Humanisation

La promesse initiale est séduisante : en automatisant les taches, les professionnels RH auraient davantage de temps pour l’humain. Pourtant, en pratique, ce basculement ne se produit pas automatiquement. Dans les faits, on constate que l’effet attendu est bien davantage conditionné à « Comment », plutôt qu’aux « Quoi » et « Pourquoi ». Autrement dit, à la façon dont les outils sont introduits et encadrés, plutôt qu’aux bénéfices qu’on peut en attendre. Ainsi, lorsque l’action humaine est invisibilisée, notamment dans le recrutement, salariés et candidats sont plus enclins à exprimer une perte de sens et une détérioration de la confiance envers leur (futur) employeur.

L’IA Act européen, entré en vigueur progressivement depuis le 1er août 2024, en tire d’ailleurs les conséquences réglementaires : les systèmes d’IA utilisés dans le recrutement et la gestion des performances sont classés « à haut risque ». Cela implique une supervision humaine obligatoire sur toute décision automatisée et une transparence renforcée sur le fonctionnement des algorithmes. La reconnaissance des émotions sur le lieu de travail, via analyse faciale ou vocale, est quant à elle explicitement interdite.

Ce premier paradoxe pose un enjeu crucial quant au recours à l’utilisation des outils IA dans le management des RH : entre la volonté de gagner du temps au profit de la relation humaine et risque de détériorer la relation avant même qu’elle n’est commencée, où et comment placer le curseur ?

 

2ième paradoxe : Performance Vs Bien-être

Le deuxième paradoxe réside dans la tension entre les objectifs de productivité et les effets réels sur les salariés. Plusieurs études mettent en évidence un lien direct entre la mise en œuvre d’outils IA et l’augmentation du sentiment d’insécurité professionnelle exprimé par les salariés. La peur d’être « remplacé », « dépassé » en termes de compétences, l’ambiguïté des responsabilités entre l’homme et la machine, le stress induit par l’apprentissage continue et la charge de travail nécessaires à l’utilisation des outils, sont des facteurs documentés pouvant contribuer à une dégradation du vécu professionnel et de la santé.

À l’inverse, on note que les entreprises ayant un niveau élevé d’adoption de l’IA et un accompagnement solide de leurs équipes obtiennent de meilleurs résultats en matière de satisfaction et de bien-être des salariés.

Ce deuxième paradoxe situe là encore, l’importance de la qualité de l’environnement organisationnel dans le processus d’appropriation des outils, nécessitant que la « préparation humaine » précède le déploiement opérationnel. Un accompagnement au changement mené par une IA serait donc contre-productif.

 

3e paradoxe : Standardisation contre individualisation

Une autre promesse de l’IA tient à la personnalisation des parcours professionnels. Mais cette personnalisation repose sur des modèles algorithmiques, générés à partir de données historiques. Ce faisant, les outils tendent à reproduire les configurations existantes plutôt qu’à les questionner.

Pour illustrer les conséquences de telles limites, une étude de l’Institut pour l’égalité des femmes et des hommes (2026) a ainsi montré que les outils IA ont tendance à favoriser le recrutement de profils similaires à ceux qui ont historiquement réussi dans une entreprise donnée. Ils reconduisent alors des biais de sélection qu’ils étaient pourtant censés élimer.

Ce troisième paradoxe souligne ici les contradictions pouvant exister entre le besoin réel de l’organisation et l’interprétation statistique de cet objectif par l’outil, nécessitant une connaissance avancée des critères de « pertinence » analysés par celui-ci autant qu’une maîtrise des déviations statistiques qu’il peut ignorer.

 

Au carrefour des paradoxes : l’influence de la culture sur la technologie

L’un des angles les moins explorés dans les débats sur l’IA en RH reste portant celui qui conditionne le plus profondément les résultats : le substrat culturel dans lequel les outils sont déployés.

Origines et influences culturelles de l’IA

Une analyse publiée dans AI & Ethics portant sur plus de 470 documents de politique IA montre que les frameworks éthiques qui encadrent l’usage des algorithmes sont majoritairement issus de cultures occidentales, dites « à faible distance hiérarchique » , dans lesquelles la remise en question de l’autorité, y compris algorithmique, est culturellement légitimée. Ainsi, les caractéristiques culturelles intrinsèquement véhiculées par les outils IA suggèrent des différences d’utilisation et d’appropriation significatives selon le milieu où elles s’implantent.

En guise d’illustration, une étude publiée dans AI & Society (2023) a montré que les salariés de l’Asie orientale ont davantage tendance à exprimer une attitude de confiance envers les systèmes de management automatisés (y compris les outils d’IA émotionnelle), comparativement aux salariés occidentaux. Cette différence s’explique en partie par les dimensions culturelles théorisées par Geert Hofstede : dans des cultures à forte distance hiérarchique et à orientation collective (comme en Corée, au Japon ou en Chine), la délégation de décisions à un système expert est davantage perçue comme légitime que dans les cultures occidentales marquées par l’individualisme et la méfiance envers l’autorité algorithmique.

Dans les pays d’Europe occidentale, et en France en particulier, les politiques et cadres de gouvernance RH sont souvent davantage structurés et les obligations de consultation du personnel plus explicites. Pourtant, cette structuration ne se traduit pas nécessairement par une meilleure appropriation des outils IA par les salariés. Plusieurs études ont d’ailleurs montré que les professionnels RH demeurent méfiants quant à la qualité du travail fourni par l’IA. Du côté des salariés, peu d’entre eux font spontanément le choix de s’en emparer sans y être incités ou formés.

 

Ces différences d’utilisation et d’appropriation selon le contexte culturel soulèvent une autre question opérationnelle quant au déploiement de l’IA dans le domaine RH : comment l’organisation peut-elle développer la capacité des salariés à questionner la pertinence de l’outil et ses résultats, en tant que compétences fondamentales ?

 

Questionner l’outil : une compétence fondamentale

Une IA mal comprise peut rapidement devenir une « boîte noire » : comme le souligne Frédérick Bruneault, philosophe en éthique de l’IA à l’UQAM, affirmant que « même les concepteurs peinent parfois à expliquer comment l’IA prend ses décisions ». C’est pourquoi la capacité à questionner l’outil, à en interpréter les sorties et à mettre en perspectives les recommandations apparait comme une condition indispensable à un usage pertinent.

Dans cette perspective, tout déploiement de l’IA oblige non seulement à questionner l’outil, ses fonctionnalités, sa « culture » d’origine et la finalité de son dépliement ;  mais aussi à (re)questionner les spécificités culturelles du terrain dans lequel il s’inscrit, pour mieux pondérer le risque de rejet autant que la prolifération stérile.

 

Conclusion

L’intelligence artificielle réorganise en profondeur la fonction RH, non pas comme une rupture mais comme une accentuation des paradoxes qui existaient déjà, renvoyant dos à dos les enjeux d’efficacité et d’humanité, de standardisation et d’individualisation, de performance et de bien-être ; comme s’ils ne pouvaient être complémentaires.

Les organisations qui tireront un avantage durable de l’IA ne sont pas celles qui adopteront les outils les plus puissants. Comme l’écrivait déjà l’éminent théoricien en management des organisation Peter Drucker, en 1967 : « l’outil » – si sophistiqué qu’il soit – n’en reste pas moins « stupide ». Et plus il est stupide, plus il exige des utilisateurs « brillants ». Le véritable avantage sera pour celles qui auront su développer une culture forte, tournée vers l’apprentissage collectif, la communication autour des objectifs et des contraintes rencontrées, la capacité à se questionner pour mieux innover.

L’IA peut traiter des données, automatiser des processus et accélérer la prise de décision, mais elle ne peut remplacer les facultés humaines essentielles : la pensée critique, l’observation approfondie, le courage et l’engagement sincère.