Les professionnels des RH sont-ils prêts à devenir les gardiens de l’éthique à l’ère de l’IA ?
Comment percevez-vous aujourd’hui l’impact de l’IA sur la fonction RH ?
Le potentiel est immense, même si le sujet reste sensible en France et en Europe. Il existe des protections légitimes, mais aussi une crainte de “déshumaniser les RH”. Pour moi, c’est tout l’inverse : bien utilisée, l’IA peut rendre les professionnels des RH plus efficaces et plus humains.
Elle allège la charge administrative et permet surtout de mettre à l’échelle des pratiques responsables que nous n’avons ni le temps ni les ressources de déployer. Demain, les agents IA nous permettront enfin de faire ce que nous devrions déjà faire.
Quels sont, selon vous, les bénéfices les plus prometteurs de l’IA pour les RH, et les risques les plus critiques à anticiper ?
Le recrutement est aujourd’hui la verticale la plus avancée avec beaucoup d’outils et de datas.
Pourtant, je suis convaincue que le terrain le plus prometteur est celui du talent management : analyser les parcours, comprendre les compétences, accompagner la maturité managériale, structurer le feed-back ou détecter des signaux faibles. L’IA peut vraiment mettre à l’échelle ces pratiques.
Le risque majeur reste évidemment les biais. Toutefois, rappelons que les humains sont biaisés aussi. La question n’est pas “IA pire ou mieux” : tout dépend des données utilisées et de la manière dont le modèle a été conçu. Avec l’IA, nous pouvons aller vers le meilleur… comme vers le pire, simplement beaucoup plus vite.
Selon vous, l’IA peut-elle réellement réduire les biais humains dans les processus RH, ou risque-t-elle d’en introduire de nouveaux ?
Les deux. Une IA bien entraînée peut réduire certains biais humains. Une IA mal entraînée peut en accentuer d’autres. Tout dépend de la qualité des données, de la rigueur des modèles et du niveau de vigilance des équipes. Une IA peut devenir un levier d’équité… comme un amplificateur d’injustices.
Quels sont les “garde-fous” indispensables pour que l’usage de l’IA en RH reste éthique et conforme aux valeurs humaines ? Quelles sont les lignes rouges à ne pas franchir ?
Pour que l’usage de l’IA en RH reste éthique, le premier garde-fou est la compréhension. Les professionnels RH n’ont pas besoin de devenir développeurs, mais ils doivent maîtriser les fondamentaux : RGPD, cybersécurité, logique des modèles, architecture des données. Sans ce socle, impossible de poser les bonnes questions ou de challenger réellement les experts.
S’ajoute ensuite l’importance d’être solidement entouré : juristes, DSI, DPO, voire spécialistes de la CNIL. L’éthique se construit aussi dans le dialogue et la confrontation des regards.
Enfin, la ligne rouge absolue reste l’opacité. Une IA dont on ne comprend ni les données d’entraînement, ni les règles de décision, ni les usages finaux, n’est jamais une IA éthique. La transparence, envers les équipes, les candidats et les managers, est la condition sine qua non d’un usage responsable et aligné avec les valeurs humaines.
Pourquoi les DRH vous semblent-ils particulièrement légitimes pour endosser le rôle de “gardiens de l’éthique” au sein des entreprises ?
Parce que l’éthique est, par essence, un sujet humain. Or, tout ce qui concerne l’humain finit tôt ou tard dans le champ RH. Leur mission centrale consiste à protéger les comportements, les valeurs, les droits des individus, la cohérence sociale et la culture de l’organisation.
Ce rôle n’a rien de nouveau : les professionnels des RH portent déjà des combats profondément éthiques, de la lutte contre le racisme, le sexisme ou l’homophobie à l’égalité professionnelle et à la prévention des risques. L’IA ne fait qu’accroître cette responsabilité en la rendant plus complexe et plus stratégique.
Selon moi, le véritable défi, désormais, vient du fait que l’éthique traverse toutes les verticales (IT, RSE, data, environnement). Elle oblige les DRH à devenir plus influents, plus transverses et à siéger au plus haut niveau de la gouvernance pour exercer pleinement leur rôle.
Quelles compétences ou nouvelles postures les DRH doivent-ils développer pour assumer cette responsabilité nouvelle ?
Pour assumer cette responsabilité, les DRH doivent avant tout développer une compétence clé : comprendre le monde dans toute sa complexité, ses évolutions technologiques, géopolitiques, sociétales et environnementales. Leur rôle consiste de plus en plus à traduire ce qui se passe à l’extérieur pour en expliquer les implications à l’intérieur, et aider l’organisation à s’adapter.
Cela exige une véritable posture d’influence, un solide réseau, une grande curiosité et une capacité à décrypter les transformations en cours. Sans leadership affirmé, impossible d’assumer pleinement ce rôle stratégique.
Chez Forvis Mazars, comment abordez-vous concrètement la question de l’éthique et de la responsabilité dans vos projets liés à l’IA ?
Chez Forvis Mazars, nous abordons l’IA par son intention, jamais par la technologie elle-même. Chaque projet commence par une vision humaine : favoriser l’égalité des chances, renforcer la méritocratie ou garantir l’équité. L’IA n’est qu’un moyen au service de ces objectifs, jamais une fin.
Par exemple, nous privilégions une approche centrée sur les compétences plutôt que sur les diplômes, un modèle dans lequel je crois profondément. Je suis moi-même issue d’une reconversion, et près de la moitié de mon équipe RH vient d’autres horizons. Cela prouve que le potentiel ne se résume pas au parcours académique.
Vient ensuite le volet technologique, avec une exigence forte : comment s’assurer que chaque outil traduit réellement nos valeurs ? Cela implique un outillage rigoureux, une analyse systématique des risques, une vérification des données utilisées et un dialogue constant avec les experts, juristes, DSI, DPO, CNIL. Chaque choix technologique doit être questionné, documenté et validé.
Quels projets ou pratiques internes vous paraissent les plus emblématiques dans cette approche éthique de la transformation digitale ?
La protection des données reste le premier pilier. Aucune innovation n’est acceptable sans cela. Le second, c’est la transparence, notamment lorsque nous explorons des agents d’IA capables d’agréger des feed-back, des signaux faibles et des indicateurs sociaux.
Ces outils sont puissants, mais deviennent anxiogènes si les collaborateurs ne savent pas ce qui est collecté, pourquoi et comment.
Enfin, un exemple très concret illustre notre philosophie. Je pense à notre partenariat avec Yaggo, pour nous aider à traiter les réponses à l’ensemble de nos candidats et qui œuvre pour la réinsertion professionnelle. Oui, une IA pourrait répondre aux candidats pour moins cher, peut-être avec un même niveau de qualité à terme. Mais ce serait renoncer à une valeur sociale essentielle à mon sens, dans ce cas précis.
L’éthique, pour nous, consiste à arbitrer : choisir l’IA là où elle crée de la valeur, et maintenir l’humain là où il crée du sens.
Quelle serait votre boussole éthique pour les RH de demain ?
Ma boussole tient en une phrase : “Ne jamais faire à quelqu’un ce que je n’aimerais pas que l’on me fasse.” C’est simple, presque évident, mais c’est une ligne directrice qui résiste à toutes les situations complexes. Je me mets toujours à la place de l’autre : comment aimerais-je être considérée ? Comment aimerais-je que l’on me parle, que l’on m’évalue, que l’on traite mes données, que l’on gère ma candidature ou ma carrière ?
Je crois qu’il existe un bien et un mal, même dans des environnements très rationnels ou très technologiques. Pour moi, l’éthique RH, c’est exactement cela : faire les choix dont on peut répondre, prendre des décisions qui respectent la dignité de chacun et mener des actions dont on peut être fier en se regardant dans la glace. À l’ère de l’IA, cette boussole est un garde-fou indispensable pour que la technologie serve vraiment l’humain.
Pour en savoir plus :
-
Table rondeSalle Feu sacré30 min
- IA & Transformations RH
Les progrès de l’IA sont fascinants, mais ils ne sont pas sans risques. De surcroît dans le monde du travail. La puissance d’une telle technologie appelle une responsabilité de taille pour les directi ...Speakers
)
)
)
)