En ressources humaines (RH), les préjugés ont des conséquences. Bien souvent, la personne embauchée ou promue a simplement eu plus de chance que les autres candidats en lice. Les décisions des RH façonnent durablement la composition de l’effectif d’une entreprise et la trajectoire professionnelle de ses employés. Les préjugés de race, de classe, de sexe et de genre ont tous contribué à la prépondérance des hommes blancs dans les postes de commande.
Dans l’arène des RH, l’intelligence artificielle (IA) pourrait changer la donne ou, au contraire, perpétuer des pratiques révolues. En effet, les algorithmes peuvent certes ignorer l’orthographe étrange du nom d’une personne, l’appartenance ethnique ou religieuse de l’établissement où elle a étudié, voire les pronoms qu’elle utilise. Toutefois, l’IA n’est pas au bout de ses peines pour autant, car elle se nourrit des données du passé; or, toutes les bases de données RH constituées au fil d’interventions humaines sont pétries des préjugés qui avaient, à l’époque, orienté les décisions.
« L’arrivĂ©e de l’IA en ressources humaines peut tout autant amĂ©liorer le statu quo qu’aggraver les problèmes du statu quo. Les deux Ă©ventualitĂ©s sont possibles, et ce paradoxe peut ĂŞtre difficile Ă comprendre », convient Matissa Hollister, professeure adjointe de comportement organisationnel Ă la FacultĂ© de gestion Desautels de l’UniversitĂ© Ć˝ĚŘÎ岻ÖĐ.
« L’avènement de l’IA en RH suscite beaucoup d’enthousiasme chez certains, qui voient là un outil capable d’améliorer un système imparfait. En revanche, d’autres sont plus soucieux à cause, précisément, de l’imperfection du système. C’est que la complexité du monde réel façonne l’apprentissage machine. Or, il n’est pas simple d’enseigner au système que certains aspects de cette complexité sont souhaitables, alors que d’autres résultent de biais cognitifs. Idéalement, le concepteur de l’outil doit cerner les sources possibles de biais cognitifs dans une situation donnée et tenter d’éviter, voire de corriger, le problème. »
Ěý
La quatrième révolution industrielle
En 2019-2020, Matissa Hollister s’est jointe à l’équipe d’IA du , à San Francisco, à titre de chercheuse en résidence. Le C4IR, qui fait partie du Forum économique mondial (FEM), collabore avec des chercheurs des secteurs public, privé et universitaire ainsi que de la société civile pour repenser les façons de faire en gouvernance technologique.
La quatrième révolution industrielle est celle du numérique, technologie la plus récente venue métamorphoser notre économie. La vapeur a mécanisé l’économie, l’électricité l’a propulsée, l’électronique l’a automatisée et les technologies numériques pourraient amener une transformation encore plus profonde, d’où la nécessité de les adopter de façon responsable. Le C4IR y travaille dans quatre domaines de première importance : IA et apprentissage machine; politiques de gestion des données; chaînes de bloc et argent électronique; et Internet des objets.
Pendant son séjour au C4IR, la Pre Hollister a publié un livre blanc du FEM sur l’IA en ressources humaines et dirigé la création sur l’utilisation responsable de ces technologies. Les professionnels des RH y trouveront des explications sur le fonctionnement des algorithmes de l’apprentissage machine et l’amplification possible des biais cognitifs. À cela s’ajoutent deux listes de points à vérifier : l’une permet d’évaluer un outil d’IA avant son adoption et l’autre, les risques qui y sont associés. Ainsi, les professionnels des RH seront bien outillés pour utiliser l’IA de façon responsable.
« L’IA nous permet de faire des choses géniales pour corriger les inégalités, mais aucun outil n’y arrivera seul, de manière autonome. Il y a derrière l’IA un être humain qui détermine d’où vient le problème, puis trouve une solution. Il n’y a pas deux systèmes d’IA identiques, chacun étant le reflet des hypothèses, des idées et de la capacité d’innovation de la personne qui l’a conçu. »
Ěý
L’éthique en IA
Les travaux de Matissa Hollister s’inscrivent dans les efforts que déploie le C4IR pour contrer les possibles effets néfastes des nouvelles technologies par une meilleure gouvernance reposant sur des normes et des principes pratiques.
« Diverses organisations y sont allées de déclarations de principes sur l’utilisation éthique de l’IA », déclare la chercheuse.
« Dans la quasi-totalité des cas, ce sont des choses très générales du genre : l’IA doit être impartiale, transparente et explicable. La vie privée doit être respectée. Ce sont de bien beaux principes, mais sur le plan pratique, c’est souvent un peu flou. »
Comme elles ont des retombĂ©es directes sur la vie d’adultes, les ressources humaines constituent un cas d’usage tout indiquĂ©. Cependant, l’IA a des rĂ©percussions sur des personnes de tout âge. Devant l’étendue des recherches menĂ©es au C4IR, Matissa Hollister a eu une idĂ©e : inviter les Ă©tudiants de Ć˝ĚŘÎ岻ÖĐ Ă participer Ă des projets novateurs comme les du FEM, lancĂ©s en mai 2021. Un jury constituĂ© d’experts Ă©value des jouets intelligents et rĂ©compense ceux dans lesquels on fait une utilisation responsable de l’IA pour offrir aux enfants une expĂ©rience de jeu saine et innovante. Cela dit, Ă l’heure actuelle, peu de règles balisent le recours Ă©thique et responsable Ă l’IA chez les enfants et les adolescents.
« De nos jours, bien des enfants ne s’amusent pas vraiment avec des jouets : les jeux sur iPad leur conviennent tout à fait », souligne Oliver Leiriao, étudiant au baccalauréat en commerce et membre de la cohorte 2020 du Programme de gestion intégrée de la Faculté Desautels. Oliver s’est joint à l’équipe Génération IA du C4IR et a travaillé sous la direction de la Pre Hollister dans le cadre du volet de recherche du Programme.
« Alors, comment amener un enfant à s’intéresser à un jouet? En proposant des jouets plus accessibles et qui conviennent mieux à la brève durée d’attention des enfants. Les jouets peuvent apprendre à découvrir l’enfant qui les utilise et s’adapter à lui. »
La protection de la vie privée, la cybersécurité et les biais cognitifs sont tous des risques appréciables qui doivent être pris en considération, mais il reste que l’IA – c’est indéniable – a le pouvoir de réinventer le jouet.
« Je pense, notamment, à un haut-parleur intelligent utilisé chez les enfants aux prises avec un trouble de la parole », poursuit Oliver.
« Ça ressemble un peu à l’assistant Alexa d’Amazon, mais l’appareil ne recueille pas autant de données. Il écoute l’enfant parler, lui demande de répéter des sons et lui fait travailler sa prononciation. L’une des méthodes les plus efficaces en traitement des troubles de l’élocution est la répétition : on prononce le même son encore et encore. C’est donc comme avoir un répétiteur à ses côtés en tout temps, qui intervient au fil des échanges de la vie courante : cet appareil peut littéralement changer la vie d’un enfant. »