Alex Pachulski Un site utilisant WordPress
Retour à la page d'accueil

Pas de data, pas d’IA !

AI artificial intelligence data

Lors de l’Université de l’ANDRH j’ai eu l’opportunité d’animer une table-ronde en présence de Marianne Descamps, DRH de Linkbynet, et Philippe Cuenot, DRH Innovation et Développement Social de Bouygues, sur le thème : impact de l’intelligence artificielle (IA) sur les RH. Oui, j’avoue, on a un peu l’impression que la RH ne parle que de ça depuis quelques temps, un peu comme cela avait été le cas avec la transformation digitale il y a quelques années. Mais tout comme la transformation digitale relevait d’un véritable changement sociétal quant à nos comportements, attentes, habitudes, etc., l’IA revêt une réalité qui va être très rapidement palpable. Et nous avons encore l’opportunité de faire que cette technologie plus si jeune que ça soit à notre service plutôt que l’inverse. Pour combien de temps, nul ne le sait (cela fera l’objet du prochain post ;).

Voici quelques idées clés ressortant de ce débat, qui s’est rapidement centré sur le recrutement. Probablement parce que ce domaine s’adresse à des candidats qui sont – encore plus que les employés – considérés comme des clients à séduire. Le recrutement essaie ainsi de faire feu de toutes les innovations à disposition, souvent bien avant les autres domaines RH.

Pour de vrai, à quoi peut bien servir l’IA pour les RH ?

Comme toujours lorsque la RH se penche sur de nouveaux outils, on observe deux vagues : celle où l’on fait comme avant mais plus efficacement, du fait des outils utilisés ; celle où l’on se dit qu’après tout, on pourrait faire différemment. L’IA peut dans un premier temps suppléer les recruteurs sur un certain nombre de leurs tâches : recherche de candidats, tri de CV, demande de renseignements, etc. La recherche peut s’appuyer sur des algorithmes de matching (sans IA) pour mettre en correspondance profil recherché avec profils accessibles, la plupart du temps sur des critères de compétences. On pourra utiliser le fameux Big Data pour effectuer des corrélations entre des personnes embauchées et les profils accessibles afin de prendre en considération des personnes qui ne répondent pas qu’au seul critère compétence.

L’un des intérêt du caractère inductif supportant les algorithmes traitant du Big Data est précisément de sortir des sentiers battus et étudier des candidats qui n’auraient peut-être pas été reçus autrement. En se rappelant que le potentiel d’innovation d’une entreprise repose sur sa diversité et pas sur un clonage de quelques candidats issus des grandes écoles. On pourra pour s’en convaincre (re)lire l’excellent The Rainforest: The Secret to Build the Next Silicon Valley.

Peut-être encore plus intéressant : et si l’IA permettait d’étudier les profils « successful » de l’entreprise afin de mettre en lumière les vrais critères qui font la réussite d’une personne ? On accède ici à la vraie dimension partenariale de l’IA, et pas simplement à la dimension d’un outil d’informatique avancée. Ce n’est que lorsque nous appréhendons le côté «  l’IA ne raisonne pas comme nous » que l’on commence vraiment à toucher au véritable potentiel de cette discipline. Encore faut-il que l’on soit prêt à se faire secouer un peu, ce qui n’est pas du goût de tout le monde en entreprise.

Doit-on superviser l’apprentissage de l’IA ?

L’idée d’apprendre de l’IA pour comprendre ce qui fait que quelqu’un réussit dans l’entreprise est excellente, mais qu’est-ce que « quelqu’un qui réussit » signifie ? Le définit-on en regardant l’argent qu’il rapporte à l’entreprise ? L’évaluation de son manager sur son poste ? Son engagement ? Son épanouissement ? Le temps qu’il reste dans l’entreprise ? Une combinaison de tout cela et de bien d’autres choses ? Et le critère succès sur un poste peut-il s’appliquer à un poste de nature complètement différente ? Intuitivement, on sent évidemment qu’un comptable qui cartonne ou un commercial qui cartonne ce n’est pas la même chose….

Il existe aujourd’hui un vrai biais cognitif consistant à penser que l’IA va se comporter de façon très rationnelle telle un scientifique de haut niveau, et que ses résultats seront forcément justes. On oublie rapidement, comme l’indique Cathy O’Neil dans son livre « Weapons of Math Destruction » que les résultats de l’IA dépendent de deux éléments : les données qu’on lui fait ingurgiter et le dispositif d’apprentissage exécuté.

Dans un dispositif d’apprentissage dit supervisé, les tags que vous apposerez sur les personnes jugées talentueuses conditionneront la classification effectuée par l’IA. Si vous introduisez des biais au démarrage (en estimant talentueuses des personnes qui ne le sont peut-être pas tant que ça), ces biais ressortiront dans les résultats.

A l’inverse, sur un apprentissage non supervisé, elle arrivera à opérer une classification sans réellement savoir qui est talentueux ou qui ne l’est pas. Elle effectuera des rapprochements d’individus qui se ressemblent, et vous en déduirez quels sont les talents clés des autres. Mais là encore, cette classification dépendra des données que vous lui fournissez. Dans une entreprise de taille moyenne, dans un environnement où les données individuelles doivent être utilisées avec l’accord des personnes et de façon très régulée, qu’est-ce que l’IA va réellement pouvoir apprendre ? La seule contrainte réglementaire introduit des biais à elle toute seule. Mais s’en abstraire est probablement encore plus dangereux du point de vue social et éthique. C’est en tout cas ce que pense majoritairement l’Europe face à une Amérique ou une Asie davantage en quête d’efficacité et de résultats. Et talentueux d’accord, mais pour quelle entreprise ? Quand une entreprise en croissance voit sa taille tripler en deux ans, la notion même de talent n’est-elle pas à revoir ? Et si oui comment adapter le processus d’apprentissage ? A quel rythme ? Bref, à suivre…

Et si la vraie question c’était : à quoi ça peut bien servir aux candidats ?

Au bout de 45 minutes de discussion, nous nous sommes rendus compte que nous ne parlions que de l’intérêt de l’IA pour les recruteurs, mais quid des candidats ? N’auraient-ils pas encore plus besoin que les recruteurs d’assistants personnels capables de les aider à détecter le « projet de leur vie » : le job de leur rêve, la personne à rencontrer, le contenu d’apprentissage auquel s’intéresser, etc. Tout comme nous sommes notifiés de l’appartement répondant à nos critères lorsque nous souhaitons déménager, nous pourrions être avertis du moindre élément venant soutenir notre quête professionnelle. Le raisonnement est alors le même que précédemment : soit l’IA vient pousser une opportunité correspondant à nos critères, soit elle vient ouvrir nos chakras et nous proposer une opportunité à laquelle nous n’aurions jamais pensé. La deuxième option me semble la plus intéressante pour quiconque cherche encore un peu son orientation.

De nouveau, quelles données fournir à une IA pour qu’elle nous aide ? Vaut-il mieux superviser son apprentissage ou non ? Autant de questions qu’il sera nécessaire d’aborder dès le plus jeune âge pour mettre toutes les chances de notre côté d’en tirer pleinement profit et de mettre la technologie à notre service.

Finalement, on en revient toujours à cette épineuse question de l’éducation : de nous en tant que citoyens, de nous en tant que personnes actives, de nous en tant que recruteurs, formateurs, managers. Comment allons-nous nous former au bon usage des IA, et comment allons-nous éduquer les IA pour qu’elles nous aident en connaissance de nos singularités humaines ? Vaste sujet. Reste à savoir quand nous allons véritablement commencer à l’aborder.

Les dernières publications