QUELS ENJEUX ETHIQUES POUR LES CHATBOTS ? QUELLES REPONSES ?

Ressources humaines

Geneviève Fieux-Castagnet

Décembre 2020

Qu’est-ce qu’un chatbot ?

Un chatbot est un agent conversationnel qui peut être vocal ou écrit. Il est souvent intégré dans un système, par exemple un smartphone ou un robot. 

De façon générale, un “bot” n’est rien d’autre qu’un logiciel qui exécute des taches automatiques, i.e. un programme informatique conçu pour communiquer avec des utilisateurs humains à travers l’internet. Nous nous concentrerons ici sur la classe des bots qui se trouvent sur les plates-formes de discussion et des sites web : les « chatbots ». 

L’origine du terme « chatbot » n’est pas tout à fait déterminée, mais il semble qu’il fut inventé en 1994 sous l’appellation « ChatterBot »[1] avant d’être raccourci pour devenir finalement « ChatBot ». 

La définition la plus simple d’un chatbot est la suivante : « un agent conversationnel capable de dialoguer avec un ou plusieurs utilisateurs », c’est-à-dire un programme pouvant avoir une discussion ou conversation avec un humain. Plus précisément, c’est une application informatique de commande vocale qui comprend les instructions verbales données par les utilisateurs humains et répond à leurs requêtes. Le chatbot interagit selon un format qui ressemble à la messagerie instantanée. En répliquant les modèles des interactions humaines, l’apprentissage automatique (machine learning) permet aux ordinateurs d’apprendre par eux-mêmes sans qu’il soit nécessaire de programmer le traitement du langage naturel. Le chatbot peut répondre comme une personne réelle aux questions qui lui sont formulées en langage naturel. Il fournit les réponses en se basant sir une combinaison de textes prédéfinis et d’applications d’apprentissage automatique. Les plus « intelligents » des chatbots intègrent une technologie de compréhension du langage naturel (NLP) qui leur permet de répondre à des questions de plus en plus complexes et à participer à des conversations de plus en plus élaborées. 

Aujourd’hui, les conversations avec les chatbots sont disponibles sur des plates-formes déjà connues telles que Skype, Slack, Telegram, Kik, Messenger, ou encore WeChat en Asie… Cette conversation peut se faire sous forme uniquement textuelle ou être enrichie d’images et d’interactions ; elle peut se faire avec des questions ouvertes ou sous forme de QCM. 

Le chatbot est d’ores et déjà devenu un « compagnon » inséparable de nos vies puisqu’il suffit d’une mauvaise manipulation de touche de son clavier d’ordinateur pour qu’il se manifeste, sans que nous l’ayons sollicité, afin de nous demander ce dont nous avons besoin…

Le chatbot, un nouveau marché prometteur

Le marché mondial des chatbots devrait connaître un fort accroissement au cours des prochaines années, comme le montrent les études suivantes. Même si ces études présentent une très forte variabilité de leurs chiffres, elles se rejoignent pour prédire au cours des années qui viennent une croissance annuelle moyenne de l’ordre de 30%. 

Société de conseil et de recherchePériodeMarché en fin de période 
(milliards de dollars)
Taux de croissance annuel moyen 
(%)
Forencis Research2021-202719,7+29,5
Verified Market Research2020-20275,42+23,16
Allied Market Research2020-20273,39(Banque, services financiers, assurances)+27,3
GMI Research2019-20264,86+22,70
Market Study Report2019-2026N/A+29,60
Mordor Intelligence2019-2025102,29+34,75
MarketsandMarkets Analysis2019-20249,40+29,70
Valuates Reports2018-20259,17+21,95
Grand View Research2017-20251,25+24,30
Arizton2017-20220,80+28,00
Prévisions d’évolution du marché mondial des chatbots

Les raisons pour lesquelles des demandes sont exprimées en direction des chatbots sont multiples, comme le montre le graphique suivant : situation d’urgence, résolution d’un problème, recevoir des explications, faire une réservation, payer une facture, etc. 

Source : Digital Marketing Community

Ces « cas d’utilisations » peuvent se résumer de la façon suivante :

  • informer et faciliter l’accès à l’information : la fonctionnalité la plus intuitive est d’utiliser les chatbots comme un moteur de recherche amélioré en aidant l’utilisateur à chercher et à accéder à la bonne information ;
  • conseiller : les chatbots accompagnent les clients dans leurs choix de produits en leur donnant des conseils personnalisés et en répondant à leurs interrogations ;
  • vendre différemment : les chatbots sont capables de rechercher, planifier, réserver et passer les commandes du client à partir d’une simple conversation ;
  • assister et fidéliser : en utilisant les plates-formes de messagerie comme canal supplémentaire de la relation client, les chatbots s’imposent comme un outil efficace pour fidéliser les clients en leur permettant de suivre leurs commandes. 

Grâce aux progrès de l’intelligence artificielle et au besoin perçu par les entreprises de communiquer de façon ubiquitaire et efficace avec leurs clients, le marché des chatbots semble promis à un avenir radieux. Les principaux secteurs d’utilisation des chatbots aujourd’hui sont l’immobilier, le tourisme, la santé, la finance, le commerce de détail, l’alimentation et les boissons. 

Tandis que les grandes entreprises adoptent facilement les solutions basées sur le chatbot, les petites et moyennes entreprises se situent très en retard en raison des coûts d’installation et du manque de ressources humaines compétentes. En outre, les chatbots requièrent une revue et une maintenance constantes ainsi qu’une optimisation en termes de leurs connaissances et de la façon avec laquelle ils sont supposés communiquer avec les utilisateurs. 

Il faut souligner aussi que les chatbots sont pour le moment développés surtout par des hommes ; ils tendent par conséquent à répliquer les stéréotypes de genre. Le succès du chatbot Replika, conçu par une femme, Eugenia Kuyda, tend cependant à montrer que les choses sont en train de changer. 

Chatbots et intelligence artificielle (IA)

Indiquons tout d’abord que lorsqu’on lui pose une question, le chatbot répond à partir de la base de connaissances qui lui est disponible. Si la conversation introduit un concept qu’il ne peut pas comprendre, il déviera la conversation ou passera la communication à un opérateur humain. Dans tous les cas, il apprendra de cette interaction comme de toutes les interactions à venir. Ainsi, le chatbot est destiné à couvrir un champ de connaissances de plus en plus large et de gagner en pertinence. 

Il est essentiel de garder à l’esprit que la complexité d’un chatbot est déterminée par la sophistication de son logiciel et par les données auxquelles il a accès. D’où l’intérêt de se demander si l’avenir des chatbots n’est pas dans l’intelligence artificielle. Celle-ci est basée sur la création de puissants algorithmes qui déterminent sa qualité de réflexion, d’analyse et de compréhension. Le croisement de la technologie et des usages permet d’offrir des expériences utilisateur nouvelles dont le chatbot est l’un des symboles les plus forts.

Il faut distinguer au moins deux types de chatbots :

  • « les chatbots à interactions dites faibles », c’est-à-dire que chaque question est prévue en amont par l’être humain afin que l’agent conversationnel puisse y apporter une réponse fiable et cohérente grâce à une analyse précise des mots-clés de la requête utilisateur ;
  • « les chatbots à interactions dites fortes » utilisant l’IA pour pouvoir mener une conversation de manière autonome et même faire preuve d’humour et d’émotion.

Tout commence avec le « text mining », une technique qui permet d’automatiser l’analyse sémantique de corpus de texte, donc de reconnaître des informations et de les interpréter. Le text mining repose sur l’analyse du langage naturel, c’est-à-dire sur la détection de mots et de leur nature grammaticale, ce qui lui permet de gérer et traiter les requêtes issues des conversations du chatbot. 

Il est possible de distinguer trois niveaux de compréhension et de traitement des requêtes d’utilisateurs par les chatbots : l’analyse des mots clés, la gestion des intentions et le machine learning.

L’analyse de mots-clés

C’est le premier niveau de l’intelligence artificielle dans les chatbots. Ceux-ci se cantonnent à détecter des mots-clés dans les requêtes des utilisateurs et à leur envoyer la réponse correspondante automatiquement. Grâce à cette reconnaissance de mots-clés, le robot peut identifier des noms d’entreprises, de marques, de produits, de lieux, d’événements, de villes, d’artistes, d’horaires, etc.

La plupart des chatbots actuels sont conçus ainsi. Ils ne « comprennent » pas réellement les messages qui leur sont adressés. Que l’on écrive au chatbot « j’aime le chocolat », « je n’aime pas le chocolat », ou encore « quels sont vos produits au chocolat », le mot-clé détecté sera « chocolat » pour les trois exemples et le bot enverra la réponse programmée qui y correspond.

La gestion des intentions

La gestion des intentions est une technique de compréhension du langage naturel. Il s’agit de comprendre la requête qui est envoyée au chatbot et non pas seulement de détecter un mot-clé. L’IA dans les chatbots débute réellement avec cette technique qui permet d’instaurer entre les utilisateurs et les chatbots un dialogue composé de questions ouvertes et de réponses ne se limitant pas à un simple quizz ou une analyse de mots-clés. La compréhension des requêtes faites au chatbot est donc essentielle. 

La gestion d’intention permet de coupler une volonté à une entité : la volonté correspond à l’intention (avoir, savoir, réserver, acheter, etc.) et l’entité au mot-clé (lieu, boutique, date, personne, événement, etc.). C’est en traitant les intentions et les entités que le chatbot va comprendre la requête. Sa réponse ne sera alors plus neutre, mais adaptée. 

A ce stade cependant, les intentions que le chatbot gérera doivent être prédéfinies pour cadrer leur détection et proposer des réponses adaptées. L’organisation des données dans un plan de classement est aussi faite par un humain. C’est le travail d’un infolinguiste, véritable architecte des conversations du chatbot. Bien que la gestion d’intention permette d’offrir de meilleures réponses aux utilisateurs, le périmètre conversationnel est tout de même normé.

L’apprentissage automatique

L’apprentissage automatique est un système qui permet aux algorithmes d’apprendre à apprendre par eux-mêmes. Il s’applique aux chatbots pour les rendre plus « intelligents », pouvant par exemple analyser les requêtes qui leur sont faites et se tenir à jour sans l’intervention de leur développeur.

Le chatbot évolue au contact de ses utilisateurs. Les algorithmes vont traduire dans leur propre langage les phrases des utilisateurs et en feront des groupes de mots en fonction de leurs contextes. Ils développeront alors des questions et des réponses en prenant en compte les répétitions, nuances et dérivés. Il s’agit aussi d’une forme de mémoire qui permet de se souvenir des conversations antérieures entre le chatbot et son utilisateur. Ainsi, le chatbot se nourrit de data. Plus celle-ci sera importante et de bonne qualité, mieux le bot comprendra les requêtes et y répondra.

L’utilisation faite par les chatbots de l’intelligence artificielle n’en est qu’au début de son processus. De nombreuses pistes restent à explorer et de nombreuses améliorations à prévoir notamment en termes de gestion des intentions.

Cette évolution des mots-clés vers l’apprentissage automatique et du text mining vers le speech mining eût relevé de la science-fiction il y a quelques décennies. Elle est pourtant aujourd’hui de nature à bouleverser l’expérience client tout comme les relations sociales au sein d’une organisation. 

Pour autant, les premières expériences invitent à rester vigilants. Le cas du chatbot Tay conçu par Microsoft et lancé en 2016 est à cet égard révélateur. Se présentant sur Twitter sous le profil d’une jeune collégienne, Tay (@TayandYou) était en réalité un robot doté d’une intelligence artificielle capable de l’accroître en interagissant avec les internautes. Vingt-quatre heures seulement après son lancement le 23 mars 2016, Microsoft dut faire taire son intelligence artificielle après que celle-ci eut publié des commentaires pronazis, sexistes et racistes sur la base de ce que lui enseignaient des personnes mal intentionnées[2]. En répondant à un internaute, Tay tweeta notamment le commentaire suivant qui fit scandale : « Bush est derrière le 11-Septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. » 

Chatbots généralistes ou spécialisés

Il convient de distinguer deux types de chatbots : 

  • les assistants personnels, tels que Siri, Google Now ou Cortana, qui sont basés sur l’intelligence artificielle et sont capables de traiter un grand nombre d’informations ; 
  • les bots visant un objectif précis et accomplissant une mission spécifique, à l’aide d’un scénario prédéfini. 
Chatbots généralistesChatbots spécialisés
Siri (Apple, 2011)RHD2
Alexa (Amazon, 2014)LOL BOT (Oui.sncf)
Google Assistant (2016)iCIMS[3]
Bixbi (Samsung, 2017)Mila, Kiki, Ana, Chloé, Jane, etc. 

On notera ici qu’au début du mois d’août 2020, des « gentils hackers » réussirent à trouver une faille dans le système de sécurité d’Alexa[4]. Ayant accédé à de nombreuses informations d’ordre privé, ils prévinrent Amazon. L’entreprise s’empressa alors de rectifier le manque de sécurité. 

Le chatbots : du statut d’assistant à celui d’ami

Aujourd’hui, la majorité des chatbots existent pour aider les clients ou d’autres opérations B2C de quelques entreprises. Leurs capacités sont généralement limitées et leur fonction est souvent de diriger le client vers le bon département pour résoudre ses problèmes. Ces bots ne sont pas capables d’avoir une vraie conversation avec une personne, ils ne peuvent que répondre avec des phrases prédéfinies aux questions attendues. On les trouve sur les sites web et les pages Facebook des entreprises ou les applications populaires de messagerie instantanée telles que WhatsApp ou WeChat. Alexa, Google Assistant ou Siri constituent des versions plus avancées de ces bots, qui sont capables de comprendre et d’effectuer une grande variété de commandes comme faire une recherche sur Google, mettre une alarme, écrire un message destiné à quelqu’un, etc. 

Depuis le milieu des années 2010 une nouvelle génération est en train de s’installer dans le paysage des chatbots. Ces nouveaux chatbots ne se contentent pas d’être des collègues ou des assistants ; ils « comprennent » les émotions des humains. C’est ainsi par exemple qu’en novembre 2018 une start-up de San Francisco a lancé Replika[5], une intelligence artificielle qui est déterminée à devenir notre meilleur « ami ». L’idée principale est d’avoir un ami IA qui va nous poser des questions concernant notre journée pour initier une conversation, dans le but de mieux nous connaître. Alors qu’en 2020 de nombreux pays ont dû imposer des confinements pour faire face à la crise sanitaire causée par le nouveau coronavirus, des entreprises en ont profité pour promouvoir des bots du type de Replika afin d’aider les individus à mieux gérer leur anxiété et leur solitude. Le succès est indéniable : Replika compte actuellement plus de 7 millions d’utilisateurs ![6]

Un autre exemple de chatbot « humain » est Woebot, le « coach de santé mentale » conçu par Alison Darcy, une psychologue de l’université américaine de Stanford[7]. Celle-ci a également enregistré une utilisation croissante de son service pendant le confinement et les restrictions et a réagi en remodelant son programme face à la crise. Fondé sur l’étude des thérapies cognitivo-comportementales, le service vise à aider les personnes anxieuses. Le but est de remonter le moral, d’aider les gens à rester calmes pendant une période propice à la dépression. 

Allons encore plus loin pour évoquer le chatbot chinois Xiaolce, qui enregistre déjà 660 millions d’utilisateurs et plus de 5,3 millions de suiveurs sur Weibo, l’équivalent chinois de Twitter[8]. Xiaolce mérite d’interpeller notre conscience puisqu’il se présente comme notre « ami », celui qui partage nos goûts et nos intérêts, à qui nous confions volontiers nos secrets ou nos problèmes, qui devient une source importante de soutien émotionnel dans nos histoires sentimentales ou notre carrière, bref qui en partageant nos côtés les plus vulnérables partage en même temps notre humanité. Des utilisateurs chinois ont déjà indiqué qu’ils préféraient parler à leur bot plutôt qu’à n’importe lequel de leurs amis humains. Le bot est le confident, le compagnon de l’être humain sur la route de la vie, celui qui sait tout sur nous et vers qui l’on se tourne pour trouver du réconfort. 

Si la « success story » de Xiaolce devait préfigurer l’avenir des relations entre les êtres humains et les bots, et du même coup entre les êtres humains entre eux, il y aurait de quoi s’interroger sur ce que nous appelons aujourd’hui l’éthique. 

Utilité d’un chatbot dans les ressources humaines (RH)

Longtemps cantonnés au domaine de la vente à distance et de la relation client, les chatbots font aujourd’hui une entrée perceptible dans le domaine des Ressources Humaines afin d’améliorer l’expérience collaborateur. Si beaucoup de marketeurs travaillent avec les chatbots, notamment 

dans le cadre de ce qu’on appelle le nudge, seulement environ un quart des professionnels des RH savent ce que c’est. 

Il faudrait donc mettre en place des outils « utiles » aux RH pour qu’ils puissent les adopter sans difficulté. 

Les professionnels RH souhaitent une meilleure performance des chatbots afin d’améliorer « l’expérience salarié ». Les chatbots doivent donc avant tout :

  • répondre aux fonctions des RH : recrutement, formation, informations juridiques et sociales, etc.),
  • être disponibles 24h/24 et 7j/7,
  • donner des informations et répondre instantanément,
  • faciliter le quotidien des salariés. 

Un chatbot RH permet à un collaborateur de se renseigner sur des éléments concrets comme son solde de jours de congés ou de RTT, de signaler un arrêt maladie, de connaître ses droits ou certaines règles de fonctionnement de l’entreprise (par exemple le télétravail). 

Mais outre cette fonction de base, le chatbot doit répondre à des enjeux plus complexes.

Beaucoup de RH souhaitent ainsi que les différents processus liés à la formation ou à la mobilité interne soient accessibles aux collaborateurs par le biais de chatbots. Le chatbot doit être un intermédiaire facilitant le travail des collaborateurs et non rendant plus complexes les liens RH-collaborateurs ! Ils souhaitent également que les salariés puissent se renseigner sur leurs droits, et ce, facilement. 

Concrètement, il existe déjà aujourd’hui des chatbots permettant des petites formations en ligne, des accès aisés à des procédures de recrutement, etc. Ce que les professionnels RH souhaitent avant tout, c’est de pouvoir donner à leurs collaborateurs un accès facile aux informations juridiques et sociales. En effet, cette activité requiert en général beaucoup de temps aux professionnels RH, d’où l’idée de l’externaliser grâce à des chatbots juridiques. C’est l’exemple de LOL BOT (« Legal On Line BOT ») de Oui.sncf qui constitue un véritable assistant juridique conversationnel, accessible à tous les collaborateurs du groupe SNCF sur téléphone mobile et sur un ordinateur de bureau. Ce chatbot a donc pour but d’alléger les missions juridiques des RH afin que ces derniers puissent se concentrer sur les nouvelles problématiques de recrutement des talents. 

Les principaux avantages du chatbot sont par conséquent les suivants : 

  1. Un gain de temps pour le service RH. En réalisant des tâches simples telles que le renseignement sur le droit à des congés ou sur les règles internes, le chatbot libère du temps de travail au sein des RH, temps qui peut être alloué à d’autres activités à plus forte valeur ajoutée. 
  2. Un meilleur traitement de la « data RH ». La data RH est aujourd’hui l’une des ressources les plus précieuses de l’entreprise. Premièrement, un chabot RH permet, en rassemblant les questions les plus fréquemment posées par les collaborateurs, de mettre en valeur certaines informations et ainsi d’améliorer la communication et les processus internes. Deuxièmement, il peut être utilisé pour collecter directement d’autres informations, par exemple en réalisant des enquêtes de satisfaction. Grâce à un suivi continu, il peut contribuer à définir et mettre en place des indicateurs sur des sujets précis, comme par exemple la qualité de vie au travail (QVT). Troisièmement, si le chatbot s’appuie sur l’IA, il pourra aider à la prise de décision par l’optimisation du choix et de l’organisation des formations, l’accompagnement de la mobilité interne, l’évaluation des performances, la réalisation de tests de personnalité et de compétence, l’aide au recrutement (premier niveau d’analyse des candidatures), etc. Enfin, quatrièmement, l’entreprise gagne une image plus moderne, plus innovante, passe pour plus attentive à la réussite de « l’expérience collaborateur ». Notons que ce gain d’attractivité de la marque employeur peut être accru si le chatbot RH est doté d’une identité visuelle et d’une certaine personnalité (convivialité du ton et du vocabulaire, utilisation de smileys ou gif, etc.). 

Ainsi, le chatbot est « utile » de plusieurs façons. Outre le fait qu’il peut gérer les réponses à des questions de façon automatisée (« Frequently Asked Questions ou FAQ) et qu’il est un diffuseur de bonnes pratiques (notamment le dialogue, l’interaction), il permet aussi :

  • d’accéder aux données d’un système d’information relatives aux informations personnalisées des utilisateurs ;
  • d’effectuer un action dans un système d’information (ex : réalisation d’une tâche administrative, pose d’un jour de congé), 
  • de suivre le bien-être des collaborateurs, de mener des enquêtes, de réaliser des tableaux de bord. 
Un apporteur de réponses personnaliséesLorsqu’une information recherchée (récupérer un mot de passe, formalités à accomplir pour poser une journée de congé, lire une fiche de paie, calculer les droits à la retraite) n’est pas immédiatement accessible ou est difficilement lisible, le collaborateur perd sur son temps de travail ou oblige un de ses collègues à perdre lui aussi du temps et de l’énergie. Le chatbot permet d’apporter rapidement des réponses personnalisées à la plupart des questions posées, souvent automatisables (« FAQ »).
Un planificateur des tâches de la vie couranteLe chatbot RH est un assistant efficace dans l’organisation des tâches courantes. Il permet d’enregistrer un grand nombre de données relatives à un nouveau collaborateur (état civil, numéro de badge, numéro de bureau, etc.), de gérer les absences des collaborateurs ou d’aider les employés à planifier leurs congés, déclarer des heures supplémentaires, etc.
Un organisateur d’agendaLe chatbot RH peut trouver rapidement un créneau disponible entre les agendas de plusieurs collaborateurs, réserver une salle de réunion, organiser le planning d’entretiens d’embauche ou de soirées événementielles. Il libère ainsi du temps et de l’énergie au profit des collaborateurs.
Un accélérateur de carrièreEn libérant du temps et de l’énergie, le chatbot RH permet aux responsables RH de se consacrer pleinement aux plans de formation et aux programmes d’amélioration du bien-être au travail. Les salariés peuvent ainsi définir des objectifs de carrière ou des stratégies de reconversion dans la durée. 
Quelques cas d’utilisation du chatbot dans la gestion RH

Exemples de chatbots RH

ALOHA ROBOT d’ADECCO[9] : facilite la recherche d’emploi en indiquant les postes existants et en proposant des offres correspondant aux critères posés par l’utilisateur (secteur type de contrat ville, etc.). 

Beaumanoir du groupe textile de prêt-à-porter Beaumanoir (marques Cache Cache, Bréal, Bonobo, Morgan, Vib’s) : le chatbot est un assistant recruteur de conseillers de vente qui répond à trois objectifs : attirer davantage, disposer de candidats avec une meilleure préqualification, permettre aux responsables de se concentrer sur le relationnel plutôt que sur le tri des CV lors des processus de recrutement.

Eurécia de 3X CONSULTANT[10] : fait vivre une journée de travail dans l’entreprise et demande des choix d’actions avec, si le bon chemin est suivi, des offres d’emploi. 

MYA de L’Oréal[11] : filtrage, tri et redirection des candidatures. 

RANDY de Randstad[12] : spécialisé dans la présélection. En plus des tâches de ALOHA, il collectionne des données sur l’utilisateur : profil expérience, adresse, téléphone, test de personnalité ou test métiers. Score non visible du candidat. Envoi des profils présélectionnés aux consultants qui recontactent les candidats sous 48 heures. RHobot du distributeur de gaz GRDF [13]: conçu en interne, ce chatbot « Business to Employee » (B2E) répond seul aux questions simples qui représentent un bon quart des demandes adressées au service RH (ex : solliciter une attestation d’employeur, connaître la procédure de remboursement du pass Navigo ou les congés disponibles, s’aiguiller vers le bon interlocuteur dans l’entreprise). 

TALMUNDO de BNP Paribas Fortis[14] : ce chatbot répond aux questions des nouvelles recrues.

Enjeux éthiques et réponses

L’objectif dans tout projet de création de chatbot est de mettre à la disposition des clients, une application pouvant converser avec eux avec un langage naturel. Un échange peut durer quelques minutes et l’agent conversationnel tente de simuler les réponses qu’une personne réelle aurait formulées, suite aux différentes requêtes de l’internaute.

  • Questionnaire du comité national pilote d’éthique du numérique (CNPEN)[15]
  • Livre blanc de la CNIL sur les chatbots (septembre 2019)[16]

L’utilisation d’un chatbot RH soulève des questions éthiques qui demandent une grande vigilance. 

Une bonne définition du besoin et du périmètre

Un chatbot RH doit répondre à des besoins précis. Avant d’établir la base de connaissances, les informations et les algorithmes qui seront utilisés pour répondre aux questions des collaborateurs, il convient de bien circonscrire les problèmes, les objectifs et les besoins fonctionnels. Cette tâche complexe est très importante afin d’éviter que les utilisateurs n’adressent au chatbot des questions « hors sujet » auxquelles celui-ci ne saura pas répondre, ce qui générera de la déception et de la frustration. 

Une attention forte à la fiabilité des données RH

Étant donné le haut degré de sensibilité des données RH d’une entreprise, notamment par rapport aux données commerciales, il peut être recommandé de procéder à un audit des données RH pour s’assurer de leur fiabilité. 

Communication et formation : les deux facteurs-clés du succès

L’ensemble de l’entreprise doit être à la fois bien informée et motivée pour utiliser le chatbot. Ce point est particulièrement important si le chatbot est doté d’une IA ; c’est en effet en communiquant avec les collaborateurs qu’il deviendra de plus en plus performant. La mise en place de tout projet de chatbot doit donc s’accompagner d’un plan de communication, lequel doit être complété par un plan de formation car le pilotage et la gestion de la base de connaissances du chatbot nécessitent l’acquisition de nouvelles compétences au sein du service RH. 

Afin d’examiner les enjeux éthiques concernant les chatbots RH, il conviendra de retenir les huit points suivants : 

  1. Données personnelles et vie privée
  2. Surveillance
  3. Discrimination en raison des biais 
  4. Atteinte à l’autonome par le profilage et le nudge
  5. Transparence
  6. Explicabilité des réponses
  7. Enjeux de société
  8. Sécurité

Données personnelles et vie privée

Parmi les données personnelles, la voix pose un cas particulier, car elle peut à certains moments indiquer un état de fatigue, voire un état dépressif, qui pourrait être divulgué ou utilisé par l’entreprise pour influencer la décision de l’utilisateur. 

RisquesRéponses
Données personnelles ?Voix donnée biométrique qui permet l’identification de la personneFAQ/InteractionAnonymisation des donnéesNotion de données sensibles RGPDMaîtrise de ces donnéesDroit à l’image sonore
Enregistrement de la voixInformations sur l’âge, le sexe, la langue maternelle, le milieu socio-culturel, l’éducation, l’état de santé, les émotions, les intentions (miroir de l’âme…) ConscienceInformationLoyautéSensibilisation

Surveillance

Les agents conversationnels généralistes comme Siri ou Elexa effectuent un captage abondant de données à l’insu des utilisateurs, reflétant ainsi une intention d’écoute et de surveillance. Pour répondre à ce risque, il convient de fournir des informations sur les capacités de l’outil, d’affirmer sa loyauté, et d’indiquer les mots-clés[17] qui font passer de « l’écoute passive » à « l’écoute active ».

Le RGPD recommande l’anonymisation, c’est-à-dire « un traitement qui consiste à utiliser un ensemble de techniques de manière à rendre impossible, en pratique, toute identification de la personne par quelque moyen que ce soit et de manière irréversible. » Il évoque également la pseudonymisation pour limiter les risques liés au traitement de données personnelles. La pseudonymisation vise « un traitement de données personnelles réalisé de manière à ce qu’on ne puisse plus attribuer les données relatives à une personne physique sans information supplémentaire », c’est-à-dire que l’on remplace les données directement identifiantes d’un jeu de données (nom, prénom, etc.) par des données indirectement identifiantes (alias, numéro séquentiel, etc.). Toutefois, comme la CNIL en France l’a indiqué, il est bien souvent possible de retrouver l’identité d’individus grâce à des données tierces : les données concernées conservent donc un caractère personnel. 

Grâce à des recoupements, le chatbot – derrière lequel il y a forcément des gens qui sont en mesure d’« écouter » – peut savoir à peu près tout sur un individu, notamment en identifiant sa voix (timbre, ton, élocution). Cela pose la question de l’identité digitale des individus. 

Un autre risque de surveillance concerne la tentation de réécouter les messages pour améliorer les performances du chatbot.

La présence grandissante des chatbots dotés d’IA dans les lieux publics et espaces de passage est de nature à compromettre la confidentialité des échanges. 

Dans l’entreprise, les chatbots peuvent être utilisés à des fins de surveillance des employés, d’où l’impératif d’exiger le respect des procédures mises en place par les instances représentatives du personnel (IRP) et du comité social et économique (CSE). 

Discrimination en raison des biais

Les chatbots font courir le risque que les biais des jeux de données interrogées soient reproduits et qu’il s’ensuive une discrimination dans les choix des réponses. La réponse à ce risque passe par la sensibilisation, le contrôle et les audits.

Pour contenir les risques liés aux biais, il importe que les réponses fournies par les chatbots soient toujours les mêmes (« réponses experts ») quelles que soient les caractéristiques des personnes physiques. Elles doivent être neutres et fiables. 

Atteinte à l’autonomie par le profilage et le nudge

Les chatbots permettent le profilage des données personnelles, en particulier les données de santé, de goût et préférences, des activités. Il convient de sensibiliser l’opinion sur cette question et, concrètement, de ne pas lier les échanges avec les chatbots aux comptes utilisateurs déjà existants (e-mail, agenda magasin en ligne) pour éviter le chargement et le croisement de données. 

Le nudge fait courir une autre forme de risque, celui d’orienter l’interlocuteur vers des actions, par exemple des achats, sans qu’il s’en rende compte. C’est pourquoi il convient de distinguer entre les « bons nudges » (bouger plus, ne pas fumer, manger moins de sucre, etc.) et les « mauvais nudges » (actes d’achats commerciaux non nécessaires et dispendieux pour l’utilisateur). 

Avec les chatbots qui font glisser d’un moteur de recherche à un moteur de réponse, des questions se posent en termes de neutralité, fiabilité, variables en fonction du profil de l’individu. Le libre choix de l’individu peut être atteint : le chatbot oriente les choix de l’utilisateur en ne lui fournissant que quelques options, d’où un risque d’enfermement, de limitation des choix, de discrimination. La réponse à ce risque est difficile à mettre en œuvre, mais il faut au moins clarifier la situation en expliquant que les choix proposés ne sont pas exhaustifs. 

Transparence

En matière de transparence, les risques sont multiples : 

Disparition de la technologie (opacité).

Confusion entre le chatbot et l’être humain : absence d’anthropomorphisme dans le nom, dénomination (assistant, conseiller), le recours au « je », la voix, les expressions, le rire, les simulations d’émotions et autres, la forme du robot. L’État de Californie a imposé que soit fournie une information sur l’interaction avec un chatbot. Le robot est conçu par l’humain pour répondre à ses besoins et ses attentes, mais il lui manque la complexité.

Dans le cas d’un chatbot émotionnel, risques de dépendance, d’enfermement, de recul de la socialisation. Ce type de chatbot devrait être circonscrit à certaines finalités médicales ou éducatives encadrées et sous contrôle (surveillance, accompagnement, convalescence, éducation, divertissement).

Confiance excessive. Il importe de présenter le chatbot comme simplement un outil. Nous avons vu plus haut que certains chatbots étaient conçus pour devenir les « amis » des individus qui les utilisent. La transparence est donc indispensable : l’individu doit réaliser que le chatbot « fait semblant » de comprendre la conversation, mais en réalité il ne comprend rien. 

Risques d’erreurs dans les réponses (« le lait noir »), non détection du mot-clé ou détection erronée. Les réponses sont la transparence sur les erreurs possibles, la définition d’une valeur du seuil acceptable, un mécanisme à deux passes pour la détection (une première embarquée localement – seuil bas – et une seconde haute sur le serveur.

Le caractère autoapprenant des chatbots entraîne le risque qu’ils reproduisent les biais des utilisateurs (ex : chatbot « Tay » de Microsoft avec sa logique de violence, racisme et misogynie). Les réponses sont la transparence sur le recours à l’apprentissage automatique, la transparence encore sur les biais d’apprentissage du chatbot, et un contrôle du chatbot pouvant aller jusqu’à son arrêt. 

Explicabilité des réponses

Les répliques des chatbots doivent être compréhensibles et explicables. 

La stratégie du chatbot correspond-t-elle à celle perçue par son interlocuteur ? Il importe d’identifier les finalités et les usages du chatbot et de communiquer sur ces derniers. Les finalités doivent être respectées. Un chatbot de surveillance doit se présenter comme tel.

Les critères des prises de décision sont-ils connus ? 

Calcul des paramètres de l’interlocuteur, par exemple dans les procédures de recrutement. Les interlocuteurs doivent être informés sur les critères et les paramètres. 

Enjeux de société

Le développement des chatbots en général tend à modifier les rapports humains : moins d’interactions, rapports moins tolérants, maltraitance et autoritarisme non punis, accoutumance, etc. C’est pourquoi l’utilisation des chatbots devrait être limitée à certaines finalités. Une attention particulière doit être portée aux chatbots pour les enfants en cours d’éducation. Un système d’alerte et de contrôle devrait être prévu afin, par exemple, d’alerter l’utilisateur sur sa violence et, le cas échéant, de lui interdire l’utilisation du chatbot.

D’autres risques de société sont probables, tels que l’appauvrissement du langage, la perte de mémoire, l’environnement ou encore l’ampleur du phénomène des « travailleurs du clic »[18]

Sécurité

Avec le déploiement des objets connectés (« l’internet des objets »), le foyer connecté (thermostat, station météo, ampoules connectées, etc.) devient un centre de données prisé par les hackers. Le compteur communiquant pour l’électricité simplifie grandement la vie de l’utilisateur mais il est en même temps une source d’informations inépuisable sur ses habitudes. La sécurité est donc un impératif dans ce domaine. 

Un autre risque concerne la fuite et le piratage de données, notamment médicales et judiciaires. Certains cabinets d’avocats les interdisent et interdisent à leurs employés qui font du télétravail d’en avoir chez eux. 

On mentionnera enfin l’« hypertrucage » (deepfake) qui désigne un enregistrement vidéo ou audio réalisé ou modifié grâce à l’intelligence artificielle. Ce terme fait référence non seulement au contenu ainsi créé, mais aussi aux technologies utilisées (le mot deepfake est une abréviation de Deep Learning et Fake pour faire référence à des contenus faux qui sont rendus profondément crédibles par l’intelligence artificielle). Des contrôles et des audits sont là nécessaires, notamment pour éviter l’usurpation d’identité (qui est une infraction pénale). 

CONCLUSION

Le déploiement rapide des chatbots et l’arrivée de l’intelligence artificielle représentent une formidable opportunité pour les directions RH en vue d’améliorer les conditions de travail des collaborateurs. Ces directions doivent faire face aux nouveaux enjeux du monde de l’entreprise – attractivité, fidélisation, nouveaux modes de travail (y compris le travail à distance), responsabilité soci(ét)ale de l’entreprise, objectifs de développement durable, etc.) – et en même temps la transformation numérique dont dépend en grande partie leur pérennité. 

D’une part, les chatbots de nouvelle génération peuvent permettre d’améliorer le fonctionnement de la fonction RH, par exemple en répondant aux questions des collaborateurs relatives aux ressources humaines, en fournissant une assistance dans la sélection des candidats, en améliorant le parcours de mobilité et de formation personnalisé, en analysant les zones et les facteurs d’absentéisme, en localisant les compétences. 

D’autre part, ils peuvent augmenter la performance des collaborateurs en les délivrant des tâches ennuyeuses (par exemple la gestion administrative des clients, les opérations de contrôle de conformité ou de qualité, les recherches juridiques ou techniques) et en les accompagnant dans l’apprentissage de nouveaux métiers qui feront appel à des « compétences générales » (soft skills) telles que le conseil, l’empathie, l’esprit d’équipe. 

Toutefois, la mutation en cours soulève des enjeux éthiques considérables qu’il convient d’identifier, d’analyser et de traiter le plus rapidement possible avant que le déploiement des chatbots dotés d’intelligence artificielle n’atteigne un point de non-retour. Ces enjeux sont considérable si l’on songe à l’importance capitale des données personnelles dans la capacité des machines à être « intelligentes », aux risques de mauvaise utilisation ou de manipulation de ces données à des fins de contrôle et de surveillance, à l’étrange transformation des chatbots en « compagnons » indispensables des collaborateurs dans les activités en ligne, et finalement à la perte de vue que la relation homme-machine n’est pas prête de remplacer les interactions, physiques ou virtuelles, entre les humains. 

REFERENCES

[1]       « Chatter » désigne en anglais une discussion informelle et superficielle ; « bot » est une abréviation pour « robot. 

[2]       https://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html

[3]       En novembre 2020, l’éditeur de logiciel américain iCIMS a racheté la start-up Easyrecrue, spécialisée dans les ressources humaines, et qui en acquérant la start-up Playbots en 2018 avait pu intégrer une brique chatbot dans sa solution. Pour se démarquer dans l’univers des logiciels RH, Easyrecrue avait parié sur la communication entre l’entreprise et les talents. Elle s’est spécialisée ainsi sur les entretiens vidéo, en différé ou en live, et a développé une technologie d’analyse des comportements basée sur ces vidéos.

[4]       https://www.lemondeinformatique.fr/actualites/lire-une-faille-dans-alexa-ouvre-la-porte-aux-donnees-personnelles-80041.html

[5]       https://replika.ai

[6]     Plus de 7 millions de personnes ont téléchargé et essayé Replika, y compris dans des pays comme la France ou l’Italie, même si le service n’est disponible qu’en anglais.

[7]       https://mental.jmir.org/2017/2/e19/

[8]       https://singularityhub.com/2019/07/14/this-chatbot-has-over-660-million-users-and-it-wants-to-be-their-best-friend/

[9]       https://www.adecco.fr/candidats/aloha/

[10]       https://www.eurecia.com/client/3x-consultants

[11]       https://mediaroom.loreal.com/fr/loreal-deploie-avec-mya-systems-une-solution-basee-sur-lia-pour-faciliter-lexperience-candidat-2/

[12]       https://www.randstad.fr/randy/?utm_medium=search&utm_source=sea&utm_campaign=ran-c_promo_lancement-chatbot_0119&gclid=cj0kcqjwojx8brczarisaewbfmk7sdvnsqk5tw01xpmxjkttexysjrq10ivp7pyjf-ub5fud3o9gow0aavo3ealw_wcb

[13]     RHobot, un chatbot dédié aux questions RH, a été expérimenté en 2019 par le distributeur de gaz puis étendu aux 1.279 salariés du siège francilien ; il sera déployé en 2021 vers l’ensemble des 11.000 salariés présents en France. 

[14]       https://www.talmundo.com/fr/onboarding-bnp-paribas-fortis-etude-de-cas

[15]       https://www.ccne-ethique.fr/sites/default/files/agents-conversationnels-appel_a_contributions-cnpen_0.pdf

[16]       https://www.cnil.fr/sites/default/files/atoms/files/cnil_livre-blanc-assistants-vocaux.pdf

[17]       Les premiers chatbots étaient essentiellement des programmes destinés à répondre à des requêtes en se basant sur des mots dits « déclencheurs », qui permettaient de générer rapidement une réponse que les concepteurs avaient définie dans la base de données du programme. La méthode des « mots-clés » s’inspire de cette approche initiale, en permettant de donner l’impression que le chatbot « converse » avec un individu réel. Cependant, pour que cette méthode soit réellement efficace, il est important de créer une base de données imposante, faute de quoi, en raison de l’automatisme des réponses formulées, les utilisateurs s’apercevront rapidement qu’ils sont en présence d’une machine et que celle-ci ne peut satisfaire efficacement leurs attentes. C’est pourquoi aujourd’hui, sans pour autant délaisser le système de formulation de réponses à partir de mots-clés, les chatbots dotés d’IA sont capables d’apprendre, d’utiliser des systèmes de reconnaissance des mots et de réaliser des analyses linguistiques. Le but est d’être en mesure d’analyser les requêtes des utilisateurs afin de fournir des réponses exactes et satisfaisantes, imitant les comportements humains.

[18]       L’intelligence artificielle n’apprend pas toute seule : l‘apprentissage des algorithmes de machine learning doit généralement être supervisé par des humains qui vont étiqueter ou légender des images (labelling and tagging), retranscrire des conversations… Les professionnels de l’IA appellent ces « micro-tâches » des HIT (human intelligence task). L’IA devait transformer notre rapport au travail et supprimer les métiers peu qualifiés. Ici, c’est le contraire qui se produit avec l’émergence d’une nouvelle forme de travail : le crowdworking (travail collaboratif). Les « crowdworkers » ou « hiters » forment une nouvelle catégorie de travailleurs, les « travailleurs du clic » indépendants et au statut précaire, qui sont payés à la tâche par des plates-formes de crowdsourcing. Facebook a reconnu qu’il faisait écouter par des sous-traitants des conversations d’usagers de son assistant vocal Alexa pour en améliorer les réponses. Google, Amazon et Apple ont admis avoir eu avoir la même pratique et, face aux critiques, ont décidé d’y mettre fin. Cf. https://www.atlantico.fr/decryptage/3571597/triche-ou-optimisation–mais-qui-sont-ces-marques-qui-utilisent-des-bataillons-de-travailleurs-du-clic–frederic-marty

Quand l’Intelligence Artificielle s’immisce dans les Ressources Humaines …

Ressources humaines

Alexandra Fieux-Castagnet

Novembre 2020

INTRODUCTION

Le CV est la première interaction qu’ont les employeurs avec les candidats à un poste. La 1ère étape d’un processus de recrutement classique est de faire une sélection grâce au CV qui reflète l’expérience, les compétences et les objectifs de chaque candidat. Selon le baromètre des habitudes des recruteurs de 2018, un recruteur accorde en moyenne 34 secondes par CV. Que se passe-t-il en 34 secondes et que peut faire une intelligence artificielle pendant ce même laps de temps ? Si Simon Baron écrit que le domaine du recrutement résiste encore à l’intelligence artificielle[1]l’IA semblerait pouvoir jouer un rôle significatif en égard à la puissance des algorithmes, à l’importance stratégique du recrutement, à la quantité grandissante de données à traiter, du volume croissant de candidatures reçues par poste. 

Quelles sont les applications qui utilisent l’IA dans le cadre du processus de recrutement ?

Nous allons parler de différents types d’algorithmes qui peuvent être appliqués à un processus de recrutement : 

  • Les algorithmes de « sourcing » aussi bien pour les recruteurs que pour les candidats
  • Les algorithmes de « screening » qui permettent de filtrer les candidatures 
  • Les algorithmes de « matching » qui évaluent les compétences d’un candidat et prédisent son adéquation au poste proposé
  • Les algorithmes qui accompagnent le candidat tout au long de son processus de recrutement 

Les algorithmes de sourcing

Les algorithmes de sourcing répondent à des besoins définis par un recruteur ou un candidat en analysant des quantités importantes de données. Ces algorithmes sont, pour l’heure, les plus développés et utilisés en matière de recrutement. Le principe de ces algorithmes est de procéder par mots clés qu’ils pondèrent en fonction des offres et des candidats. Ils sont fondés sur la reconnaissance d’écriture et l’apprentissage supervisé. Par exemple la pratique du sport serait davantage valorisée pour un emploi chez Décathlon.[2]

i. De candidats

L’objectif de ces algorithmes est de partager une offre d’emploi au plus de candidats possibles qui pourraient correspondre au profil recherché. Les algorithmes parcourent donc le maximum de réseaux pour partager une offre (LinkedIn par exemple), et une fois les potentiels candidats informés, ils font correspondre les compétences des candidats avec celles renseignées par l’entreprise. L’algorithme maximise ainsi le nombre de potentiels candidats informés, analyse les dizaines de milliers de CV qui les décrit et n’extrait que les plus pertinents pour les envoyer au service RH. Yatedo propose ce genre de solutions et se décrit comme le « Google du recrutement » en France. Arya collecte toutes les informations disponibles sur internet pour dénicher les candidats les plus compétents pour le poste proposé. 
Textio se concentre sur l’optimisation de l’impact du contenu d’une offre d’emploi. Cet algorithme propose donc la rédaction qui attirera un maximum de candidats. 

ii. D’offres d’emplois

Les candidats sont également à la recherche des offres qui sont les plus à même de correspondre à leurs critères de recherche. Certains algorithmes fonctionnent donc comme un moteur de recherche d’emploi pour les candidats. A l’inverse, l’algorithme part du CV que lui fournit le candidat, l’analyse et lui propose les postes les plus pertinents pour ses compétences. On appelle également ce type d’algorithme des « CV catchers ». Ainsi LinkedIn ou ZipRecruiter proposent aux utilisateurs les offres qui correspondent le mieux avec ce qu’ils renseignent sur leur profil. Ces algorithmes permettent parfois aux candidats d’identifier des offres auxquelles il n’aurait pas pensé. 

Sourcing de candidats et d’emplois sont souvent reliés. Ainsi un même algorithme peut proposer les entreprises les plus en adéquation avec un candidat et ce candidat aux dites entreprises. C’est la proposition de Jobijoba en France dont l’algorithme est déjà utilisé par une soixantaine d’entreprises, dont Carrefour et Axa1 et fonctionne dans 80% des cas. 
On retrouve également parmi les acteurs des géants comme Google qui avec son outils Google for Jobs collecte des offres d’emplois puis les trie selon différents critères comme la localisation, le type de contrat ou encore la date de publication.[3] En effet, grâce aux compte Gmail, Google a déjà accès à nombreuses de ces informations sur les potentiels candidats : les durées trajet domicile-travail grâce à GoogleMaps par exemple. Google propose également ses services aux recruteurs directement, agissant alors comme un forum d’emploi. 

Les algorithmes de screening

Les algorithmes de screening font une première sélection de l’ensemble des CV proposés pour un poste. Ils filtrent les meilleurs profils qui seront retenus pour la suite du processus de recrutement. En plus de détecter les mots clés, ces algorithmes décryptent la sémantique des CV et analysent le vocabulaire utilisé, la tournure des phrases, etc. Cette étape supplémentaire dans l’analyse du CV permet à ces algorithmes de mesurer la cohérence du profil et des compétences avancées par le candidat. Ideal ou Sniper AI sont des exemples de solution de screening. 
Dès ce stade du processus de recrutement, l’analyse du CV peut être complétée par une conversation basique avec un chatbot. Ces chatbots, comme ceux de Mya ou Paradox, contactent les candidats retenus et vérifient qu’ils possèdent certaines compétences basiques, qui peuvent être spécifiques au poste. Le groupe l’Oréal utilise ce type de chatbot dans les premières phases du recrutement. 

Les algorithmes de matching

Le matching correspond à une granularité de sélection plus fine que les deux étapes décrites précédemment. Les algorithmes de matching sont définis selon le recrutement qu’on appelle prédictif. L’algorithme projette ainsi le candidat dans la fonction à laquelle il prétend et évalue le degré de compatibilité entre celui-ci et les attentes et compétences exigées pour le poste. 
Cette évaluation nécessite une interaction, source de plus gros volumes de données, et l’algorithme ne se contente plus de la lecture et l’analyse des CV des candidats.  Les hard skills sont mesurables et quantifiables, mais appréhender les soft skills est beaucoup plus difficile. Par exemple, la gestion de projet s’exprime de 14 façons différentes, note Loic Michel, PDG de 365Talents. C’est pourquoi les services RH s’appuient de plus en plus sur l’Intelligence Artificielle pour analyser la sémantique, le langage naturel et capter toutes les données non structurées. 
AssessFirst, se base sur trois critères comportementaux, identifiés par l’algorithme, pour évaluer la possible relation professionnelle entre le candidat et son futur manager. L’algorithme identifie ainsi le profil comportemental du manager et sélectionne les critères les plus pertinents à évaluer auprès des candidats. L’évaluation comportementale soumise par l’algorithme aux candidats évalue leur motivation, leur personnalité et leur compatibilité avec celle de leur futur manager. AssessFirst promeut ainsi une solution qui s’adapte et tient compte de la culture d’entreprise et s’impose donc comme outil d’aide à la décision. Aujourd’hui plus de 3500 entreprises dans 30 pays différents utilisent cette solution, ce qui permet à AssessFirst d’analyser les données de plus de 5 millions de profils, aussi bien candidats, employés ou recruteurs.[4]
HireVue propose une solution d’analyse de vidéos d’entretien. Une intelligence artificielle analyse les expressions faciales, les mots employés, le ton des candidats et des dizaines de milliers d’autres facteurs selon l’entreprise. Il attribue ensuite une note à chaque candidat selon son degré d’employabilité pour le poste proposé et l’entreprise cible.[5]
Ces outils de traitement automatique de l’image sont déjà largement utilisés aux États-Unis alors qu’encore peu en France, grâce à Easyrecrue ou Visiotalent par exemple. La startup française Whoz qui se concentre sur le recrutement d’experts aux compétences pointues pour des industries telles que l’aéronautique ou la métallurgie, a monté un partenariat avec un laboratoire suisse qui promet de mesurer les compétences comportementales à partir d’un entretien vidéo différé. Le candidat se présente et répond à une liste de questions et l’intelligence artificielle en analysant les modulations de sa voix, les respiration, l’élocution, les micro signaux des expressions du visage, permet de mesurer sa confiance en soi, sa motivation, son aisance à parler en public, son adaptabilité, sa créativité, son intelligence relationnelle etc. Pour l’instant, le laboratoire est en phase de développement et n’est pas suffisamment fiable. L’algorithme est entrainé grâce aux avis de psychologues et recruteurs.1 Easyrecrue propose déjà un algorithme qui analyse le contenu verbal (richesse lexicale, précision du vocabulaire, hésitations, répétitions, ton, etc.) mais n’a pas encore intégré la reconnaissance faciale. Ce projet est lui aussi entouré d’un comité scientifiques composé de psychologues, d’enseignants chercheurs du CNRS, de Télécom ParisTech et de CentraleSupelec.[6]

La plateforme le Vrai du Faux automatise la prise de références professionnelles. Grâce aux coordonnés fournis par les candidats, les anciens managers peuvent donner leur avis sur la plateforme. L’algorithme du Vrai du Faux pondère ensuite ces résultats selon différents critères comme la durée, le type du contrat, la pertinence du poste par rapport à l’offre d’emploi, etc.[7]
You-Trust fait également intervenir des tiers lors des dernières étapes du processus de recrutement. La startup propose au candidat une évaluation à 360° : le candidat s’auto-évalue et propose à ses managers, pairs, subordonnés, partenaires ou clients de l’évaluer également. You-Trust ajoute à cela une analyse de personnalité et de motivation grâce aux tests Big Five et Culture Fit. L’algorithme est utilisé par de grands groupes comme France Télévisions, SNCF, PageGroup ou L’Oréal pour développer la mobilité interne. L’avantage de cet algorithme est qu’il tient compte de compétences ou d’aptitudes pas toujours conscientisées par l’employé. 
Clustree est une autre solution de gestion de carrière qui s’adresse aux grandes entreprises dans lesquels le service RH n’a pas les moyens matériels de suivre individuellement chaque employé. Classiquement, on compte un responsable RH pour 300 collaborateurs. Or on constate que beaucoup de personnes démissionnent par manque de visibilité sur les opportunités en interne.6 L’algorithme de Clustree analyse les parcours de carrières de près de 250 millions de candidats grâce aux plateformes Linkedin ou Monster et permet ainsi d’identifier les corrélations entre les compétences : si un candidat a la compétence A, il y a x% de chance qu’il ait également la compétence B. 6

Les avantages d’intégrer l’intelligence artificielle au processus de recrutement

Gain de temps par candidature permettant d’augmenter le volume de candidatures reçues

Les algorithmes de sourcing et de screening permettent à une Intelligence Artificielle d’analyser une pile de CV en quelques secondes, alors qu’un recruteur aurait dû y consacrer des heures. En gagnant du temps par analyse d’un CV, l’Intelligence Artificielle peut traiter un volume de données plus important.  L’analyse d’un CV par une intelligence artificielle permet par exemple, à un candidat ou à un recruteur de proposer des postes ou des profils qu’il n’aurait pas envisagé. En ouvrant le champ des possibles vers des offres ou des candidats pertinents, l’Intelligence Artificielle permet de faire gagner du temps aussi bien aux recruteurs qu’aux candidats. 
Mathilde Le Coz, directrice de l’innovation RH du cabinet d’audit Mazars, explique que l’utilisation d’un chatbot répondant aux questions des candidats potentiels et planifiant les entretiens, a permis d’augmenter de 50% le nombre de candidatures reçues en 2019.[8]  
En effet, ces outils répondent à une problématique opérationnelle des recruteurs et leur permettent d’élargir le sourcing, de traiter des volumes de données croissants tout en se consacrant sur des critères qualitatifs. Les recruteurs ont ainsi davantage de temps pour se consacrer à des tâches à plus de valeur ajoutée, par exemple l’intégration des nouvelles recrues. 
Ce gain de temps est un argument essentiel pour l’adoption de services de recrutement en ligne, aussi bien par les candidats que par les entreprises. 

Diminution de la marge d’erreur de recrutement et son impact direct sur la réduction de coûts et l’amélioration de la performance

L’Intelligence Artificielle, en plus de traiter des volumes considérables d’informations en quelques seconde, diminue la marge d’erreur. En effet, l’Intelligence Artificielle peut rapidement détecter une incohérence de date, de géographie qui pourraient paraitre inaperçue à un recruteur. En traitant davantage de candidatures, l’Intelligence Artificielle augmente la probabilité de trouver un candidat pertinent pour le poste en améliorant la rencontre de l’offre et de la demande.
De plus, en traitant des données non structurées (sémantiques, expressions faciales etc.), l’Intelligence Artificielle permet de dresser un profil complet de chaque candidat, et donc d’améliorer la qualité du « matching » entre candidat et offre d’emploi. Lorsque, du fait du volume de données à traiter, une intelligence humaine se baserait sur son instinct, l’Intelligence Artificielle peut prendre une décision rationnelle fondée sur des éléments objectifs. Ainsi, JobiJoba, grâce à son CV Catcher, permettrait d’augmenter de 44% le nombre de candidatures et de réduire de 22% le nombre de réponses négatives.[9]
Cette marge d’erreur diminue avec l’entrainement des algorithmes et la quantité de données qu’on leur fournit. L’Intelligence Artificielle améliorera donc sa performance au cours de son utilisation, jusqu’à être capable de prédire la performance d’un candidat pour un poste. Ainsi, à force de faire lire à une Intelligence Artificielle des centaines de CV, elle cromprendra que selon le contexte « ingénieur d’affaires » et « ingénieur commercial » signifient la même chose, explique Yves Loiseau, le directeur général d’Europe du Sud de Textkernel.[10]
En augmentant l’efficience du processus de recrutement et en maximisant la performance de son résultat, l’Intelligence Artificielle permet également une économie de coûts. En plus de diminuer les coûts associés à l’analyse d’un tel volume de données par des responsables RH, recruter des profils pertinents pour chaque poste augmente la performance de l’entreprise et réduit le turnover des employés. Ainsi AssessFirst clame pouvoir en moyenne augmenter la performance des entreprises qui utilisent son service de 25%, de réduire leurs coûts de recrutement de 20% et de diminuer le turnover de leurs employés de 50%.4

Traitement des candidats avec objectivité et équité

Une grande promesse de l’utilisation des algorithmes pour le recrutement est de lutter contre la discrimination à l’embauche. En effet, les algorithmes sont insensibles à la fatigue et d’une froide rationalité, ils traitent donc les candidats de façons plus équitable. Un article de l’université de Cornell, paru en décembre 2019, analysant 18 entreprises proposant des solutions de recrutements à l’aide d’algorithmes, conclut que la majorité de ces solutions sont plus justes. Cependant, il est difficile de l’affirmer avec certitude, compte tenu du fait que le fonctionnement des algorithmes auto-apprenant est opaque. 5
Il y a différents usages des algorithmes pour augmenter l’objectivité du recrutement. 
Certains s’attachent à réduire les préjugés inconscients des recruteurs en créant des solutions de filtrage aveugles basées uniquement sur les compétences. D’autres constituent un groupe de candidats diversifié en s’approvisionnant auprès de groupes sous-représentés. 

Lorsqu’un biais est constaté dans les recrutements, un algorithme peut le compenser en appliquant de nouveaux critères, rationnels et objectifs. Par exemple, si la parité hommes/femmes d’une équipe est sévèrement défavorable aux femmes, l’algorithme peut compenser cette tendance en élargissant le sourcing de candidates et en rendant non différenciant le caractère du genre dans la prise de décision au cours du processus de recrutement. 

Pour conclure, l’algorithme est évolutif et s’adapte aux nouveaux besoins. Il peut par exemple être utilisé dans d’autres contextes que le recrutement et devenir une solution d’analyse de cohésion d’équipe, etc. 

Les risques et impacts de l’intelligence artificielle sur le futur du recrutement

Le manque de transparence et l’amplification de biais humains

Si on a évoqué l’opportunité que représentaient les algorithmes en matière d’objectivité de traitement des candidats, il est important de souligner que l’algorithme appuie la modélisation de ses recommandations et décisions sur des corrélations faites entre les données qu’on lui a fournies pour l’entrainer. Il est donc également dépendant des corrélations qui ont pu être provoquées par l’homme, consciemment ou inconsciemment. 
Par exemple, Amazon a fait appel à l’intelligence artificielle pour faciliter le screening de ses candidatures en 2014. Un an plus tard, l’algorithme ne laissait passer que des profils masculins. En effet au cours des 10 dernières années, Amazon a reçu beaucoup plus de candidatures d’hommes que de femmes. L’analyse de cette répartition des données par l’algorithme a abouti à la conclusion que les hommes avaient un profil plus adapté à ce type de poste. En 2017, Amazon choisit de revenir au recrutement traditionnel. 
Nécessitant d’être nourri et entrainé par des volumes de données importants, le recrutement prédictif implique de mobiliser des données passées pour prédire la performance future d’un candidat. Il est cependant contestable de reproduire les schémas exercés auparavant, qui semblent être à risque d’exacerber la discrimination à l’embauche. Si l’IA ne reproduit pas le processus de la pensée humaine, il produit ses résultats et donc ses préjugés, souligne Gaspard Koenig dans un entretien à « l’Obs ».

Impasse pour remplacer l’intelligence émotionnelle humaine

Nous ne sommes qu’aux balbutiements des algorithmes capables d’identifier les compétences relationnelles grâce à l’analyse du langage ou des expressions faciales. La technologie d’analyse sémantique ne permet pas de traiter des interactions complexes. Nous ne pouvons donc pas compter sur la fiabilité de l’Intelligence Artificielle qui, pour le moment, ne se substitue pas à l’intelligence émotionnelle humaine.
Par exemple, l’algorithme ne sait pas tenir compte du stress du candidat sans lui en tenir rigueur. 
Nous nous heurtons, comme dans beaucoup de cas d’usage de l’Intelligence Artificielle, à la complexité d’analyser la pensée humaine pour un algorithme dénué d’empathie. En effet, si nous ne sommes pas non plus capables de comprendre la pensée humaine dans ces moindres détails, l’empathie, la capacité à ressentir l’émotion d’autrui, nous permet de prendre des décisions avisées rapidement. 
Plus le processus de recrutement avance et plus les critères de recrutement se complexifient, moins les algorithmes peuvent les prendre en charge. 

Coûts d’implémentation significatifs et discriminants

L’implémentation de ces solutions de recrutement utilisant les algorithmes représentent des coûts importants pour leur installation et leur maintenance. L’intégration des algorithmes dans le processus de recrutement se fait donc souvent au dépit du maintien du même nombre de responsables RH pour ces étapes que dans un processus traditionnel et menace ainsi une partie de l’emploi du secteur des ressources humaines. 

De plus, du fait de leurs coûts conséquents, le périmètre d’utilisation des algorithmes se restreint à des entreprises traitant de gros volumes de recrutement.  
Nous avons donc des données très similaires qui sont utilisées par les algorithmes dont le volume est limité et qui ne permet pas de prendre du recul sur le fonctionnement de l’entreprise. On trie donc les candidats sur la base de données qui ont été jugées être bonnes mais dont le volume et la diversité sont insuffisance pour assurer une représentativité qui permette d’éliminer les biais des recrutements passés, comme nous l’avons vu précédemment.  

Respect de la vie privée et partage de données consenti mis à mal

Lors de l’envoi d’un CV à un recruteur, le candidat consent tacitement à partager ces informations. Mais qu’en est-il lorsque d’autres données comme la géolocalisation, les informations disponibles sur internet, l’analyse sémantique et la reconnaissance faciale, etc. ?

En 2019, l’Illinois est le premier état américain à voter une loi pour protéger les candidats lors d’un recrutement utilisant des algorithmes. L’employeur doit demander la permission au candidat avant d’enregistrer une vidéo d’entretien, d’utiliser une intelligence artificielle et doit informer de l’utilisation des données du candidat pour l’évaluer. De plus, ces données ne peuvent être conservées plus de 30 jours. 

Mais lorsque les algorithmes sont impliqués dans les processus de recrutement, le département RH est restructuré en conséquence, pour des économies de coûts et des gains en efficacité comme nous l’avons vu précédemment. Les candidats refusant de partager leurs données et de se soumettre au scan de ces algorithmes pourraient ne pas avoir d’autres alternatives pour avancer dans les étapes du recrutement et donc être de facto éliminés. Est-ce donc vraiment un partage consenti des données ? 

Des moyens de duper les algorithmes

Les algorithmes sont jugés plus fiables que les recruteurs, cependant cette technologie en essor n’est qu’à ses balbutiements et peu implémentée, elle reste donc faillible. L’utilisation de ces failles permet à certains candidats de « tricher ». Par exemple, écrire blanc sur blanc des mots clés, des noms de grande écoles ou diplôme pourrait permettre de passer le screening car l’algorithme les traiterait comme le reste du contenu du CV. Au fur à mesure de l’utilisation des algorithmes pour accompagner le processus de recrutement, ces failles peuvent être identifiées et corrigées.

Une IA qui intervient a posteriori

La richesse du recrutement est tout le travail en amont pour affiner la compréhension que l’on a d’un métier, être capable de le faire interagir avec d’autres et évoluer dans le temps. Les algorithmes interviennent dans le recrutement comme puissance statistique en reproduisant les recrutements passés, sans innover, et non pour comprendre ce à quoi on n’a pas pensé, recueillir les ressentis et expériences liées à un métier et ne pas ainsi tomber dans une forme de clonage des schémas de recrutement qu’on a déjà pu appliquer par le passé.  

Enfin, il semble essentiel de prendre du recul et de comprendre comment l’utilisation de ces nouveaux outils est vécue par les candidats et les employés. 

CONCLUSION

Les algorithmes sont déjà partie prenante des processus de recrutement et nécessitent une adaptation à la fois des recruteurs et des candidats à ces nouveaux outils qui accompagnent tous les stades du processus de recrutement. Les trois grandes classes d’algorithmes que nous décrivons sont les algorithmes de sourcing, screening et matching. L’utilisation des algorithmes permet, par le traitement de volumes de données plus importants, un gain de temps et de productivité et une diminution de la marge d’erreur. De plus, par son fonctionnement logique, rationnel et objectif, son utilisation prévient certaines inégalités de traitement des candidats. Cependant, du fait que l’utilisation de ces algorithmes soit encore récente et couteuse, les données utilisées ne permettent pas de prendre du recul sur la qualité du recrutement et les algorithmes reproduisent des schémas préétablis, pour le meilleur et pour le pire. Un autre risque est que son utilisation ne permette pas d’alternative et contraignent donc certains candidats à partager leurs données personnelles et à se soumettre à l’analyse d’un algorithme. Les algorithmes sont pour l’instant davantage utilisés dans les étapes de recrutement nécessitant un traitement d’importants volumes de données comme l’analyse de CV. Leur fiabilité n’est pas encore inébranlable pour comprendre les compétences, intentions et émotions d’un candidat lors d’une discussion ou d’une vidéo. Au fur à mesure d’entrainement, il est possible de corriger leurs erreurs, les biais que révèlent les data sur lesquelles ils s’appuient et de personnaliser leur analyse en fonction des types de postes, entreprises, candidats. Les nombreuses startups investissant sur des algorithmes pour aider au recrutement n’ont donc pas encore dit leur dernier mot et continueront de façonner le futur du recrutement. 

REFERENCES

[1] Opinion | Recrutement : ce que l’intelligence artificielle peut changer, Le Cercle Les Echos, 6 janvier 2020

[2] CV disséqué, entretien vidéo, émotions scrutées… comment l’intelligence artificielle nous recrute – L’Obs – 22 octobre 2019

[3] Google à nouveau accusé de pratiques anti-concurrentielles, cette fois pour la recherche d’emploi – Usine Nouvelle – 13 août 2019

[4] AssessFirst Announces U.S. Expansion – Business Wire – 10 septembre 2019

[5] Les algorithmes s’immiscent à chaque étape du recrutement – Journal du net – 07 septembre 2020

[6] Solutions RH : 5 acteurs qui transforment la gestion des talents avec l’IA – Silicon.fr – 28 février 2019

[7] Les Echos Business – Delphine Iweips

[8] Entreprises : comment les robots s’immiscent dans le recrutement – Le Point – 06 janvier 2020

[9] Des recrutements à la mode chatbots chez Mazars – L’AGEFI Hebdo – 12 mars 2020

[10] Votre recruteur est-il un algorithme ? LSA.fr – 11 avril 2019