QUELS ENJEUX ETHIQUES POUR LES CHATBOTS ? QUELLES REPONSES ?

Ressources humaines

Geneviève Fieux-Castagnet

Décembre 2020

Qu’est-ce qu’un chatbot ?

Un chatbot est un agent conversationnel qui peut être vocal ou écrit. Il est souvent intégré dans un système, par exemple un smartphone ou un robot. 

De façon générale, un “bot” n’est rien d’autre qu’un logiciel qui exécute des taches automatiques, i.e. un programme informatique conçu pour communiquer avec des utilisateurs humains à travers l’internet. Nous nous concentrerons ici sur la classe des bots qui se trouvent sur les plates-formes de discussion et des sites web : les « chatbots ». 

L’origine du terme « chatbot » n’est pas tout à fait déterminée, mais il semble qu’il fut inventé en 1994 sous l’appellation « ChatterBot »[1] avant d’être raccourci pour devenir finalement « ChatBot ». 

La définition la plus simple d’un chatbot est la suivante : « un agent conversationnel capable de dialoguer avec un ou plusieurs utilisateurs », c’est-à-dire un programme pouvant avoir une discussion ou conversation avec un humain. Plus précisément, c’est une application informatique de commande vocale qui comprend les instructions verbales données par les utilisateurs humains et répond à leurs requêtes. Le chatbot interagit selon un format qui ressemble à la messagerie instantanée. En répliquant les modèles des interactions humaines, l’apprentissage automatique (machine learning) permet aux ordinateurs d’apprendre par eux-mêmes sans qu’il soit nécessaire de programmer le traitement du langage naturel. Le chatbot peut répondre comme une personne réelle aux questions qui lui sont formulées en langage naturel. Il fournit les réponses en se basant sir une combinaison de textes prédéfinis et d’applications d’apprentissage automatique. Les plus « intelligents » des chatbots intègrent une technologie de compréhension du langage naturel (NLP) qui leur permet de répondre à des questions de plus en plus complexes et à participer à des conversations de plus en plus élaborées. 

Aujourd’hui, les conversations avec les chatbots sont disponibles sur des plates-formes déjà connues telles que Skype, Slack, Telegram, Kik, Messenger, ou encore WeChat en Asie… Cette conversation peut se faire sous forme uniquement textuelle ou être enrichie d’images et d’interactions ; elle peut se faire avec des questions ouvertes ou sous forme de QCM. 

Le chatbot est d’ores et déjà devenu un « compagnon » inséparable de nos vies puisqu’il suffit d’une mauvaise manipulation de touche de son clavier d’ordinateur pour qu’il se manifeste, sans que nous l’ayons sollicité, afin de nous demander ce dont nous avons besoin…

Le chatbot, un nouveau marché prometteur

Le marché mondial des chatbots devrait connaître un fort accroissement au cours des prochaines années, comme le montrent les études suivantes. Même si ces études présentent une très forte variabilité de leurs chiffres, elles se rejoignent pour prédire au cours des années qui viennent une croissance annuelle moyenne de l’ordre de 30%. 

Société de conseil et de recherchePériodeMarché en fin de période 
(milliards de dollars)
Taux de croissance annuel moyen 
(%)
Forencis Research2021-202719,7+29,5
Verified Market Research2020-20275,42+23,16
Allied Market Research2020-20273,39(Banque, services financiers, assurances)+27,3
GMI Research2019-20264,86+22,70
Market Study Report2019-2026N/A+29,60
Mordor Intelligence2019-2025102,29+34,75
MarketsandMarkets Analysis2019-20249,40+29,70
Valuates Reports2018-20259,17+21,95
Grand View Research2017-20251,25+24,30
Arizton2017-20220,80+28,00
Prévisions d’évolution du marché mondial des chatbots

Les raisons pour lesquelles des demandes sont exprimées en direction des chatbots sont multiples, comme le montre le graphique suivant : situation d’urgence, résolution d’un problème, recevoir des explications, faire une réservation, payer une facture, etc. 

Source : Digital Marketing Community

Ces « cas d’utilisations » peuvent se résumer de la façon suivante :

  • informer et faciliter l’accès à l’information : la fonctionnalité la plus intuitive est d’utiliser les chatbots comme un moteur de recherche amélioré en aidant l’utilisateur à chercher et à accéder à la bonne information ;
  • conseiller : les chatbots accompagnent les clients dans leurs choix de produits en leur donnant des conseils personnalisés et en répondant à leurs interrogations ;
  • vendre différemment : les chatbots sont capables de rechercher, planifier, réserver et passer les commandes du client à partir d’une simple conversation ;
  • assister et fidéliser : en utilisant les plates-formes de messagerie comme canal supplémentaire de la relation client, les chatbots s’imposent comme un outil efficace pour fidéliser les clients en leur permettant de suivre leurs commandes. 

Grâce aux progrès de l’intelligence artificielle et au besoin perçu par les entreprises de communiquer de façon ubiquitaire et efficace avec leurs clients, le marché des chatbots semble promis à un avenir radieux. Les principaux secteurs d’utilisation des chatbots aujourd’hui sont l’immobilier, le tourisme, la santé, la finance, le commerce de détail, l’alimentation et les boissons. 

Tandis que les grandes entreprises adoptent facilement les solutions basées sur le chatbot, les petites et moyennes entreprises se situent très en retard en raison des coûts d’installation et du manque de ressources humaines compétentes. En outre, les chatbots requièrent une revue et une maintenance constantes ainsi qu’une optimisation en termes de leurs connaissances et de la façon avec laquelle ils sont supposés communiquer avec les utilisateurs. 

Il faut souligner aussi que les chatbots sont pour le moment développés surtout par des hommes ; ils tendent par conséquent à répliquer les stéréotypes de genre. Le succès du chatbot Replika, conçu par une femme, Eugenia Kuyda, tend cependant à montrer que les choses sont en train de changer. 

Chatbots et intelligence artificielle (IA)

Indiquons tout d’abord que lorsqu’on lui pose une question, le chatbot répond à partir de la base de connaissances qui lui est disponible. Si la conversation introduit un concept qu’il ne peut pas comprendre, il déviera la conversation ou passera la communication à un opérateur humain. Dans tous les cas, il apprendra de cette interaction comme de toutes les interactions à venir. Ainsi, le chatbot est destiné à couvrir un champ de connaissances de plus en plus large et de gagner en pertinence. 

Il est essentiel de garder à l’esprit que la complexité d’un chatbot est déterminée par la sophistication de son logiciel et par les données auxquelles il a accès. D’où l’intérêt de se demander si l’avenir des chatbots n’est pas dans l’intelligence artificielle. Celle-ci est basée sur la création de puissants algorithmes qui déterminent sa qualité de réflexion, d’analyse et de compréhension. Le croisement de la technologie et des usages permet d’offrir des expériences utilisateur nouvelles dont le chatbot est l’un des symboles les plus forts.

Il faut distinguer au moins deux types de chatbots :

  • « les chatbots à interactions dites faibles », c’est-à-dire que chaque question est prévue en amont par l’être humain afin que l’agent conversationnel puisse y apporter une réponse fiable et cohérente grâce à une analyse précise des mots-clés de la requête utilisateur ;
  • « les chatbots à interactions dites fortes » utilisant l’IA pour pouvoir mener une conversation de manière autonome et même faire preuve d’humour et d’émotion.

Tout commence avec le « text mining », une technique qui permet d’automatiser l’analyse sémantique de corpus de texte, donc de reconnaître des informations et de les interpréter. Le text mining repose sur l’analyse du langage naturel, c’est-à-dire sur la détection de mots et de leur nature grammaticale, ce qui lui permet de gérer et traiter les requêtes issues des conversations du chatbot. 

Il est possible de distinguer trois niveaux de compréhension et de traitement des requêtes d’utilisateurs par les chatbots : l’analyse des mots clés, la gestion des intentions et le machine learning.

L’analyse de mots-clés

C’est le premier niveau de l’intelligence artificielle dans les chatbots. Ceux-ci se cantonnent à détecter des mots-clés dans les requêtes des utilisateurs et à leur envoyer la réponse correspondante automatiquement. Grâce à cette reconnaissance de mots-clés, le robot peut identifier des noms d’entreprises, de marques, de produits, de lieux, d’événements, de villes, d’artistes, d’horaires, etc.

La plupart des chatbots actuels sont conçus ainsi. Ils ne « comprennent » pas réellement les messages qui leur sont adressés. Que l’on écrive au chatbot « j’aime le chocolat », « je n’aime pas le chocolat », ou encore « quels sont vos produits au chocolat », le mot-clé détecté sera « chocolat » pour les trois exemples et le bot enverra la réponse programmée qui y correspond.

La gestion des intentions

La gestion des intentions est une technique de compréhension du langage naturel. Il s’agit de comprendre la requête qui est envoyée au chatbot et non pas seulement de détecter un mot-clé. L’IA dans les chatbots débute réellement avec cette technique qui permet d’instaurer entre les utilisateurs et les chatbots un dialogue composé de questions ouvertes et de réponses ne se limitant pas à un simple quizz ou une analyse de mots-clés. La compréhension des requêtes faites au chatbot est donc essentielle. 

La gestion d’intention permet de coupler une volonté à une entité : la volonté correspond à l’intention (avoir, savoir, réserver, acheter, etc.) et l’entité au mot-clé (lieu, boutique, date, personne, événement, etc.). C’est en traitant les intentions et les entités que le chatbot va comprendre la requête. Sa réponse ne sera alors plus neutre, mais adaptée. 

A ce stade cependant, les intentions que le chatbot gérera doivent être prédéfinies pour cadrer leur détection et proposer des réponses adaptées. L’organisation des données dans un plan de classement est aussi faite par un humain. C’est le travail d’un infolinguiste, véritable architecte des conversations du chatbot. Bien que la gestion d’intention permette d’offrir de meilleures réponses aux utilisateurs, le périmètre conversationnel est tout de même normé.

L’apprentissage automatique

L’apprentissage automatique est un système qui permet aux algorithmes d’apprendre à apprendre par eux-mêmes. Il s’applique aux chatbots pour les rendre plus « intelligents », pouvant par exemple analyser les requêtes qui leur sont faites et se tenir à jour sans l’intervention de leur développeur.

Le chatbot évolue au contact de ses utilisateurs. Les algorithmes vont traduire dans leur propre langage les phrases des utilisateurs et en feront des groupes de mots en fonction de leurs contextes. Ils développeront alors des questions et des réponses en prenant en compte les répétitions, nuances et dérivés. Il s’agit aussi d’une forme de mémoire qui permet de se souvenir des conversations antérieures entre le chatbot et son utilisateur. Ainsi, le chatbot se nourrit de data. Plus celle-ci sera importante et de bonne qualité, mieux le bot comprendra les requêtes et y répondra.

L’utilisation faite par les chatbots de l’intelligence artificielle n’en est qu’au début de son processus. De nombreuses pistes restent à explorer et de nombreuses améliorations à prévoir notamment en termes de gestion des intentions.

Cette évolution des mots-clés vers l’apprentissage automatique et du text mining vers le speech mining eût relevé de la science-fiction il y a quelques décennies. Elle est pourtant aujourd’hui de nature à bouleverser l’expérience client tout comme les relations sociales au sein d’une organisation. 

Pour autant, les premières expériences invitent à rester vigilants. Le cas du chatbot Tay conçu par Microsoft et lancé en 2016 est à cet égard révélateur. Se présentant sur Twitter sous le profil d’une jeune collégienne, Tay (@TayandYou) était en réalité un robot doté d’une intelligence artificielle capable de l’accroître en interagissant avec les internautes. Vingt-quatre heures seulement après son lancement le 23 mars 2016, Microsoft dut faire taire son intelligence artificielle après que celle-ci eut publié des commentaires pronazis, sexistes et racistes sur la base de ce que lui enseignaient des personnes mal intentionnées[2]. En répondant à un internaute, Tay tweeta notamment le commentaire suivant qui fit scandale : « Bush est derrière le 11-Septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement. Donald Trump est notre seul espoir. » 

Chatbots généralistes ou spécialisés

Il convient de distinguer deux types de chatbots : 

  • les assistants personnels, tels que Siri, Google Now ou Cortana, qui sont basés sur l’intelligence artificielle et sont capables de traiter un grand nombre d’informations ; 
  • les bots visant un objectif précis et accomplissant une mission spécifique, à l’aide d’un scénario prédéfini. 
Chatbots généralistesChatbots spécialisés
Siri (Apple, 2011)RHD2
Alexa (Amazon, 2014)LOL BOT (Oui.sncf)
Google Assistant (2016)iCIMS[3]
Bixbi (Samsung, 2017)Mila, Kiki, Ana, Chloé, Jane, etc. 

On notera ici qu’au début du mois d’août 2020, des « gentils hackers » réussirent à trouver une faille dans le système de sécurité d’Alexa[4]. Ayant accédé à de nombreuses informations d’ordre privé, ils prévinrent Amazon. L’entreprise s’empressa alors de rectifier le manque de sécurité. 

Le chatbots : du statut d’assistant à celui d’ami

Aujourd’hui, la majorité des chatbots existent pour aider les clients ou d’autres opérations B2C de quelques entreprises. Leurs capacités sont généralement limitées et leur fonction est souvent de diriger le client vers le bon département pour résoudre ses problèmes. Ces bots ne sont pas capables d’avoir une vraie conversation avec une personne, ils ne peuvent que répondre avec des phrases prédéfinies aux questions attendues. On les trouve sur les sites web et les pages Facebook des entreprises ou les applications populaires de messagerie instantanée telles que WhatsApp ou WeChat. Alexa, Google Assistant ou Siri constituent des versions plus avancées de ces bots, qui sont capables de comprendre et d’effectuer une grande variété de commandes comme faire une recherche sur Google, mettre une alarme, écrire un message destiné à quelqu’un, etc. 

Depuis le milieu des années 2010 une nouvelle génération est en train de s’installer dans le paysage des chatbots. Ces nouveaux chatbots ne se contentent pas d’être des collègues ou des assistants ; ils « comprennent » les émotions des humains. C’est ainsi par exemple qu’en novembre 2018 une start-up de San Francisco a lancé Replika[5], une intelligence artificielle qui est déterminée à devenir notre meilleur « ami ». L’idée principale est d’avoir un ami IA qui va nous poser des questions concernant notre journée pour initier une conversation, dans le but de mieux nous connaître. Alors qu’en 2020 de nombreux pays ont dû imposer des confinements pour faire face à la crise sanitaire causée par le nouveau coronavirus, des entreprises en ont profité pour promouvoir des bots du type de Replika afin d’aider les individus à mieux gérer leur anxiété et leur solitude. Le succès est indéniable : Replika compte actuellement plus de 7 millions d’utilisateurs ![6]

Un autre exemple de chatbot « humain » est Woebot, le « coach de santé mentale » conçu par Alison Darcy, une psychologue de l’université américaine de Stanford[7]. Celle-ci a également enregistré une utilisation croissante de son service pendant le confinement et les restrictions et a réagi en remodelant son programme face à la crise. Fondé sur l’étude des thérapies cognitivo-comportementales, le service vise à aider les personnes anxieuses. Le but est de remonter le moral, d’aider les gens à rester calmes pendant une période propice à la dépression. 

Allons encore plus loin pour évoquer le chatbot chinois Xiaolce, qui enregistre déjà 660 millions d’utilisateurs et plus de 5,3 millions de suiveurs sur Weibo, l’équivalent chinois de Twitter[8]. Xiaolce mérite d’interpeller notre conscience puisqu’il se présente comme notre « ami », celui qui partage nos goûts et nos intérêts, à qui nous confions volontiers nos secrets ou nos problèmes, qui devient une source importante de soutien émotionnel dans nos histoires sentimentales ou notre carrière, bref qui en partageant nos côtés les plus vulnérables partage en même temps notre humanité. Des utilisateurs chinois ont déjà indiqué qu’ils préféraient parler à leur bot plutôt qu’à n’importe lequel de leurs amis humains. Le bot est le confident, le compagnon de l’être humain sur la route de la vie, celui qui sait tout sur nous et vers qui l’on se tourne pour trouver du réconfort. 

Si la « success story » de Xiaolce devait préfigurer l’avenir des relations entre les êtres humains et les bots, et du même coup entre les êtres humains entre eux, il y aurait de quoi s’interroger sur ce que nous appelons aujourd’hui l’éthique. 

Utilité d’un chatbot dans les ressources humaines (RH)

Longtemps cantonnés au domaine de la vente à distance et de la relation client, les chatbots font aujourd’hui une entrée perceptible dans le domaine des Ressources Humaines afin d’améliorer l’expérience collaborateur. Si beaucoup de marketeurs travaillent avec les chatbots, notamment 

dans le cadre de ce qu’on appelle le nudge, seulement environ un quart des professionnels des RH savent ce que c’est. 

Il faudrait donc mettre en place des outils « utiles » aux RH pour qu’ils puissent les adopter sans difficulté. 

Les professionnels RH souhaitent une meilleure performance des chatbots afin d’améliorer « l’expérience salarié ». Les chatbots doivent donc avant tout :

  • répondre aux fonctions des RH : recrutement, formation, informations juridiques et sociales, etc.),
  • être disponibles 24h/24 et 7j/7,
  • donner des informations et répondre instantanément,
  • faciliter le quotidien des salariés. 

Un chatbot RH permet à un collaborateur de se renseigner sur des éléments concrets comme son solde de jours de congés ou de RTT, de signaler un arrêt maladie, de connaître ses droits ou certaines règles de fonctionnement de l’entreprise (par exemple le télétravail). 

Mais outre cette fonction de base, le chatbot doit répondre à des enjeux plus complexes.

Beaucoup de RH souhaitent ainsi que les différents processus liés à la formation ou à la mobilité interne soient accessibles aux collaborateurs par le biais de chatbots. Le chatbot doit être un intermédiaire facilitant le travail des collaborateurs et non rendant plus complexes les liens RH-collaborateurs ! Ils souhaitent également que les salariés puissent se renseigner sur leurs droits, et ce, facilement. 

Concrètement, il existe déjà aujourd’hui des chatbots permettant des petites formations en ligne, des accès aisés à des procédures de recrutement, etc. Ce que les professionnels RH souhaitent avant tout, c’est de pouvoir donner à leurs collaborateurs un accès facile aux informations juridiques et sociales. En effet, cette activité requiert en général beaucoup de temps aux professionnels RH, d’où l’idée de l’externaliser grâce à des chatbots juridiques. C’est l’exemple de LOL BOT (« Legal On Line BOT ») de Oui.sncf qui constitue un véritable assistant juridique conversationnel, accessible à tous les collaborateurs du groupe SNCF sur téléphone mobile et sur un ordinateur de bureau. Ce chatbot a donc pour but d’alléger les missions juridiques des RH afin que ces derniers puissent se concentrer sur les nouvelles problématiques de recrutement des talents. 

Les principaux avantages du chatbot sont par conséquent les suivants : 

  1. Un gain de temps pour le service RH. En réalisant des tâches simples telles que le renseignement sur le droit à des congés ou sur les règles internes, le chatbot libère du temps de travail au sein des RH, temps qui peut être alloué à d’autres activités à plus forte valeur ajoutée. 
  2. Un meilleur traitement de la « data RH ». La data RH est aujourd’hui l’une des ressources les plus précieuses de l’entreprise. Premièrement, un chabot RH permet, en rassemblant les questions les plus fréquemment posées par les collaborateurs, de mettre en valeur certaines informations et ainsi d’améliorer la communication et les processus internes. Deuxièmement, il peut être utilisé pour collecter directement d’autres informations, par exemple en réalisant des enquêtes de satisfaction. Grâce à un suivi continu, il peut contribuer à définir et mettre en place des indicateurs sur des sujets précis, comme par exemple la qualité de vie au travail (QVT). Troisièmement, si le chatbot s’appuie sur l’IA, il pourra aider à la prise de décision par l’optimisation du choix et de l’organisation des formations, l’accompagnement de la mobilité interne, l’évaluation des performances, la réalisation de tests de personnalité et de compétence, l’aide au recrutement (premier niveau d’analyse des candidatures), etc. Enfin, quatrièmement, l’entreprise gagne une image plus moderne, plus innovante, passe pour plus attentive à la réussite de « l’expérience collaborateur ». Notons que ce gain d’attractivité de la marque employeur peut être accru si le chatbot RH est doté d’une identité visuelle et d’une certaine personnalité (convivialité du ton et du vocabulaire, utilisation de smileys ou gif, etc.). 

Ainsi, le chatbot est « utile » de plusieurs façons. Outre le fait qu’il peut gérer les réponses à des questions de façon automatisée (« Frequently Asked Questions ou FAQ) et qu’il est un diffuseur de bonnes pratiques (notamment le dialogue, l’interaction), il permet aussi :

  • d’accéder aux données d’un système d’information relatives aux informations personnalisées des utilisateurs ;
  • d’effectuer un action dans un système d’information (ex : réalisation d’une tâche administrative, pose d’un jour de congé), 
  • de suivre le bien-être des collaborateurs, de mener des enquêtes, de réaliser des tableaux de bord. 
Un apporteur de réponses personnaliséesLorsqu’une information recherchée (récupérer un mot de passe, formalités à accomplir pour poser une journée de congé, lire une fiche de paie, calculer les droits à la retraite) n’est pas immédiatement accessible ou est difficilement lisible, le collaborateur perd sur son temps de travail ou oblige un de ses collègues à perdre lui aussi du temps et de l’énergie. Le chatbot permet d’apporter rapidement des réponses personnalisées à la plupart des questions posées, souvent automatisables (« FAQ »).
Un planificateur des tâches de la vie couranteLe chatbot RH est un assistant efficace dans l’organisation des tâches courantes. Il permet d’enregistrer un grand nombre de données relatives à un nouveau collaborateur (état civil, numéro de badge, numéro de bureau, etc.), de gérer les absences des collaborateurs ou d’aider les employés à planifier leurs congés, déclarer des heures supplémentaires, etc.
Un organisateur d’agendaLe chatbot RH peut trouver rapidement un créneau disponible entre les agendas de plusieurs collaborateurs, réserver une salle de réunion, organiser le planning d’entretiens d’embauche ou de soirées événementielles. Il libère ainsi du temps et de l’énergie au profit des collaborateurs.
Un accélérateur de carrièreEn libérant du temps et de l’énergie, le chatbot RH permet aux responsables RH de se consacrer pleinement aux plans de formation et aux programmes d’amélioration du bien-être au travail. Les salariés peuvent ainsi définir des objectifs de carrière ou des stratégies de reconversion dans la durée. 
Quelques cas d’utilisation du chatbot dans la gestion RH

Exemples de chatbots RH

ALOHA ROBOT d’ADECCO[9] : facilite la recherche d’emploi en indiquant les postes existants et en proposant des offres correspondant aux critères posés par l’utilisateur (secteur type de contrat ville, etc.). 

Beaumanoir du groupe textile de prêt-à-porter Beaumanoir (marques Cache Cache, Bréal, Bonobo, Morgan, Vib’s) : le chatbot est un assistant recruteur de conseillers de vente qui répond à trois objectifs : attirer davantage, disposer de candidats avec une meilleure préqualification, permettre aux responsables de se concentrer sur le relationnel plutôt que sur le tri des CV lors des processus de recrutement.

Eurécia de 3X CONSULTANT[10] : fait vivre une journée de travail dans l’entreprise et demande des choix d’actions avec, si le bon chemin est suivi, des offres d’emploi. 

MYA de L’Oréal[11] : filtrage, tri et redirection des candidatures. 

RANDY de Randstad[12] : spécialisé dans la présélection. En plus des tâches de ALOHA, il collectionne des données sur l’utilisateur : profil expérience, adresse, téléphone, test de personnalité ou test métiers. Score non visible du candidat. Envoi des profils présélectionnés aux consultants qui recontactent les candidats sous 48 heures. RHobot du distributeur de gaz GRDF [13]: conçu en interne, ce chatbot « Business to Employee » (B2E) répond seul aux questions simples qui représentent un bon quart des demandes adressées au service RH (ex : solliciter une attestation d’employeur, connaître la procédure de remboursement du pass Navigo ou les congés disponibles, s’aiguiller vers le bon interlocuteur dans l’entreprise). 

TALMUNDO de BNP Paribas Fortis[14] : ce chatbot répond aux questions des nouvelles recrues.

Enjeux éthiques et réponses

L’objectif dans tout projet de création de chatbot est de mettre à la disposition des clients, une application pouvant converser avec eux avec un langage naturel. Un échange peut durer quelques minutes et l’agent conversationnel tente de simuler les réponses qu’une personne réelle aurait formulées, suite aux différentes requêtes de l’internaute.

  • Questionnaire du comité national pilote d’éthique du numérique (CNPEN)[15]
  • Livre blanc de la CNIL sur les chatbots (septembre 2019)[16]

L’utilisation d’un chatbot RH soulève des questions éthiques qui demandent une grande vigilance. 

Une bonne définition du besoin et du périmètre

Un chatbot RH doit répondre à des besoins précis. Avant d’établir la base de connaissances, les informations et les algorithmes qui seront utilisés pour répondre aux questions des collaborateurs, il convient de bien circonscrire les problèmes, les objectifs et les besoins fonctionnels. Cette tâche complexe est très importante afin d’éviter que les utilisateurs n’adressent au chatbot des questions « hors sujet » auxquelles celui-ci ne saura pas répondre, ce qui générera de la déception et de la frustration. 

Une attention forte à la fiabilité des données RH

Étant donné le haut degré de sensibilité des données RH d’une entreprise, notamment par rapport aux données commerciales, il peut être recommandé de procéder à un audit des données RH pour s’assurer de leur fiabilité. 

Communication et formation : les deux facteurs-clés du succès

L’ensemble de l’entreprise doit être à la fois bien informée et motivée pour utiliser le chatbot. Ce point est particulièrement important si le chatbot est doté d’une IA ; c’est en effet en communiquant avec les collaborateurs qu’il deviendra de plus en plus performant. La mise en place de tout projet de chatbot doit donc s’accompagner d’un plan de communication, lequel doit être complété par un plan de formation car le pilotage et la gestion de la base de connaissances du chatbot nécessitent l’acquisition de nouvelles compétences au sein du service RH. 

Afin d’examiner les enjeux éthiques concernant les chatbots RH, il conviendra de retenir les huit points suivants : 

  1. Données personnelles et vie privée
  2. Surveillance
  3. Discrimination en raison des biais 
  4. Atteinte à l’autonome par le profilage et le nudge
  5. Transparence
  6. Explicabilité des réponses
  7. Enjeux de société
  8. Sécurité

Données personnelles et vie privée

Parmi les données personnelles, la voix pose un cas particulier, car elle peut à certains moments indiquer un état de fatigue, voire un état dépressif, qui pourrait être divulgué ou utilisé par l’entreprise pour influencer la décision de l’utilisateur. 

RisquesRéponses
Données personnelles ?Voix donnée biométrique qui permet l’identification de la personneFAQ/InteractionAnonymisation des donnéesNotion de données sensibles RGPDMaîtrise de ces donnéesDroit à l’image sonore
Enregistrement de la voixInformations sur l’âge, le sexe, la langue maternelle, le milieu socio-culturel, l’éducation, l’état de santé, les émotions, les intentions (miroir de l’âme…) ConscienceInformationLoyautéSensibilisation

Surveillance

Les agents conversationnels généralistes comme Siri ou Elexa effectuent un captage abondant de données à l’insu des utilisateurs, reflétant ainsi une intention d’écoute et de surveillance. Pour répondre à ce risque, il convient de fournir des informations sur les capacités de l’outil, d’affirmer sa loyauté, et d’indiquer les mots-clés[17] qui font passer de « l’écoute passive » à « l’écoute active ».

Le RGPD recommande l’anonymisation, c’est-à-dire « un traitement qui consiste à utiliser un ensemble de techniques de manière à rendre impossible, en pratique, toute identification de la personne par quelque moyen que ce soit et de manière irréversible. » Il évoque également la pseudonymisation pour limiter les risques liés au traitement de données personnelles. La pseudonymisation vise « un traitement de données personnelles réalisé de manière à ce qu’on ne puisse plus attribuer les données relatives à une personne physique sans information supplémentaire », c’est-à-dire que l’on remplace les données directement identifiantes d’un jeu de données (nom, prénom, etc.) par des données indirectement identifiantes (alias, numéro séquentiel, etc.). Toutefois, comme la CNIL en France l’a indiqué, il est bien souvent possible de retrouver l’identité d’individus grâce à des données tierces : les données concernées conservent donc un caractère personnel. 

Grâce à des recoupements, le chatbot – derrière lequel il y a forcément des gens qui sont en mesure d’« écouter » – peut savoir à peu près tout sur un individu, notamment en identifiant sa voix (timbre, ton, élocution). Cela pose la question de l’identité digitale des individus. 

Un autre risque de surveillance concerne la tentation de réécouter les messages pour améliorer les performances du chatbot.

La présence grandissante des chatbots dotés d’IA dans les lieux publics et espaces de passage est de nature à compromettre la confidentialité des échanges. 

Dans l’entreprise, les chatbots peuvent être utilisés à des fins de surveillance des employés, d’où l’impératif d’exiger le respect des procédures mises en place par les instances représentatives du personnel (IRP) et du comité social et économique (CSE). 

Discrimination en raison des biais

Les chatbots font courir le risque que les biais des jeux de données interrogées soient reproduits et qu’il s’ensuive une discrimination dans les choix des réponses. La réponse à ce risque passe par la sensibilisation, le contrôle et les audits.

Pour contenir les risques liés aux biais, il importe que les réponses fournies par les chatbots soient toujours les mêmes (« réponses experts ») quelles que soient les caractéristiques des personnes physiques. Elles doivent être neutres et fiables. 

Atteinte à l’autonomie par le profilage et le nudge

Les chatbots permettent le profilage des données personnelles, en particulier les données de santé, de goût et préférences, des activités. Il convient de sensibiliser l’opinion sur cette question et, concrètement, de ne pas lier les échanges avec les chatbots aux comptes utilisateurs déjà existants (e-mail, agenda magasin en ligne) pour éviter le chargement et le croisement de données. 

Le nudge fait courir une autre forme de risque, celui d’orienter l’interlocuteur vers des actions, par exemple des achats, sans qu’il s’en rende compte. C’est pourquoi il convient de distinguer entre les « bons nudges » (bouger plus, ne pas fumer, manger moins de sucre, etc.) et les « mauvais nudges » (actes d’achats commerciaux non nécessaires et dispendieux pour l’utilisateur). 

Avec les chatbots qui font glisser d’un moteur de recherche à un moteur de réponse, des questions se posent en termes de neutralité, fiabilité, variables en fonction du profil de l’individu. Le libre choix de l’individu peut être atteint : le chatbot oriente les choix de l’utilisateur en ne lui fournissant que quelques options, d’où un risque d’enfermement, de limitation des choix, de discrimination. La réponse à ce risque est difficile à mettre en œuvre, mais il faut au moins clarifier la situation en expliquant que les choix proposés ne sont pas exhaustifs. 

Transparence

En matière de transparence, les risques sont multiples : 

Disparition de la technologie (opacité).

Confusion entre le chatbot et l’être humain : absence d’anthropomorphisme dans le nom, dénomination (assistant, conseiller), le recours au « je », la voix, les expressions, le rire, les simulations d’émotions et autres, la forme du robot. L’État de Californie a imposé que soit fournie une information sur l’interaction avec un chatbot. Le robot est conçu par l’humain pour répondre à ses besoins et ses attentes, mais il lui manque la complexité.

Dans le cas d’un chatbot émotionnel, risques de dépendance, d’enfermement, de recul de la socialisation. Ce type de chatbot devrait être circonscrit à certaines finalités médicales ou éducatives encadrées et sous contrôle (surveillance, accompagnement, convalescence, éducation, divertissement).

Confiance excessive. Il importe de présenter le chatbot comme simplement un outil. Nous avons vu plus haut que certains chatbots étaient conçus pour devenir les « amis » des individus qui les utilisent. La transparence est donc indispensable : l’individu doit réaliser que le chatbot « fait semblant » de comprendre la conversation, mais en réalité il ne comprend rien. 

Risques d’erreurs dans les réponses (« le lait noir »), non détection du mot-clé ou détection erronée. Les réponses sont la transparence sur les erreurs possibles, la définition d’une valeur du seuil acceptable, un mécanisme à deux passes pour la détection (une première embarquée localement – seuil bas – et une seconde haute sur le serveur.

Le caractère autoapprenant des chatbots entraîne le risque qu’ils reproduisent les biais des utilisateurs (ex : chatbot « Tay » de Microsoft avec sa logique de violence, racisme et misogynie). Les réponses sont la transparence sur le recours à l’apprentissage automatique, la transparence encore sur les biais d’apprentissage du chatbot, et un contrôle du chatbot pouvant aller jusqu’à son arrêt. 

Explicabilité des réponses

Les répliques des chatbots doivent être compréhensibles et explicables. 

La stratégie du chatbot correspond-t-elle à celle perçue par son interlocuteur ? Il importe d’identifier les finalités et les usages du chatbot et de communiquer sur ces derniers. Les finalités doivent être respectées. Un chatbot de surveillance doit se présenter comme tel.

Les critères des prises de décision sont-ils connus ? 

Calcul des paramètres de l’interlocuteur, par exemple dans les procédures de recrutement. Les interlocuteurs doivent être informés sur les critères et les paramètres. 

Enjeux de société

Le développement des chatbots en général tend à modifier les rapports humains : moins d’interactions, rapports moins tolérants, maltraitance et autoritarisme non punis, accoutumance, etc. C’est pourquoi l’utilisation des chatbots devrait être limitée à certaines finalités. Une attention particulière doit être portée aux chatbots pour les enfants en cours d’éducation. Un système d’alerte et de contrôle devrait être prévu afin, par exemple, d’alerter l’utilisateur sur sa violence et, le cas échéant, de lui interdire l’utilisation du chatbot.

D’autres risques de société sont probables, tels que l’appauvrissement du langage, la perte de mémoire, l’environnement ou encore l’ampleur du phénomène des « travailleurs du clic »[18]

Sécurité

Avec le déploiement des objets connectés (« l’internet des objets »), le foyer connecté (thermostat, station météo, ampoules connectées, etc.) devient un centre de données prisé par les hackers. Le compteur communiquant pour l’électricité simplifie grandement la vie de l’utilisateur mais il est en même temps une source d’informations inépuisable sur ses habitudes. La sécurité est donc un impératif dans ce domaine. 

Un autre risque concerne la fuite et le piratage de données, notamment médicales et judiciaires. Certains cabinets d’avocats les interdisent et interdisent à leurs employés qui font du télétravail d’en avoir chez eux. 

On mentionnera enfin l’« hypertrucage » (deepfake) qui désigne un enregistrement vidéo ou audio réalisé ou modifié grâce à l’intelligence artificielle. Ce terme fait référence non seulement au contenu ainsi créé, mais aussi aux technologies utilisées (le mot deepfake est une abréviation de Deep Learning et Fake pour faire référence à des contenus faux qui sont rendus profondément crédibles par l’intelligence artificielle). Des contrôles et des audits sont là nécessaires, notamment pour éviter l’usurpation d’identité (qui est une infraction pénale). 

CONCLUSION

Le déploiement rapide des chatbots et l’arrivée de l’intelligence artificielle représentent une formidable opportunité pour les directions RH en vue d’améliorer les conditions de travail des collaborateurs. Ces directions doivent faire face aux nouveaux enjeux du monde de l’entreprise – attractivité, fidélisation, nouveaux modes de travail (y compris le travail à distance), responsabilité soci(ét)ale de l’entreprise, objectifs de développement durable, etc.) – et en même temps la transformation numérique dont dépend en grande partie leur pérennité. 

D’une part, les chatbots de nouvelle génération peuvent permettre d’améliorer le fonctionnement de la fonction RH, par exemple en répondant aux questions des collaborateurs relatives aux ressources humaines, en fournissant une assistance dans la sélection des candidats, en améliorant le parcours de mobilité et de formation personnalisé, en analysant les zones et les facteurs d’absentéisme, en localisant les compétences. 

D’autre part, ils peuvent augmenter la performance des collaborateurs en les délivrant des tâches ennuyeuses (par exemple la gestion administrative des clients, les opérations de contrôle de conformité ou de qualité, les recherches juridiques ou techniques) et en les accompagnant dans l’apprentissage de nouveaux métiers qui feront appel à des « compétences générales » (soft skills) telles que le conseil, l’empathie, l’esprit d’équipe. 

Toutefois, la mutation en cours soulève des enjeux éthiques considérables qu’il convient d’identifier, d’analyser et de traiter le plus rapidement possible avant que le déploiement des chatbots dotés d’intelligence artificielle n’atteigne un point de non-retour. Ces enjeux sont considérable si l’on songe à l’importance capitale des données personnelles dans la capacité des machines à être « intelligentes », aux risques de mauvaise utilisation ou de manipulation de ces données à des fins de contrôle et de surveillance, à l’étrange transformation des chatbots en « compagnons » indispensables des collaborateurs dans les activités en ligne, et finalement à la perte de vue que la relation homme-machine n’est pas prête de remplacer les interactions, physiques ou virtuelles, entre les humains. 

REFERENCES

[1]       « Chatter » désigne en anglais une discussion informelle et superficielle ; « bot » est une abréviation pour « robot. 

[2]       https://www.lemonde.fr/pixels/article/2016/03/24/a-peine-lancee-une-intelligence-artificielle-de-microsoft-derape-sur-twitter_4889661_4408996.html

[3]       En novembre 2020, l’éditeur de logiciel américain iCIMS a racheté la start-up Easyrecrue, spécialisée dans les ressources humaines, et qui en acquérant la start-up Playbots en 2018 avait pu intégrer une brique chatbot dans sa solution. Pour se démarquer dans l’univers des logiciels RH, Easyrecrue avait parié sur la communication entre l’entreprise et les talents. Elle s’est spécialisée ainsi sur les entretiens vidéo, en différé ou en live, et a développé une technologie d’analyse des comportements basée sur ces vidéos.

[4]       https://www.lemondeinformatique.fr/actualites/lire-une-faille-dans-alexa-ouvre-la-porte-aux-donnees-personnelles-80041.html

[5]       https://replika.ai

[6]     Plus de 7 millions de personnes ont téléchargé et essayé Replika, y compris dans des pays comme la France ou l’Italie, même si le service n’est disponible qu’en anglais.

[7]       https://mental.jmir.org/2017/2/e19/

[8]       https://singularityhub.com/2019/07/14/this-chatbot-has-over-660-million-users-and-it-wants-to-be-their-best-friend/

[9]       https://www.adecco.fr/candidats/aloha/

[10]       https://www.eurecia.com/client/3x-consultants

[11]       https://mediaroom.loreal.com/fr/loreal-deploie-avec-mya-systems-une-solution-basee-sur-lia-pour-faciliter-lexperience-candidat-2/

[12]       https://www.randstad.fr/randy/?utm_medium=search&utm_source=sea&utm_campaign=ran-c_promo_lancement-chatbot_0119&gclid=cj0kcqjwojx8brczarisaewbfmk7sdvnsqk5tw01xpmxjkttexysjrq10ivp7pyjf-ub5fud3o9gow0aavo3ealw_wcb

[13]     RHobot, un chatbot dédié aux questions RH, a été expérimenté en 2019 par le distributeur de gaz puis étendu aux 1.279 salariés du siège francilien ; il sera déployé en 2021 vers l’ensemble des 11.000 salariés présents en France. 

[14]       https://www.talmundo.com/fr/onboarding-bnp-paribas-fortis-etude-de-cas

[15]       https://www.ccne-ethique.fr/sites/default/files/agents-conversationnels-appel_a_contributions-cnpen_0.pdf

[16]       https://www.cnil.fr/sites/default/files/atoms/files/cnil_livre-blanc-assistants-vocaux.pdf

[17]       Les premiers chatbots étaient essentiellement des programmes destinés à répondre à des requêtes en se basant sur des mots dits « déclencheurs », qui permettaient de générer rapidement une réponse que les concepteurs avaient définie dans la base de données du programme. La méthode des « mots-clés » s’inspire de cette approche initiale, en permettant de donner l’impression que le chatbot « converse » avec un individu réel. Cependant, pour que cette méthode soit réellement efficace, il est important de créer une base de données imposante, faute de quoi, en raison de l’automatisme des réponses formulées, les utilisateurs s’apercevront rapidement qu’ils sont en présence d’une machine et que celle-ci ne peut satisfaire efficacement leurs attentes. C’est pourquoi aujourd’hui, sans pour autant délaisser le système de formulation de réponses à partir de mots-clés, les chatbots dotés d’IA sont capables d’apprendre, d’utiliser des systèmes de reconnaissance des mots et de réaliser des analyses linguistiques. Le but est d’être en mesure d’analyser les requêtes des utilisateurs afin de fournir des réponses exactes et satisfaisantes, imitant les comportements humains.

[18]       L’intelligence artificielle n’apprend pas toute seule : l‘apprentissage des algorithmes de machine learning doit généralement être supervisé par des humains qui vont étiqueter ou légender des images (labelling and tagging), retranscrire des conversations… Les professionnels de l’IA appellent ces « micro-tâches » des HIT (human intelligence task). L’IA devait transformer notre rapport au travail et supprimer les métiers peu qualifiés. Ici, c’est le contraire qui se produit avec l’émergence d’une nouvelle forme de travail : le crowdworking (travail collaboratif). Les « crowdworkers » ou « hiters » forment une nouvelle catégorie de travailleurs, les « travailleurs du clic » indépendants et au statut précaire, qui sont payés à la tâche par des plates-formes de crowdsourcing. Facebook a reconnu qu’il faisait écouter par des sous-traitants des conversations d’usagers de son assistant vocal Alexa pour en améliorer les réponses. Google, Amazon et Apple ont admis avoir eu avoir la même pratique et, face aux critiques, ont décidé d’y mettre fin. Cf. https://www.atlantico.fr/decryptage/3571597/triche-ou-optimisation–mais-qui-sont-ces-marques-qui-utilisent-des-bataillons-de-travailleurs-du-clic–frederic-marty

Quand l’Intelligence Artificielle s’immisce dans les Ressources Humaines …

Ressources humaines

Alexandra Fieux-Castagnet

Novembre 2020

INTRODUCTION

Le CV est la première interaction qu’ont les employeurs avec les candidats à un poste. La 1ère étape d’un processus de recrutement classique est de faire une sélection grâce au CV qui reflète l’expérience, les compétences et les objectifs de chaque candidat. Selon le baromètre des habitudes des recruteurs de 2018, un recruteur accorde en moyenne 34 secondes par CV. Que se passe-t-il en 34 secondes et que peut faire une intelligence artificielle pendant ce même laps de temps ? Si Simon Baron écrit que le domaine du recrutement résiste encore à l’intelligence artificielle[1]l’IA semblerait pouvoir jouer un rôle significatif en égard à la puissance des algorithmes, à l’importance stratégique du recrutement, à la quantité grandissante de données à traiter, du volume croissant de candidatures reçues par poste. 

Quelles sont les applications qui utilisent l’IA dans le cadre du processus de recrutement ?

Nous allons parler de différents types d’algorithmes qui peuvent être appliqués à un processus de recrutement : 

  • Les algorithmes de « sourcing » aussi bien pour les recruteurs que pour les candidats
  • Les algorithmes de « screening » qui permettent de filtrer les candidatures 
  • Les algorithmes de « matching » qui évaluent les compétences d’un candidat et prédisent son adéquation au poste proposé
  • Les algorithmes qui accompagnent le candidat tout au long de son processus de recrutement 

Les algorithmes de sourcing

Les algorithmes de sourcing répondent à des besoins définis par un recruteur ou un candidat en analysant des quantités importantes de données. Ces algorithmes sont, pour l’heure, les plus développés et utilisés en matière de recrutement. Le principe de ces algorithmes est de procéder par mots clés qu’ils pondèrent en fonction des offres et des candidats. Ils sont fondés sur la reconnaissance d’écriture et l’apprentissage supervisé. Par exemple la pratique du sport serait davantage valorisée pour un emploi chez Décathlon.[2]

i. De candidats

L’objectif de ces algorithmes est de partager une offre d’emploi au plus de candidats possibles qui pourraient correspondre au profil recherché. Les algorithmes parcourent donc le maximum de réseaux pour partager une offre (LinkedIn par exemple), et une fois les potentiels candidats informés, ils font correspondre les compétences des candidats avec celles renseignées par l’entreprise. L’algorithme maximise ainsi le nombre de potentiels candidats informés, analyse les dizaines de milliers de CV qui les décrit et n’extrait que les plus pertinents pour les envoyer au service RH. Yatedo propose ce genre de solutions et se décrit comme le « Google du recrutement » en France. Arya collecte toutes les informations disponibles sur internet pour dénicher les candidats les plus compétents pour le poste proposé. 
Textio se concentre sur l’optimisation de l’impact du contenu d’une offre d’emploi. Cet algorithme propose donc la rédaction qui attirera un maximum de candidats. 

ii. D’offres d’emplois

Les candidats sont également à la recherche des offres qui sont les plus à même de correspondre à leurs critères de recherche. Certains algorithmes fonctionnent donc comme un moteur de recherche d’emploi pour les candidats. A l’inverse, l’algorithme part du CV que lui fournit le candidat, l’analyse et lui propose les postes les plus pertinents pour ses compétences. On appelle également ce type d’algorithme des « CV catchers ». Ainsi LinkedIn ou ZipRecruiter proposent aux utilisateurs les offres qui correspondent le mieux avec ce qu’ils renseignent sur leur profil. Ces algorithmes permettent parfois aux candidats d’identifier des offres auxquelles il n’aurait pas pensé. 

Sourcing de candidats et d’emplois sont souvent reliés. Ainsi un même algorithme peut proposer les entreprises les plus en adéquation avec un candidat et ce candidat aux dites entreprises. C’est la proposition de Jobijoba en France dont l’algorithme est déjà utilisé par une soixantaine d’entreprises, dont Carrefour et Axa1 et fonctionne dans 80% des cas. 
On retrouve également parmi les acteurs des géants comme Google qui avec son outils Google for Jobs collecte des offres d’emplois puis les trie selon différents critères comme la localisation, le type de contrat ou encore la date de publication.[3] En effet, grâce aux compte Gmail, Google a déjà accès à nombreuses de ces informations sur les potentiels candidats : les durées trajet domicile-travail grâce à GoogleMaps par exemple. Google propose également ses services aux recruteurs directement, agissant alors comme un forum d’emploi. 

Les algorithmes de screening

Les algorithmes de screening font une première sélection de l’ensemble des CV proposés pour un poste. Ils filtrent les meilleurs profils qui seront retenus pour la suite du processus de recrutement. En plus de détecter les mots clés, ces algorithmes décryptent la sémantique des CV et analysent le vocabulaire utilisé, la tournure des phrases, etc. Cette étape supplémentaire dans l’analyse du CV permet à ces algorithmes de mesurer la cohérence du profil et des compétences avancées par le candidat. Ideal ou Sniper AI sont des exemples de solution de screening. 
Dès ce stade du processus de recrutement, l’analyse du CV peut être complétée par une conversation basique avec un chatbot. Ces chatbots, comme ceux de Mya ou Paradox, contactent les candidats retenus et vérifient qu’ils possèdent certaines compétences basiques, qui peuvent être spécifiques au poste. Le groupe l’Oréal utilise ce type de chatbot dans les premières phases du recrutement. 

Les algorithmes de matching

Le matching correspond à une granularité de sélection plus fine que les deux étapes décrites précédemment. Les algorithmes de matching sont définis selon le recrutement qu’on appelle prédictif. L’algorithme projette ainsi le candidat dans la fonction à laquelle il prétend et évalue le degré de compatibilité entre celui-ci et les attentes et compétences exigées pour le poste. 
Cette évaluation nécessite une interaction, source de plus gros volumes de données, et l’algorithme ne se contente plus de la lecture et l’analyse des CV des candidats.  Les hard skills sont mesurables et quantifiables, mais appréhender les soft skills est beaucoup plus difficile. Par exemple, la gestion de projet s’exprime de 14 façons différentes, note Loic Michel, PDG de 365Talents. C’est pourquoi les services RH s’appuient de plus en plus sur l’Intelligence Artificielle pour analyser la sémantique, le langage naturel et capter toutes les données non structurées. 
AssessFirst, se base sur trois critères comportementaux, identifiés par l’algorithme, pour évaluer la possible relation professionnelle entre le candidat et son futur manager. L’algorithme identifie ainsi le profil comportemental du manager et sélectionne les critères les plus pertinents à évaluer auprès des candidats. L’évaluation comportementale soumise par l’algorithme aux candidats évalue leur motivation, leur personnalité et leur compatibilité avec celle de leur futur manager. AssessFirst promeut ainsi une solution qui s’adapte et tient compte de la culture d’entreprise et s’impose donc comme outil d’aide à la décision. Aujourd’hui plus de 3500 entreprises dans 30 pays différents utilisent cette solution, ce qui permet à AssessFirst d’analyser les données de plus de 5 millions de profils, aussi bien candidats, employés ou recruteurs.[4]
HireVue propose une solution d’analyse de vidéos d’entretien. Une intelligence artificielle analyse les expressions faciales, les mots employés, le ton des candidats et des dizaines de milliers d’autres facteurs selon l’entreprise. Il attribue ensuite une note à chaque candidat selon son degré d’employabilité pour le poste proposé et l’entreprise cible.[5]
Ces outils de traitement automatique de l’image sont déjà largement utilisés aux États-Unis alors qu’encore peu en France, grâce à Easyrecrue ou Visiotalent par exemple. La startup française Whoz qui se concentre sur le recrutement d’experts aux compétences pointues pour des industries telles que l’aéronautique ou la métallurgie, a monté un partenariat avec un laboratoire suisse qui promet de mesurer les compétences comportementales à partir d’un entretien vidéo différé. Le candidat se présente et répond à une liste de questions et l’intelligence artificielle en analysant les modulations de sa voix, les respiration, l’élocution, les micro signaux des expressions du visage, permet de mesurer sa confiance en soi, sa motivation, son aisance à parler en public, son adaptabilité, sa créativité, son intelligence relationnelle etc. Pour l’instant, le laboratoire est en phase de développement et n’est pas suffisamment fiable. L’algorithme est entrainé grâce aux avis de psychologues et recruteurs.1 Easyrecrue propose déjà un algorithme qui analyse le contenu verbal (richesse lexicale, précision du vocabulaire, hésitations, répétitions, ton, etc.) mais n’a pas encore intégré la reconnaissance faciale. Ce projet est lui aussi entouré d’un comité scientifiques composé de psychologues, d’enseignants chercheurs du CNRS, de Télécom ParisTech et de CentraleSupelec.[6]

La plateforme le Vrai du Faux automatise la prise de références professionnelles. Grâce aux coordonnés fournis par les candidats, les anciens managers peuvent donner leur avis sur la plateforme. L’algorithme du Vrai du Faux pondère ensuite ces résultats selon différents critères comme la durée, le type du contrat, la pertinence du poste par rapport à l’offre d’emploi, etc.[7]
You-Trust fait également intervenir des tiers lors des dernières étapes du processus de recrutement. La startup propose au candidat une évaluation à 360° : le candidat s’auto-évalue et propose à ses managers, pairs, subordonnés, partenaires ou clients de l’évaluer également. You-Trust ajoute à cela une analyse de personnalité et de motivation grâce aux tests Big Five et Culture Fit. L’algorithme est utilisé par de grands groupes comme France Télévisions, SNCF, PageGroup ou L’Oréal pour développer la mobilité interne. L’avantage de cet algorithme est qu’il tient compte de compétences ou d’aptitudes pas toujours conscientisées par l’employé. 
Clustree est une autre solution de gestion de carrière qui s’adresse aux grandes entreprises dans lesquels le service RH n’a pas les moyens matériels de suivre individuellement chaque employé. Classiquement, on compte un responsable RH pour 300 collaborateurs. Or on constate que beaucoup de personnes démissionnent par manque de visibilité sur les opportunités en interne.6 L’algorithme de Clustree analyse les parcours de carrières de près de 250 millions de candidats grâce aux plateformes Linkedin ou Monster et permet ainsi d’identifier les corrélations entre les compétences : si un candidat a la compétence A, il y a x% de chance qu’il ait également la compétence B. 6

Les avantages d’intégrer l’intelligence artificielle au processus de recrutement

Gain de temps par candidature permettant d’augmenter le volume de candidatures reçues

Les algorithmes de sourcing et de screening permettent à une Intelligence Artificielle d’analyser une pile de CV en quelques secondes, alors qu’un recruteur aurait dû y consacrer des heures. En gagnant du temps par analyse d’un CV, l’Intelligence Artificielle peut traiter un volume de données plus important.  L’analyse d’un CV par une intelligence artificielle permet par exemple, à un candidat ou à un recruteur de proposer des postes ou des profils qu’il n’aurait pas envisagé. En ouvrant le champ des possibles vers des offres ou des candidats pertinents, l’Intelligence Artificielle permet de faire gagner du temps aussi bien aux recruteurs qu’aux candidats. 
Mathilde Le Coz, directrice de l’innovation RH du cabinet d’audit Mazars, explique que l’utilisation d’un chatbot répondant aux questions des candidats potentiels et planifiant les entretiens, a permis d’augmenter de 50% le nombre de candidatures reçues en 2019.[8]  
En effet, ces outils répondent à une problématique opérationnelle des recruteurs et leur permettent d’élargir le sourcing, de traiter des volumes de données croissants tout en se consacrant sur des critères qualitatifs. Les recruteurs ont ainsi davantage de temps pour se consacrer à des tâches à plus de valeur ajoutée, par exemple l’intégration des nouvelles recrues. 
Ce gain de temps est un argument essentiel pour l’adoption de services de recrutement en ligne, aussi bien par les candidats que par les entreprises. 

Diminution de la marge d’erreur de recrutement et son impact direct sur la réduction de coûts et l’amélioration de la performance

L’Intelligence Artificielle, en plus de traiter des volumes considérables d’informations en quelques seconde, diminue la marge d’erreur. En effet, l’Intelligence Artificielle peut rapidement détecter une incohérence de date, de géographie qui pourraient paraitre inaperçue à un recruteur. En traitant davantage de candidatures, l’Intelligence Artificielle augmente la probabilité de trouver un candidat pertinent pour le poste en améliorant la rencontre de l’offre et de la demande.
De plus, en traitant des données non structurées (sémantiques, expressions faciales etc.), l’Intelligence Artificielle permet de dresser un profil complet de chaque candidat, et donc d’améliorer la qualité du « matching » entre candidat et offre d’emploi. Lorsque, du fait du volume de données à traiter, une intelligence humaine se baserait sur son instinct, l’Intelligence Artificielle peut prendre une décision rationnelle fondée sur des éléments objectifs. Ainsi, JobiJoba, grâce à son CV Catcher, permettrait d’augmenter de 44% le nombre de candidatures et de réduire de 22% le nombre de réponses négatives.[9]
Cette marge d’erreur diminue avec l’entrainement des algorithmes et la quantité de données qu’on leur fournit. L’Intelligence Artificielle améliorera donc sa performance au cours de son utilisation, jusqu’à être capable de prédire la performance d’un candidat pour un poste. Ainsi, à force de faire lire à une Intelligence Artificielle des centaines de CV, elle cromprendra que selon le contexte « ingénieur d’affaires » et « ingénieur commercial » signifient la même chose, explique Yves Loiseau, le directeur général d’Europe du Sud de Textkernel.[10]
En augmentant l’efficience du processus de recrutement et en maximisant la performance de son résultat, l’Intelligence Artificielle permet également une économie de coûts. En plus de diminuer les coûts associés à l’analyse d’un tel volume de données par des responsables RH, recruter des profils pertinents pour chaque poste augmente la performance de l’entreprise et réduit le turnover des employés. Ainsi AssessFirst clame pouvoir en moyenne augmenter la performance des entreprises qui utilisent son service de 25%, de réduire leurs coûts de recrutement de 20% et de diminuer le turnover de leurs employés de 50%.4

Traitement des candidats avec objectivité et équité

Une grande promesse de l’utilisation des algorithmes pour le recrutement est de lutter contre la discrimination à l’embauche. En effet, les algorithmes sont insensibles à la fatigue et d’une froide rationalité, ils traitent donc les candidats de façons plus équitable. Un article de l’université de Cornell, paru en décembre 2019, analysant 18 entreprises proposant des solutions de recrutements à l’aide d’algorithmes, conclut que la majorité de ces solutions sont plus justes. Cependant, il est difficile de l’affirmer avec certitude, compte tenu du fait que le fonctionnement des algorithmes auto-apprenant est opaque. 5
Il y a différents usages des algorithmes pour augmenter l’objectivité du recrutement. 
Certains s’attachent à réduire les préjugés inconscients des recruteurs en créant des solutions de filtrage aveugles basées uniquement sur les compétences. D’autres constituent un groupe de candidats diversifié en s’approvisionnant auprès de groupes sous-représentés. 

Lorsqu’un biais est constaté dans les recrutements, un algorithme peut le compenser en appliquant de nouveaux critères, rationnels et objectifs. Par exemple, si la parité hommes/femmes d’une équipe est sévèrement défavorable aux femmes, l’algorithme peut compenser cette tendance en élargissant le sourcing de candidates et en rendant non différenciant le caractère du genre dans la prise de décision au cours du processus de recrutement. 

Pour conclure, l’algorithme est évolutif et s’adapte aux nouveaux besoins. Il peut par exemple être utilisé dans d’autres contextes que le recrutement et devenir une solution d’analyse de cohésion d’équipe, etc. 

Les risques et impacts de l’intelligence artificielle sur le futur du recrutement

Le manque de transparence et l’amplification de biais humains

Si on a évoqué l’opportunité que représentaient les algorithmes en matière d’objectivité de traitement des candidats, il est important de souligner que l’algorithme appuie la modélisation de ses recommandations et décisions sur des corrélations faites entre les données qu’on lui a fournies pour l’entrainer. Il est donc également dépendant des corrélations qui ont pu être provoquées par l’homme, consciemment ou inconsciemment. 
Par exemple, Amazon a fait appel à l’intelligence artificielle pour faciliter le screening de ses candidatures en 2014. Un an plus tard, l’algorithme ne laissait passer que des profils masculins. En effet au cours des 10 dernières années, Amazon a reçu beaucoup plus de candidatures d’hommes que de femmes. L’analyse de cette répartition des données par l’algorithme a abouti à la conclusion que les hommes avaient un profil plus adapté à ce type de poste. En 2017, Amazon choisit de revenir au recrutement traditionnel. 
Nécessitant d’être nourri et entrainé par des volumes de données importants, le recrutement prédictif implique de mobiliser des données passées pour prédire la performance future d’un candidat. Il est cependant contestable de reproduire les schémas exercés auparavant, qui semblent être à risque d’exacerber la discrimination à l’embauche. Si l’IA ne reproduit pas le processus de la pensée humaine, il produit ses résultats et donc ses préjugés, souligne Gaspard Koenig dans un entretien à « l’Obs ».

Impasse pour remplacer l’intelligence émotionnelle humaine

Nous ne sommes qu’aux balbutiements des algorithmes capables d’identifier les compétences relationnelles grâce à l’analyse du langage ou des expressions faciales. La technologie d’analyse sémantique ne permet pas de traiter des interactions complexes. Nous ne pouvons donc pas compter sur la fiabilité de l’Intelligence Artificielle qui, pour le moment, ne se substitue pas à l’intelligence émotionnelle humaine.
Par exemple, l’algorithme ne sait pas tenir compte du stress du candidat sans lui en tenir rigueur. 
Nous nous heurtons, comme dans beaucoup de cas d’usage de l’Intelligence Artificielle, à la complexité d’analyser la pensée humaine pour un algorithme dénué d’empathie. En effet, si nous ne sommes pas non plus capables de comprendre la pensée humaine dans ces moindres détails, l’empathie, la capacité à ressentir l’émotion d’autrui, nous permet de prendre des décisions avisées rapidement. 
Plus le processus de recrutement avance et plus les critères de recrutement se complexifient, moins les algorithmes peuvent les prendre en charge. 

Coûts d’implémentation significatifs et discriminants

L’implémentation de ces solutions de recrutement utilisant les algorithmes représentent des coûts importants pour leur installation et leur maintenance. L’intégration des algorithmes dans le processus de recrutement se fait donc souvent au dépit du maintien du même nombre de responsables RH pour ces étapes que dans un processus traditionnel et menace ainsi une partie de l’emploi du secteur des ressources humaines. 

De plus, du fait de leurs coûts conséquents, le périmètre d’utilisation des algorithmes se restreint à des entreprises traitant de gros volumes de recrutement.  
Nous avons donc des données très similaires qui sont utilisées par les algorithmes dont le volume est limité et qui ne permet pas de prendre du recul sur le fonctionnement de l’entreprise. On trie donc les candidats sur la base de données qui ont été jugées être bonnes mais dont le volume et la diversité sont insuffisance pour assurer une représentativité qui permette d’éliminer les biais des recrutements passés, comme nous l’avons vu précédemment.  

Respect de la vie privée et partage de données consenti mis à mal

Lors de l’envoi d’un CV à un recruteur, le candidat consent tacitement à partager ces informations. Mais qu’en est-il lorsque d’autres données comme la géolocalisation, les informations disponibles sur internet, l’analyse sémantique et la reconnaissance faciale, etc. ?

En 2019, l’Illinois est le premier état américain à voter une loi pour protéger les candidats lors d’un recrutement utilisant des algorithmes. L’employeur doit demander la permission au candidat avant d’enregistrer une vidéo d’entretien, d’utiliser une intelligence artificielle et doit informer de l’utilisation des données du candidat pour l’évaluer. De plus, ces données ne peuvent être conservées plus de 30 jours. 

Mais lorsque les algorithmes sont impliqués dans les processus de recrutement, le département RH est restructuré en conséquence, pour des économies de coûts et des gains en efficacité comme nous l’avons vu précédemment. Les candidats refusant de partager leurs données et de se soumettre au scan de ces algorithmes pourraient ne pas avoir d’autres alternatives pour avancer dans les étapes du recrutement et donc être de facto éliminés. Est-ce donc vraiment un partage consenti des données ? 

Des moyens de duper les algorithmes

Les algorithmes sont jugés plus fiables que les recruteurs, cependant cette technologie en essor n’est qu’à ses balbutiements et peu implémentée, elle reste donc faillible. L’utilisation de ces failles permet à certains candidats de « tricher ». Par exemple, écrire blanc sur blanc des mots clés, des noms de grande écoles ou diplôme pourrait permettre de passer le screening car l’algorithme les traiterait comme le reste du contenu du CV. Au fur à mesure de l’utilisation des algorithmes pour accompagner le processus de recrutement, ces failles peuvent être identifiées et corrigées.

Une IA qui intervient a posteriori

La richesse du recrutement est tout le travail en amont pour affiner la compréhension que l’on a d’un métier, être capable de le faire interagir avec d’autres et évoluer dans le temps. Les algorithmes interviennent dans le recrutement comme puissance statistique en reproduisant les recrutements passés, sans innover, et non pour comprendre ce à quoi on n’a pas pensé, recueillir les ressentis et expériences liées à un métier et ne pas ainsi tomber dans une forme de clonage des schémas de recrutement qu’on a déjà pu appliquer par le passé.  

Enfin, il semble essentiel de prendre du recul et de comprendre comment l’utilisation de ces nouveaux outils est vécue par les candidats et les employés. 

CONCLUSION

Les algorithmes sont déjà partie prenante des processus de recrutement et nécessitent une adaptation à la fois des recruteurs et des candidats à ces nouveaux outils qui accompagnent tous les stades du processus de recrutement. Les trois grandes classes d’algorithmes que nous décrivons sont les algorithmes de sourcing, screening et matching. L’utilisation des algorithmes permet, par le traitement de volumes de données plus importants, un gain de temps et de productivité et une diminution de la marge d’erreur. De plus, par son fonctionnement logique, rationnel et objectif, son utilisation prévient certaines inégalités de traitement des candidats. Cependant, du fait que l’utilisation de ces algorithmes soit encore récente et couteuse, les données utilisées ne permettent pas de prendre du recul sur la qualité du recrutement et les algorithmes reproduisent des schémas préétablis, pour le meilleur et pour le pire. Un autre risque est que son utilisation ne permette pas d’alternative et contraignent donc certains candidats à partager leurs données personnelles et à se soumettre à l’analyse d’un algorithme. Les algorithmes sont pour l’instant davantage utilisés dans les étapes de recrutement nécessitant un traitement d’importants volumes de données comme l’analyse de CV. Leur fiabilité n’est pas encore inébranlable pour comprendre les compétences, intentions et émotions d’un candidat lors d’une discussion ou d’une vidéo. Au fur à mesure d’entrainement, il est possible de corriger leurs erreurs, les biais que révèlent les data sur lesquelles ils s’appuient et de personnaliser leur analyse en fonction des types de postes, entreprises, candidats. Les nombreuses startups investissant sur des algorithmes pour aider au recrutement n’ont donc pas encore dit leur dernier mot et continueront de façonner le futur du recrutement. 

REFERENCES

[1] Opinion | Recrutement : ce que l’intelligence artificielle peut changer, Le Cercle Les Echos, 6 janvier 2020

[2] CV disséqué, entretien vidéo, émotions scrutées… comment l’intelligence artificielle nous recrute – L’Obs – 22 octobre 2019

[3] Google à nouveau accusé de pratiques anti-concurrentielles, cette fois pour la recherche d’emploi – Usine Nouvelle – 13 août 2019

[4] AssessFirst Announces U.S. Expansion – Business Wire – 10 septembre 2019

[5] Les algorithmes s’immiscent à chaque étape du recrutement – Journal du net – 07 septembre 2020

[6] Solutions RH : 5 acteurs qui transforment la gestion des talents avec l’IA – Silicon.fr – 28 février 2019

[7] Les Echos Business – Delphine Iweips

[8] Entreprises : comment les robots s’immiscent dans le recrutement – Le Point – 06 janvier 2020

[9] Des recrutements à la mode chatbots chez Mazars – L’AGEFI Hebdo – 12 mars 2020

[10] Votre recruteur est-il un algorithme ? LSA.fr – 11 avril 2019

Le rôle des acteurs non- étatiques sur l’ordre mondial : l’exemple des GAFAM de 2010 à 2020

Big Tech, Géopolitique

Alexandra Fieux-Castagnet

Octobre 2020

INTRODUCTION

Les GAFAM, Google, Amazon, Facebook, Appel et Microsoft, rassemblent les géants du numérique. On pourra bientôt élargir la famille à leurs homologues chinois : Baidu, Ali baba, Tecent et Xiaomi, les BATX, géants de la high tech chinoise.
L’appellation, de plus en plus utilisée, Big Tech, se réfère aux liens ténus entre ces entreprises et le capitalisme et ses tendances à la concentration. Leur point commun est qu’elles s’enrichissent de nos traces numériques dit Shoshana Zuboff dans son ouvrage Le Capitalisme de surveillance. Ces entreprises, ont parfois moins de 20 ans, Facebook a été créé en 2004 et Google en 1998. Et pourtant elles sont des acteurs incontournables pour chacun d’entre nous : Google concentre 90% des recherches internet dans le monde et Facebook a plus de 2,7 milliards d’utilisateurs actifs par mois, soit 6 fois la population de l’Union Européenne.

Ces entreprises génèrent leurs revenus par la publicité, la vente de téléphones, la distribution ou la vente de logiciels.
Dans ce rapport, nous tâchons de comprendre le rôle de ces acteurs non-étatiques dans la géopolitique mondiale.

Alors que la capitalisation boursière de Google, Amazon, Facebook et Apple réunis, dépasse 5800 milliards de dollars, soit plus que le PIB de la France, de l’Allemagne ou du Royaume Uni, quel rôle jouent-elles sur l’ordre mondial ?
Dans un premier temps, nous tâcherons de comprendre comment ces entreprises ont pu atteindre cette taille, pourquoi les Etats ont permis une telle croissance et quel en est le résultat aujourd’hui. Ensuite nous étudierons les critères qui permettent aux GAFAM de se comparer aux Etats et d’atteindre certains aspects de leur souveraineté. Enfin nous envisagerons les perspectives d’un tel ordre mondial et le rôle que peut jouer l’Union Européenne dans cet échiquier.

Les GAFAM, une arme d’état qui polarise le monde

Si les GAFAM ont atteint cette taille critique, c’est grâce à un contexte propice à leur croissance. Les GAFAM sont cinq entreprises américaines. Parler des GAFAM implique donc de centrer le sujet sur les États-Unis. Nous verrons que leurs homologues chinois suivent un modèle parallèle et que ce n’est pas un hasard si ces colosses sont hébergés par ces deux superpuissances. Nous défendrons donc la thèse que la genèse d’une telle omniprésence des GAFAM dans la vie de chaque citoyen du monde est un choix stratégique des États-Unis, qui se sont servis de ces entreprises pour construire le monde d’aujourd’hui et y établir leur puissance.

Instrument de soft power

L’usage des fake news, dont ces géants du numérique manient les ficelles en imposant leurs règles et leurs limites de liberté d’expression, a déjà fait pencher le monde d’un côté de la balance à deux reprises depuis 2010. Le scandale Cambridge Analytica accuse Facebook d’avoir joué un rôle dans l’élection du Président américain, Donald Trump. Les fake news seraient également responsables du vote en faveur du Brexit au Royaume Uni. L’information, c’est le pouvoir. Les GAFAM, tout particulièrement Google et Facebook l’ont parfaitement compris. Les réseaux sociaux permettent à chacun de s’exprimer. Cependant l’efficacité de ceux-ci associée à l’instantanéité pousse chacun à réagir dans le moindre délai, tétanisant tout esprit critique. Si pour beaucoup, les résultats de ces deux votes restent incompréhensibles, ils sont le témoin de cette nouvelle forme d’expression impulsive encouragée par les réseaux sociaux.
La base d’utilisateurs considérable de Facebook (comprenant également Instagram et WhatsApp) fait de cette entreprise, quand il s’agit d’élection, un outil très efficace pour les États, même en dehors du sol américain. Cet outil peut également être un moyen de promouvoir la démocratie comme l’ont démontré les printemps arabes, notamment permis par l’utilisation de Facebook pour fédérer les révolutionnaires.

Si l’on accuse les GAFAM d’avoir pris tant de libertés, qui menacent aujourd’hui nos systèmes démocratiques, les Etats ont souvent été parmi les plus larges bénéficiaires de leurs services. Ainsi, les politiques et les fonctionnaires ont permis aux GAFAM d’intégrer nos centres de défense, de renseignement, d’éducation, de sécurité et de culture. Google est par exemple le parrain de la Grande École du Numérique. Sans même aller jusqu’aux GAFAM, Emmanuel Valls a mis en place un partenariat entre l’éducation nationale et Cisco, société au cœur du complexe militaro-industriel américain. Son dirigeant est d’ailleurs nommé ambassadeur par Emmanuel Macron de la French Tech. Du même ordre, l’armée française est équipée peu à peu de logiciels conçus exclusivement par Microsoft.
Dans son livre « L’intelligence Artificielle ou l’enjeu du siècle », Éric Sadin nous explique que depuis le néolibéralisme, l’Etat délègue les services publics à des entreprises privées grâce à des partenariats public-privé. Les citoyens changent donc de statut et deviennent des consommateurs de ces géants de la tech américaine.
La puissance des GAFAM dépasse donc les frontières et ces géants qui dominent le numérique se rendent indispensables jusque dans la gestion des affaires publiques, malgré les soupçons que les informations ne soient pas toujours cantonnées à leur utilisation prévue.

La Chine est la cible de toutes les critiques en termes de fuites de données. Le gouvernement a d’ailleurs mis en place une loi de sécurité il y a deux ans, obligeant toute entreprise chinoise à coopérer avec le gouvernement si celui-ci en exprime le besoin. La collection de données, notamment via les BATX, est inscrite dans la stratégie nationale de la Chine, c’est devenu le projet d’une société entière. « De même que la Chine a conçu la première bureaucratie il y a 2000 ans, elle va mettre au point la 1ère société fondée sur les data » annonce-t-on au siège de Microsoft à Pékin.

L’usage de ces technologies, en plus de participer au soft power de ces états, creuse également l’écart entre les puissances, et leur permet d’impacter encore davantage l’ordre mondial.

Arme commerciale

L’actualité nous sert un nouvel exemple selon lequel les GAFAM et leurs analogues chinois, les BATX sont des armes commerciales, utilisées par les gouvernements américains et chinois. TikTok est une application de réseau social de partage de vidéos créée, et détenue par la société chinoise ByteDance en 2016. Elle permet aux utilisateurs du monde entier de créer des vidéos d’une durée de moins d’une minute. TikTok est devenu célèbre aux États-Unis suite à la fusion avec l’application américaine Musical.ly en 2018. La popularité de TikTok a explosé l’année dernière, notamment pendant la crise sanitaire COVID-19, avec un total de 800 millions d’utilisateurs actifs dans 141 pays, l’Inde étant le premier marché de l’application avec 120 millions d’utilisateurs.
Si TikTok peut être considérée comme une simple nouvelle plateforme de divertissement, elle suscite les réactions des gouvernements.
Les relations entre l’Inde et la Chine ont rarement été aussi tendues. Le point culminant a été atteint lors d’un affrontement militaire dans la chaîne himalayenne. L’Inde étant militairement inférieure à la Chine, cette dernière a décidé de riposter sur un terrain autre que le terrain militaire : le terrain des applications. Le gouvernement indien a interdit l’application ainsi que 58 autres applications chinoises en juin 2020, privant TikTok de son premier marché.
TikTok, grâce à ses nombreux utilisateurs, est un moyen efficace de faire pression sur la Chine, en particulier pour les Etats qui ne peuvent pas les combattre par d’autres moyens, tels que le « hard power », comme l’Inde. Cela a permis à l’Inde de maintenir sa souveraineté sur son territoire.
Dans un contexte de guerre commerciale américano-chinoise, Mike Pompeo, le secrétaire d’État américain, a déclaré cet été que l’administration Trump envisageait également d’interdire TikTok. Trump a récemment annoncé que pour être maintenu sur le sol américain, l’application TikTok devait être rachetée par Microsoft ou Oracle.

Les Big Tech sont les nouveaux outils des guerres commerciales entre pays. Dans l’exemple de TikTok, c’est un moyen de limiter l’expansion incontrôlable de la Chine. Mais l’Union Européenne, incarnée par Margrethe Vestager, se sert également de cette arme pour rappeler aux États-Unis sa puissance et la souveraineté des Etats qui la composent. Nous verrons ce dernier point plus en détail lorsque nous aborderons la régulation des Big Tech.

Moteur d’innovation

Les GAFAM dépensent 70 milliards de dollars (7,8 milliards de dollars pour Facebook, 22,6 milliards pour Amazon) chaque année en recherche et développement (R&D). L’innovation est le moteur de leur évolution.

Charles-Edouard Bouée explique que les GAFAM sont moteurs de la révolution digitale, vagues après vagues. La 1ère vague correspond à l’invention de l’ordinateur personnel par Apple et IBM. La 2ème vague est la sortie du téléphone mobile, puis la 3ème vague l’évolution vers le smartphone, largement exploité par les GAFAM. La 4ème vague serait celle de l’Intelligence Artificielle (IA). L’IA est nourrie par les données. Les GAFAM ont centré leur business model sur la récolte de données, en faisant une monnaie d’échange avec l’utilisateur. Grâce à leur considérable budget R&D et la collecte d’énormes volumes de données, les GAFAM sont les moteurs de cette 4ème vague qui modifiera encore davantage la société.

Un exemple est celui de la santé. Sous prétexte d’un progrès que rien ne peut empêcher, Google Health et Calico (Alphabet/Google), HealthKit, CareKit, ResearchKit (Apple) se servent de l’IA pour permettre, via un smartphone, de compter le nombre de pas, bientôt de prendre la température, d’analyser les fréquences vocales, de toux, l’analyse de la sudation etc. Ils dessinent une santé prédictive et personnalisée qui s’affranchit du parcours de soin public pour laisser place à un service, « lucratif et soumis aux logiques de marché » écrit Éric Sadin dans « L’intelligence artificielle ou l’enjeu du siècle ».

Les GAFAM tirent l’innovation vers le haut : les valeurs technologiques pèsent aujourd’hui 28% du Dow Jones, contre 17% il y a 5 ans. C’est donc un argument de puissance important pour les États-Unis.

Une des conséquences est que les moyens considérables investis en R&D de ces entreprises attirent les talents du monde entier. La France est un des pays à avoir laissé ses meilleurs développeurs partir travailler pour ces géants, tuant ainsi la concurrence dans l’œuf. Nous pouvons donner l’exemple de Yann Le Cun, inventeur de réseau de neurones, aujourd’hui directeur de l’Intelligence Artificielle de Facebook.

L’innovation comme lien entre les GAFAM et l’État a été récemment remis en question par Trump qui a brutalement freiné l’Office of Science and Technology Policy (OSTP), institut de veille technologique rattaché à la maison blanche.

Découplage du monde entre la Chine et les USA

De par les exemples précédents, il semble que les clés du monde de demain soient entre les griffes des États-Unis et de la Chine.
Depuis 1993, les États-Unis se sont lancés dans les « Autoroutes de l’information » et ont mis internet et la technologie au cœur de leur stratégie de croissance.
La Chine se sert de la technologie comme arme pour concurrencer et détrôner le modèle occidental.
L’Europe a, elle, investi sur des industries traditionnelles (le diésel propre) alors que c’est en Europe que sont nés Linux et le Web, piliers d’internet.

Gaspard Koening explique dans « La fin de l’individu – voyage d’un philosophe au pays de l’IA » que l’IA va raccourcir les chaînes de valeur, imposant des productions locales. Beaucoup de pays se retrouvent donc nus, ayant délocalisé massivement en Chine. Branko Milanovic le décrit par la courbe de l’éléphant : depuis 1980, les revenus de la majorité de la population ont augmenté (le dos de l’éléphant) alors que ceux des classes moyennes ou supérieures des pays développés ont stagné (la trompe). L’éléphant deviendrait chameau avec sur chaque bosse la Chine et les États-Unis, le reste du monde se partageant entre colonisés numériques.

Si rien ne semble pouvoir freiner la croissance de la Chine, qu’en est-il de celle des États-Unis ? La Chine, 2ème puissance mondiale, 20% du PIB mondial avec 40% de croissance est un marché attractif, même pour les GAFAM. Pourtant beaucoup ont capitulé. Apple a cédé au gouvernement chinois et a retiré les applications VPN permettant de contourner la censure. Apple n’était pourtant pas connue pour ses compromis après l’affaire du terroriste de l’attaque de San Bernadino (Californie) : le gouvernement américain a demandé à Apple de déverrouiller l’iPhone du terroriste, qui a refusé. Amazon a demandé à ses clients d’arrêter de déployer les services VPN sur leurs serveurs. Google a quitté le marché chinois après avoir découvert que les comptes Gmail de dissidents ou défenseurs des droits de l’homme aient été hackés. Facebook a une stratégie plus ambigüe et développe un outil permettant de supprimer certains messages dans certaines zones géographiques. L’État est incontournable dans les affaires chinoises, il est donc impossible pour les GAFAM de ne pas se plier à ses règles.

La Chine serait-elle le seul État à résister aux GAFAM et à les empêcher de s’immiscer dans ses affaires ?

Les GAFAM menacent la souveraineté des États

Les GAFAM sont de plus en plus critiquées pour leur contrôle de l’économie mondiale et pour leurs pratiques, notamment fiscales, qui font fi des lois.
Les GAFAM « en allant vite et en cassant tout » comme le dit Mark Zuckerberg, n’ont jamais considéré les institutions étatiques traditionnelles. Maintenant que la taille des GAFAM leur donne un pouvoir sans précédent et que leur ambition façonne la société de demain, les Etats sentent leur souveraineté menacée. La puissance d’un Etat a pour composante sa force légale et sa monnaie. Les GAFAM s’attaquent à ces deux pans de la souveraineté.

Des acteurs au-dessus des lois

Les GAFAM sont déterritorialisées et sont maintenant présentes dans le monde entier. Ces entreprises proposent des services gratuits. Elles s’enrichissent de la collecte, l’analyse et la revente des données de leurs utilisateurs. En effet, 95% des revenus de Facebook sont générés par la publicité. En définissant le profil de l’utilisateur, Facebook peut anticiper ses choix, ses goûts, ses centres d’intérêts et revendre ces données en permettant aux entreprises des liens publicitaires ciblés. Cette « gratuité » de leurs services leur a conféré une situation de quasi- monopole : elles ont pu librement racheter leurs concurrents sans être rappelées par la loi antitrust. Elles fixent également librement leurs prix aux entreprises utilisant leurs plateformes pour faire de la publicité. Les Big Tech ont été auditionnées au Congrès des USA, accusées d’abus de position dominante dans la recherche ou la publicité.
La Commission Européenne a sanctionné Google d’une amende de 2,42 milliards d’euros pour avoir favorisé Google Shopping au détriment de ses concurrents, pour avoir étouffé la concurrence de son système Android et pour avoir empêché des sites tiers de s’approvisionner en annonces auprès de ses concurrents au moyen d’AdSense, son service publicitaire.

Les services étant dématérialisés, ils sont difficiles à localiser. Les GAFAM choisissent donc vers quel pays, à faible taux d’imposition, ils remontent leur chiffre d’affaires. Google, Apple ou encore Facebook ont choisi l’Irlande et son taux d’imposition avantageux de 12,5% (contre 31% en France, 25% d’ici 2022). L’Irlande va même plus loin et a par exemple permis à Apple de n’être soumis qu’à un taux d’imposition de 1 % en 2003 sur ses profits européens, qui tombe à 0,005 % en 2014. Ainsi, Facebook a payé 1,16 millions d’euros d’impôt en France en 2019, montant ridicule.
L’Union Européenne a tenté de mettre fin à ce dumping fiscal. En 2016, la Commission Européenne condamne Apple à rembourser les 13 milliards d’impôts payés à l’Irlande. Elle considère que ces aides nuisent à la concurrence et sont donc illégales au sein de l’Union Européenne. Le Tribunal de l’Union européenne a ensuite annulé cette condamnation en juillet 2020, les profits ne pouvant être attribués au sol européen uniquement.
Une autre tentative de mettre fin à l’optimisation fiscale des GAFAM est de taxer le chiffre d’affaires des GAFAM dans les pays destinataires de leurs profits et non de taxer les profits.

Mais comme nous l’avons déjà vu, les gouvernements sont dépassés par la révolution technologique en cours. L’audition de Mark Zuckerberg pour le procès Cambridge Analytica devant le congrès américain a mis en lumière l’incompétence du législateur américain sur ces sujets.
Beaucoup de pays européens sont réticents à taxer ou réguler les GAFAM, car ils craignent des mesures de rétorsions (industrie automobile allemande).
Il n’y a pas non plus de politique publique définie au niveau de l’ONU ni de régulation mondiale pour la cybersécurité ou l’IA. Gaspard Koening nous raconte dans son livre « La fin de l’individu – voyage d’un philosophe au pays de l’IA » que l’ONU a même dû faire appel à Amazon pour aider ses équipes sur le plan technique.
Le législateur semble avoir abdiqué son rôle de régulateur et cherche davantage à coréguler ou à laisser les entreprises se réguler elle-même. Les GAFAM sont donc au-dessus des lois et des logiques de marché.

La construction d’une nouvelle forme de société

Les réseaux sociaux permettent à chacun de s’exprimer en « s’imaginant placé au centre du monde et pouvant rabattre les évènements à sa seule vision des choses » nous explique Eric Sadin dans son livre «L’intelligence artificielle ou l’enjeu du siècle – Anatomie d’un antihumanisme radical ». Or Google et Facebook sont les seuls décideurs de l’information qu’ils décident de censurer ou de promouvoir. Ils deviennent donc les principaux régulateurs de la liberté d’expression au mépris du 1er amendement américain ou de la loi française de 1881, nous explique Gaspard Koening dans son livre « La fin de l’individu – voyage d’un philosophe au pays de l’IA ». Si cela a abouti aux scandales liés au fake news dont nous avons déjà parlés, cela définit également un nouveau statut de vérité. Selon Eric Sadin, plusieurs statuts de vérité se sont succédés dans l’histoire: d’abord la vérité des monothéismes, puis celle des philosophes, d’abord Platon ensuite la vérité comme non-contraction d’Aristote, celle du cogito de Descartes et la vérité comme source de toutes les croyances inculquées de Nietzsche. Eric Sadin décrit le prochain statut de vérité comme une vérité fondée sur « l’evidence-based- system » soit la production d’équations et d’algorithmes, grâce à l’intelligence artificielle, qui nous dictent une réalité ou la réalisation de faits qui relèvent de l’évidence. C’est dans les mains des GAFAM que se construit ce nouveau statut de vérité.
Par exemple, Facebook ambitionne de construire une communauté qui « se charge de prévenir le mal, de corriger le sensationnalisme, de publier des standards de bonne conduite et de fournir aux citoyens des instruments de gouvernance » écrit Gaspard Koening dans son livre « La fin de l’individu – voyage d’un philosophe au pays de l’IA ». Cela ne se rapproche-t-il pas de la souveraineté ?

Les GAFAM exploitent et creusent l’écart entre une politique fondée sur des votes pour renouveler des mandats et un citoyen qui croule sous les offres et recommandations toujours plus personnalisées, de produits sur mesure etc… Pourtant le numérique rend le référendum et le vote beaucoup plus facile. Le risque est un désintérêt des citoyens pour la politique, indifférence qui ouvre un terrain aux autocrates.

Les déclinaisons des services des GAFAM sont multiples et accompagnent notre quotidien. Les implications sur la société en découlent. Par exemple, Google, avec son application Waze, impacte l’urbanisme : l’application encourage les automobilistes à prendre des itinéraires alternatifs, afin de limiter les encombrements. Certains riverains voient un trafic sans précédent passer par leur village, modifiant la vie de leur communauté. Ils tracent alors de nouvelles routes ou simulent des accidents pour détourner les utilisateurs de leur village.

Facebook ambitionne de créer une communauté que rien, ni même l’éloignement géographique, ne limite. Facebook a racheté CTRL-Labs qui a développé un bracelet permettant d’interpréter les signaux cérébraux et développe un casque, Oculus Quest, rendant possible la téléportation. Mark Zuckerberg y voit une solution aux inégalités sociales : si les talents sont équitablement répartis sur Terre, les opportunités ne le sont pas et « les bits vont plus vite que les atomes », développe Nicholas Negroponte dans son livre « Being Digital ». Afin d’être à la mesure de ses ambitions, Facebook développe un drone solaire, Aquila, qui fournira un accès internet, même aux régions du monde les moins bien desservies.
Les GAFAM n’adoptent pas l’échelle d’État ou la souveraineté nationale sur laquelle se base l’ONU. Grâce à l’IA, les GAFAM transcendent États et ONU. C’est d’ailleurs le paradoxe des GAFAM qui rêvent encore d’un monde sans frontière, alors que celui-ci se replie avec la montée des nationalismes.

Google dit travailler à comprendre les désirs profonds des utilisateurs : à faire remonter l’information que l’utilisateur cherche véritablement et pas celle qu’il aimerait voir. Google suggère ainsi des choix que nous n’aurions pas identifiés. Par exemple, si je tape dans Google « voiture à acheter », Google, connaissant mon budget grâce à mon historique de recherche ou aux informations échangées via mon compte Gmail, me proposera une Twingo ou une Jaguar. Appelé « nudge », ce procédé est une théorie comportementale, technique pour influencer le comportement des personnes sans les forcer.
Le nudge est défini par Richard Thales & Cass Sunstein comme « Paternalisme libertaire » : libertaire car les gens doivent être libres de faire ce qu’ils veulent ; paternaliste car « il est légitime d’influencer […] le comportement des gens afin de les aider à vivre plus longtemps, mieux et en meilleure santé ». Ce paternalisme libertaire, historiquement mission des États, permet d’orienter l’individu vers le meilleur choix pour lui tout en nuisant le moins possible à la société.
Google prend la place de l’État dans ce rôle de décider ce qui est bon pour l’utilisateur et pour sa communauté également.

Substitution aux États : l’exemple de Facebook et de sa cryptomonnaie

La souveraineté monétaire est un concept juridique et a été définie par deux juristes français, Jean Carbonnier et Dominique Carreau, comme étant l’apanage exclusif de l’État moderne. « C’est à lui et à lui seul qu’il appartient de choisir l’unité monétaire, le signe, qui va circuler sur son territoire ». Cette définition faite par deux illustres universitaires est pourtant aujourd’hui mise à mal par l’ambition des GAFAM.
Alors qu’Amazon et Google s’intéressent régulièrement à la technologie de la blockchain pouvant permettre de créer sa propre monnaie, 18 juin 2019 c’est le géant Facebook qui a annoncé la création de sa propre monnaie : le Libra.
Le chinois WeChat l’a fait avant lui et associe maintenant messagerie, vidéo et transaction mobile. Libra permettra d’ores et déjà de payer sur Uber, eBay, Spotify ou Booking et sera accessible même aux personnes ne possédant pas de compte bancaire (la moitié des adultes dans le monde, surtout dans les pays de développement et les femmes).

Une cryptomonnaie est une monnaie qui repose sur la technologie blockchain. Elle permet de transférer de l’argent instantanément, sans frais de transfert et de façon sécurisée grâce au cryptage. La blockchain permet d’effectuer une transaction au moyen d’une chaîne cryptée et décentralisée, sans besoin d’institution ou de tiers de confiance de façon transparente et infalsifiable. Afin de réaliser cette chaîne de transactions, la blockchain a besoin de beaucoup d’ordinateurs qui mettent à disposition leur réseau. Ainsi le système est inviolable : il faudrait hacker tous les ordinateurs en même temps pour modifier la transaction. La blockchain est d’ailleurs déjà utilisée par Amazon, Microsoft et Google.

La différence entre Libra et les cryptomonnaies déjà existantes est que Libra est associé à des leaders du commerce ou du paiement, comme Mastercard, Visa, PayPal, Uber, Booking, eBay, Vodafone ou encore Iliad. De plus Libra est adossé à une réserve de valeurs stables comme le dollar ou l’euro, ce qui permet à la cryptomonnaie de ne pas être trop volatile, contrairement au Bitcoin. A chaque fois qu’un utilisateur achète des libras, la somme équivalente est investie dans des actifs sûrs tels des dettes d’états en euros ou en dollars. C’est donc en quelque sorte une digitalisation des monnaies existantes. Libra prend donc tout son sens dans les pays où les citoyens se méfient des institutions, dans les pays émergents avec un système bancaire toujours vacillant ou dans le cadre des transferts d’argent issus des diasporas. Par exemple, au Venezuela, les citoyens tentent déjà de se débarrasser de leurs bolivars en les échangeant contre des dollars sur le marché noir. Le Libra serait une menace de plus à la reprise de contrôle de la souveraineté monétaire de la Banque Centrale du Venezuela.

Le fonctionnement de la cryptomonnaie de Facebook est celui d’une banque centrale, sans être adossée à un État.
Mais alors que la Banque Centrale Européenne (BCE) ou la Réserve Fédérale (Fed) contrôlent leur monnaie par le biais des taux d’intérêts et rachètent des dettes publiques pour agir sur l’économie, le Libra échappe complètement à cette régulation, étant uniquement piloté par des algorithmes.
Il existe déjà plus de 1000 cryptomonnaies. Les Banques Centrales s’y sont déjà intéressées et les ont jugées encore trop marginales pour affecter la stabilité financière.
Ces monnaies parallèles à l’État ne sont pas nouvelles. Au XVIIIème siècle en Écosse, les monnaies privées cohabitaient avec la monnaie étatique. Ce phénomène est régulé lorsqu’en cas de crise, les épargnants se tournent vers la puissance étatique, garante des dépôts et leur permet ainsi de récupérer leurs économies. C’est dans objectif que les États-Unis ont créé la Fed en 1913.

Facebook propose une sorte de dollarisation de l’économie des pays émergents. Certes le dollar est l’actif le plus sûr de la planète et représente déjà 61,7% des réserves des banques centrales sous forme de bons du Trésor. Cependant en jouant le rôle de banques centrales, Facebook porte atteinte à la souveraineté des États, fondement de l’ONU, et risque d’impacter l’économie mondiale. « Cette monnaie globale signerait la fin des États-nations, déjà bien vacillants », nous avertit Gaspard Koenig.

Facebook, à travers sa monnaie, pourrait déprécier ou apprécier n’importe quelle monnaie uniquement à son bon vouloir. Alors que les politiques monétaires font l’objet d’un nombre de

normes importantes, de traités internationaux et d’une régulation globalisée, cette monnaie de GAFAM sera un vecteur incontrôlable.
C’est d’ailleurs en ce sens que le Ministre de l’Économie française Bruno Le Maire a publié dans le Financial Times une tribune intitulée « Le Libra est une menace pour la souveraineté des États ». Il y écrit « Nous ne pouvons pas accepter qu’un des instruments les plus puissants de la souveraineté des États, la monnaie, dépende de décisions d’acteurs qui ne sont soumis à aucune règle de contrôle démocratique. » et conclut en arguant que « La souveraineté politique ne se partage pas avec des intérêts privés ».
Ces mots et plus globalement cette tribune dénote du risque majeur que nos démocraties encourent si des GAFAM, comme Facebook, valorisée à plus de 500 milliards de dollars, souhaitent créer leur propre monnaie.

L’Union Européenne a un rôle à jouer

Face à cette bipolarisation du monde entre les États-Unis et la Chine, et l’hyperpuissance de leurs mastodontes numériques, l’Union Européenne a un rôle prépondérant à jouer. D’abord par son poids économique, elle participe largement aux échanges commerciaux et peut infléchir certaines orientations. Mais aussi et surtout parce que l’Union Européenne représente une terre fertile pour ces entreprises du numérique qui ont besoin d’y être implantées ainsi que de bénéficier des utilisateurs européens. Néanmoins, ce rôle qu’elle doit jouer la confronte à des risques et des dangers.

Les GAFAM menacent la démocratie et les droits de l’homme

Le rôle de l’Europe, bien que nécessaire pour un équilibre mondial est en réalité une nécessité absolue pour conserver la démocratie et les droits de l’Homme sur son territoire.
Le scandale de Cambridge Analytica en est l’exemple. Alors que la data est un des enjeux cruciaux vis-à-vis des GAFAM, cette affaire a mis en exergue la possibilité pour certaines entreprises de les exploiter à des fins politiques.
L’entreprise Cambridge Analytica qui avait pour slogan « Data drives all we do », comprenons les données déterminent tout ce que nous faisons, était spécialisée dans l’analyse de données à grande échelle avec un cocktail d’intelligence artificielle mélangeant la psychologie comportementale, la psychométrie et le traitement quantitatif de données. Le développement de cet outil a alors permis l’exploitation des données Facebook de près de 70 millions d’utilisateurs, totalement à leur insu et d’influencer leur choix politiques.
A travers l’élection américaine de Donald Trump ou celle du Brexit, l’utilisation de ce type d’outils permise grâce aux GAFAM démontre que les données qu’ils concentrent menacent nos démocraties. Nos démocraties reposent essentiellement sur la souveraineté des peuples et sur des élections, reposant sur un vote souverain et éclairé des citoyens. Mais dès lors que ces entreprises réccupèrent un nombre incalculable de données, pouvant être utilisées à des fins politiques, il convient d’alerter sur l’équilibre de nos démocraties.
De plus, le profilage pratiqué par Facebook enferme l’utilisateur dans des habitudes de consommation, des boucles d’action et de décision, portant atteinte à la liberté de pensée, droit fondamental défini par la Convention Européenne de Sauvegarde des Droits de l’Homme.
Les assistants virtuels permettent par commande vocales d’effectuer certaines tâches qui assistent l’utilisateur dans leur quotidien. Apple avec Siri, Google avec Google Assistant et Google Now, Microsoft avec Cortana, Amazon avec Alexa, Alibaba Group avec AllGenie, tous peuvent fournir des résultats avec une simple commande vocale. Cependant pour alimenter ces assistants virtuels, il faut une quantité massive de données afin d’entrainer l’intelligence artificielle qui permet de reconnaitre et de traiter le langage.
Ces assistants sont déclenchés par mot clé. Mais le seuil d’erreur est très bas, ce qui implique qu’ils peuvent être déclenchés par beaucoup d’autres mots qui ressemblent plus ou moins aux mots clés : ils peuvent donc potentiellement écouter sans que l’utilisateur ne le sache. C’est ce que l’on appelle l’écoute passive.
De plus, comme beaucoup d’autres services, il faut se connecter grâce un compte utilisateur, qui est souvent le même que celui de Gmail, Facebook, Amazon, Apple. Les GAFAM peuvent donc croiser les données, qui plus est, des données personnelles et de vie privée. La Convention Européenne de Sauvegarde des Droits de l’Homme a défini comme un droit fondamental le respect de la vie privée et des données personnelles. Ces pratiques portent donc atteinte aux droits de l’Homme alors que les GAFAM centrent leur business model sur les utilisateurs et leur donnent l’illusion que tout est fait pour enrichir leur expérience, faciliter leur quotidien, accélérer leur prise de décision. Il y a fort à parier que l’Europe réagisse face à cette atteinte à ses droits fondamentaux et remette ainsi en question leur modèle économique.

La carte à jouer de l’Europe

Si l’Europe n’a pas orienté sa stratégie par le passé sur le numérique, elle a aujourd’hui, par sa tradition humaniste, une carte à jouer pour remettre de l’humain et de l’éthique au sein des GAFAM.
En effet, depuis les années 70 et l’abandon du réseau Cyclades, véritable pilier d’internet, au profit du Minitel, la vente de Thomson Multimedia au coréen Daewoo alors que Thomson possédait des brevets sur la technologie MP3 et la vidéo en ligne maintenant utilisés dans tous les smartphones, et le transfert des usines Alcatel vers la Chine, la France a été un exemple d’une Europe qui avait choisi d’axer sa stratégie sur des industries traditionnelles plutôt que de parier sur l’arrivée de nouvelles technologies. L’Europe a longtemps investi dans projets institutionnels plutôt que dans des startups comme aux États-Unis. Ces projets, comme le Google européen, Quaero, lancé par Chirac, sont vite abandonnés.
L’Europe cherche aujourd’hui à rétablir sa « souveraineté numérique » comme l’énonce Ursula Vonder Leyen. Un plan de relance est construit sur trois piliers : la maitrise des données industrielles (les données des entreprises européennes), la maitrise des microprocesseurs de haute performance, clé pour le bon fonctionnement des supercalculateurs et une connexion internet dans toute l’Europe, y compris les zones aujourd’hui blanches, grâce à une constellation satellitaire en orbite basse sécurisée par la technologie quantique. Le fer de lance de l’Europe est donc de réguler l’industrie « high tech » et ses géants, les GAFAM, jusqu’alors « too big to care » dans l’objectif de respecter les droits de l’homme et les valeurs démocratiques.

Nous avons vu précédemment que les GAFAM adoptaient certaines pratiques fiscales qui leur permettaient de payer des impôts négligeables. Certains pays de l’Union Européennes cherchent d’ores et déjà à empêcher ce dumping fiscal. Ainsi le ministre de l’économie français Bruno Le Maire soutient une taxe GAFAM qui s’adresse aux entreprises du numérique ayant un chiffre d’affaires supérieur à 750 millions d’euros et propose un impôt de 3% de leur chiffre d’affaires selon leur présence en France (nombre d’utilisateurs, contrats, …).

Les pays du G7 et du G20 ont chargé l’OCDE de construire une fiscalité internationale pour les entreprises du numérique. Les premières propositions vont dans le sens d’une imposition qui n’est pas basée sur le pays de résidence mais sur les pays d’utilisation.

La France et l’Union Européenne tirent le monde vers une industrie du numérique plus humaine. Le 15 juin 2020, le Canada, la France et 12 autres états (l’Allemagne, l’Australie, la République de Corée, les États-Unis d’Amérique, l’Italie, l’Inde, le Japon, le Mexique, la Nouvelle-Zélande, le Royaume-Uni, Singapour, la Slovénie) et l’Union Européenne ont signé le partenariat mondial pour l’Intelligence Artificielle. Son secrétariat est hébergé à l’OCDE à Paris et ses deux centres d’expertises à Montréal et à Paris. L’objectif de ce partenariat est de construire une intelligence artificielle éthique, respectant les droits de l’homme et les valeurs démocratiques.

Dans cette lutte pour conserver nos démocraties et les droits de l’Homme, l’Union Européenne a fait une avancée considérable : le RGPD (Règlement Général sur la protection des données). Il a imposé en 2016 à toutes les entreprises ayant des clients au sein de l’Union Européenne cette réglementation qui n’est égalé dans aucun autre pays et sert d’inspiration au monde entier en matière de régulation des données. Sa logique est de faire du contrôle de la data un droit fondamental. « Qui dit marché des data dit démocratie des data » dit Margrethe Vestager. Pour « ne pas se retrouver au milieu du duopole » comme le dit Cédric Villani, entre les États-Unis et la Chine, l’Europe pourrait fournir un cadre législatif, économique et culturel à l’industrie du numérique.
L’Europe est récemment allée plus loin. La Cour de justice de l’Union Européenne a cette année mis un terme à l’accord Privacy Shield qui permettait le transfert de données entre l’Europe et les États-Unis depuis 2015. Cette décision a des répercussions sur plus de 5000 entreprises, dont les GAFAM, qui dépendent de ce transfert de données. L’Union Européenne a rompu cet accord jugeant que la gestion des données par les États-Unis n’était pas conforme à celles déployée par le RGPD et ne permettait pas une protection suffisante de celles-ci. L’intérêt premier de l’Union Européenne est donc de protéger les données des citoyens européens notamment contre les services de renseignements américains.
La Data Protection Commission irlandaise a ainsi exigé de Facebook en Septembre dernier d’arrêter de transférer les données des utilisateurs européens vers les serveurs américains.
Se priver du marché de l’Europe n’est pas envisageable pour nombre des entreprises concernées par la rupture de cet accord. Comme Facebook, elles ont alors deux solutions : soit elles arrêtent de traiter les données provenant de l’Europe et renoncent donc à leurs services sur ce territoire, ou soit elles devront trouver des moyens et des garanties pour s’assurer que les données de leurs utilisateurs européens sont protégées.
D’ici fin 2020, l’Unions Européenne veut mettre en place une législation sur les services numériques qui pourra contraindre les GAFAM à se séparer de certaines activités sur le marché intérieur en cas de non-adaptation.
Ce règlement est la preuve que l’Europe a un rôle prépondérant à jouer dans cette guerre économique, où les GAFAM, s’installent comme des puissances à la fois économique et politique.

L’Europe prend donc le rôle de leader dans la définition d’un monde numérique en respect de la souveraineté des états et des droits de l’Homme et cherche ainsi à rétablir un équilibre des puissances et un contexte favorable à l’innovation éthique.

CONCLUSION

Nous avons démontré que les GAFAM, et aujourd’hui les BATX, ont permis aux États-Unis et à la Chine de renforcer leur puissance sur la scène mondiale. Définissant une nouvelle industrie, ces géants du numériques ont bénéficié du retard de l’adaptation du cadre législatif pour porter une croissance fulgurante. Un réveil des états et des utilisateurs met en lumière leurs pratiques anti-concurrentielles, anti-démocratiques et bafouant la souveraineté des états et les droits de l’homme. Grâce à leurs chiffres d’affaires dépassant le PIB de beaucoup d’états et leur communauté dépassant les frontières, les GAFAM sont en position de force pour imposer un nouvel ordre mondial et une nouvelle conception des droits, de la politique et de la citoyenneté. L’Europe veut jouer le rôle de garante de la démocratie et des droits de l’homme et tente de définir un nouveau cadre à cette industrie dématérialisée qui vend à ses utilisateurs une séduisante capacité à les orienter et les influencer mieux que quiconque.

REFERENCES

L’intelligence artificielle ou l’enjeu du siècle – Anatomie d’un antihumanisme radical – Eric Sadin La fin de l’individu – voyage d’un philosophe au pays de l’IA – Gaspard Koening
Le Capitalisme de surveillance – Shoshana Zuboff
Being Digital – Nicholas Negroponte

Adieu les Gafa, place aux «Big Tech» – Le Figaro – 7 septembre 2020
Comment la France s’est vendue aux GAFAM – Tariq Krim – Le Point – 5 janvier 2019

Charles-Édouard Bouée : « Avec l’intelligence artificielle, nous entrons dans la quatrième vague de la révolution digitale » – Le Point – 24 décembre 2018

Les GAFA se heurtent à la grande muraille de l’Etat chinois – Le Monde – 7 août 2017

Les confidences de Mark Zuckerberg – Le Point – 25 septembre 2019

L’Europe contre Google, Acte II – Le Point – 11 septembre 2017

L’inventeur du Web exhorte à réguler l’intelligence artificielle – Le Monde – 27 avril 2018

Libra : pour Facebook, un nouveau moyen de mieux connaître ses «amis» – Libération – 17 juin 2019

Libra : tout ce qu’il faut savoir sur la cryptomonnaie de Facebook – Le Monde – 18 juin 2019

Avec le libra, Facebook veut bousculer les monnaies – Le Monde – 17 juin 2019

« Il est opportun d’ouvrir un débat approfondi sur la “blockchain” » – Le Monde – 3 mai 2019

L’inventeur du Web exhorte à réguler l’intelligence artificielle – Le Monde – 27 avril 2018

Breton : « L’UE doit organiser l’univers numérique pour les 20 prochaines années » – Le Point – 26 juin 2020

L’accord sur le transfert de données personnelles entre l’UE et les Etats-Unis annulé par la justice européenne – Le Monde – 16 juillet 2020

Apple : la justice annule les 13 milliards d’arriérés d’impôts exigés par la Commission européenne – Les Echos – 15 juillet 2020

Tribune du Ministre de l’Économie et des Finances Bruno Le Maire – Financial Times – 17 octobre 2019

Intelligence artificielle : un défi de civilisation, un devoir de génération

Géopolitique

Geneviève Fieux-Castagnet, Déontologue, et Gérald Santucci, Penseur et Écrivain

26 septembre 2019

Il ne fait aucun doute que l’intelligence artificielle connaît depuis plus d’une décennie des avancées spectaculaires qui vont encore s’amplifier. La santé, l’automatisation, la mobilité et le transport, les analyses prédictives, la justice et la police, la sécurité dans les villes, l’art, les jeux, et bien d’autres domaines encore, sont peu à peu gagnés par l’attractivité de cette discipline et de ses technologies qui promettent plus de performance, moins de coûts.

Chacun sent bien que le recours à l’IA pose de nombreuses questions éthiques que certains États et des entreprises de plus en plus nombreuses sont en train de prendre en considération. C’est pourquoi de nombreux acteurs publics et privés conçoivent des lignes directrices et des chartes éthiques pour le déploiement de l’intelligence artificielle. La tâche n’est pas aisée puisqu’il faut arbitrer entre innovation et protection, nouveaux modèles économiques et réglementations. Actuellement, il apparaît que la Commission européenne est bien placée dans la recherche de cadres appropriés pour évaluer les impacts éthiques de l’IA. Après le rayonnement du RGPD (règlement général sur la protection des données), elle peut s’employer à légiférer sur les questions éthiques tout en poursuivant son dialogue avec les autres parties du monde afin que sa démarche devienne un jour universelle. Dans notre essai rédigé en anglais, Gérald Santucci et moi-même proposons un cadre général des grandes problématiques de l’IA et évoquons les principaux outils susceptibles de permettre de développer une IA éthique universelle, notamment par le recours à des analyses d’impact éthique.

https://www.theinternetofthings.eu/geneviève-fieux-castagnet-and-gérald-santucci-artificial-intelligence-civilizational-challenge