Nudge et intelligence artificielle, coup double ou coup fourré ?

Non classé

Christophe Moyen, Catherine Vidal

Novembre 2020

INTRODUCTION

Nous ne sommes pas aussi rationnels que nous le pensons. Alors que nous aimons penser que nos décisions sont le résultat de réflexion rationnelle, la vérité est que les choses dont nous ne sommes pas conscients influencent en fait notre décision tout le temps. Les progrès des sciences cognitives et comportementales révèlent que la façon dont sont présentées les différentes options, ce que l’on appelle «l’architecture de choix», influence nos décisions. Nous avons tendance à réagir différemment à une option particulière selon comment elle nous est présenté. Sur la base de ces données, Richard Thaler et Cass Sunstein ont développé la théorie du nudge (ou le coup de coude), qui expliquent que les décisions et les comportements des gens devraient être influencés de manière prévisible et non coercitive en apportant de petits changements à l’architecture de choix sur la base du « paternalisme libertarien ». Donc ces nudges peuvent nous influencer sur la bonne manière d’agir pour notre bien ou le bien commun en utilisant nos biais cognitifs et comportementaux. Or aujourd’hui, l’homme a inventé une « machine » capable de reproduire parfaitement nos biais, on pourrait même dire à notre insu, l’intelligence artificielle nourrie par toutes nos données. Ainsi l’association du nudge et de l’intelligence artificielle fera-t-elle « coup double » en nous permettant d’agir plus efficacement pour nous même ou notre environnement en exploitant au mieux nos biais ; ou au contraire cette association ne sera qu’un « coup fourré » qui permettra de mieux nous contrôler voire de nous manipuler en ayant de moins en moins de chance de s’en apercevoir ?

Définition du Nudge

Dans leur livre « Nudge: Improving Decisions About Health, Wealth, and Happiness », Richard Thaler et Cass Sunstein définissent le «coup de coude» comme «tout aspect de l’architecture de choix qui modifie le comportement des gens de manière prévisible sans interdire aucune option ou changer considérablement leurs incitations économiques. » En d’autres termes, un nudge est un changement de la façon dont les options sont présentées qui orientent les gens dans une certaine direction sans en interdire les autres options, tout en maintenant la liberté de choix des gens. 

Suggestions, avertissements, les valeurs par défaut et les recommandations en sont tous des exemples. 

Les amendes, les mandats, les menaces, les interdictions et les instructions directes ne le sont pas, car ils interdissent certaines options ou réduisent considérablement la liberté de choix. 

Un nudge est analogue au fonctionnement d’un GPS. Le GPS suggère le meilleur itinéraire, mais il ne contraint pas les conducteurs à emprunter cette voie. Le GPS permet aux conducteurs d’aller dans une direction différente s’ils le souhaitent, mais les conducteurs finissent souvent par emprunter l’itinéraire suggéré. Le nudge est donc une méthode permettant d’influencer les décisions et les comportements des gens de manière non coercitive en apportant de petits changements à l’architecture de choix.

Un architecte de choix est une personne chargée de présenter les différentes options. Vendeurs, médecins, serveurs, concepteurs de sites Web et les professeurs ne sont que quelques exemples d’architectes de choix qui donnent un « coup de coude ». Leurs décisions sur la façon dont les options sont présentées à d’autres personnes affectent les décisions que les autres prennent. C’est étayé par des preuves issues des sciences cognitives et comportementales qui suggèrent que nous prenons généralement des décisions irrationnelles en raison d’erreurs systématiques dans notre façon de raisonner.

Le paternalisme libertaire

Le paternalisme libertaire est une vision du politique qui combine deux postulats. Elle est « paternaliste » en ce qu’elle repose sur l’idée qu’il est légitime d’influencer le comportement des gens pour les aider à vivre plus longtemps, mieux et en meilleure santé. Ces objectifs seraient implicitement partagés par chacun(e), tout en étant régulièrement contrecarrés par des erreurs de jugement et des biais psychologiques. Cette vision est « libertaire » en ce que la liberté de choix des personnes doit néanmoins ne jamais être limitée. En cela, les outils classiques de la réglementation et de la taxation sont, pour les tenants du paternalisme libertaire, à éviter.

Définition de l’IA

Commençons par la définition de l’algorithme, puisque nous le verrons, toute intelligence artificielle est un algorithme. Un algorithme est un ensemble d’opérations étape par étape autonome que les ordinateurs utilisent pour effectuer des taches de calcul, de traitement des données et de raisonnement automatisé. L’algorithme informatique détaille la manière dont un programme doit se comporter. Les algorithmes sont donc la base des technologies d’intelligence artificielle.

L’intelligence artificielle (IA)  a pour objectif de permettre à des machines de prendre des décisions et de résoudre des problèmes. C’est l’ensemble des théories et des techniques mises en œuvre pour la réalisation de machines capables de simuler différents éléments de l’intelligence humaine. Deux techniques tiennent aujourd’hui le haut du panier. LeMachine Learning (ML) que l’on peut définir comment étant l’apprentissage automatique qui est un champ d’étude de l’IA qui décrit un processus systématique par lequel une machine apprend à partir d’exemples ; et le Deep Learning (DL) : qui est une déclinaison du Machine Learning directement lié aux réseaux de neurones artificiels.

Les biais heuristiques qui font l’efficacité du nudge

Les erreurs dans notre façon de raisonner résultent généralement d’heuristiques, qui sont des règles empiriques que les gens utilisent pour former des jugements et prendre des décisions. Heuristique, bien que parfois précise et utiles, conduisent souvent à des erreurs graves et systématiques, appelées «biais cognitifs», qui apparaissent lorsque les gens choisissent ce que l’heuristique suggère même si la suggestion est la mauvaise option. Ainsi, même lorsque nous prenons de «bonnes» décisions (en termes de résultats), ces décisions sont encore irrationnelles (dans un certain sens) lorsqu’elles sont le résultat de biais.

Les trois principaux biais heuristiques et cognitifs identifiés par Tversky et Kahneman dans leur recherche sont les suivants :

a) Représentativité

Les gens ont tendance à évaluer les probabilités en fonction du degré auquel A est représentatif de B. Autrement dit, à quel point A est similaire à B. Cette heuristique a lieu dans le stéréotypage. Pour Par exemple, nous pensons qu’un homme de 2m10 est plus susceptible d’être un joueur de basket-ball professionnel qu’un homme de 1 m 70 parce que la plupart des basketteurs professionnels mesurent plus de 2m. Dans ce cas, l’heuristique aboutit à un jugement précis, mais des biais se produisent lorsque la similarité et les fréquences divergent. Ceci est démontré dans une expérience de pensée sur une femme nommé Linda. Dans cette expérience de pensée, les sujets de cette expérience apprennent que Linda est une jeune femme célibataire, franche et brillante qui s’est spécialisée en philosophie. Linda est préoccupée par les problèmes de discrimination et elle participe à des manifestations de justice sociale. Après que ces descriptions ont été données aux sujets, ceux-ci sont invités à choisir s’ils pensent que Linda est: (i) une caissière de banque, ou (ii) une caissière de banque active dans un mouvement féministe. La majorité des gens ont tendance à choisir (ii) bien que ce soit une erreur logique. Dans ce cas, il est plus probable que Linda soit une caissière de banque qu’une caissière féministe parce que toutes les caissières féministes sont des caissières de banque.

Le biais cognitif qui résulte de l’heuristique de représentativité est enraciné dans le fait que les gens se fient aux similitudes et aux attentes pour choisir la description qui semble mieux assortir à Linda selon la description qu’on leur donne d’elle. Instinctivement, La description de Linda correspond à (ii) mieux que (i).

b) Disponibilité

Les gens ont tendance à évaluer la fréquence ou la probabilité d’un événement en fonction de la facilité avec laquelle un tel événement est rappelé. L’heuristique de disponibilité est étroitement lié aux biais d’accessibilité, d’évidence et de fraicheur. Les médias influencent grandement les informations qui sont à notre disposition. Par exemple, les gens ont tendance à croire que les homicides sont plus fréquents que les suicides étant donné que les informations sur les homicides sont plus accessibles (c’est-à-dire plus fréquemment rapporté dans les médias) et donc plus facilement rappelées. Cependant, plus de personnes meurent de suicide que d’homicide. Les expériences personnelles et les événements récents sont également largement plus disponibles pour nous, et plus facilement rappelés que les événements que l’on n’a pas vécu personnellement ou des événements vécus il y a longtemps.  Prenons pour exemple les achats d’assurance contre les inondations. Quelqu’un qui n’a pas connu d’inondation dans le passé immédiat est beaucoup moins susceptible de souscrire ce genre assurance (même s’ils vivent dans des plaines inondables) que quelqu’un qui en a connu (ou connait quelqu’un qui en a vécu) un. C’est le cas même si la première personne vit sur une zone inondable et que la seconde vit dans une zone où il n’y a pas de risque d’inondation significatif.

c) Ajustement et ancrage

Afin de prendre des décisions ou de déterminer une inconnue, les gens ont tendance à s’appuyer fortement sur des valeurs initiales ou familières comme points de départ, appelées ancre, pour faire des estimations. Le biais qui résulte de cette heuristique se produit lorsque le référentiel de comparaison n’est pas une bonne similitude. Thaler et Sunstein donnent un exemple dans lequel deux groupes de personnes sont invités à deviner la population de la ville de Milwaukee. Un groupe est de Chicago et l’autre de Green Bay. Le premier groupe pense que c’est la plus grande ville du Wisconsin, mais il ne pense pas que ce soit aussi grand que Chicago, ce qui l’amène à dire que la population de Milwaukee est environ un tiers de la taille de celle de Chicago (environ un million). Le second groupe de Green Bay ne connaît pas non plus la réponse exacte, mais il sait que Green Bay est composé d’environ cent mille personnes. Il sait également que Milwaukee est plus grand que Green Bay, raison pour laquelle il pense que la population de Milwaukee est d’environ trois cent mille personnes. Dans ce cas, les personnes de Chicago ont fait une estimation trop élevée alors que ceux de Green Bay en ont fait une estimation trop faible (pour information, la population de Milwaukee est d’un peu moins six cent mille personnes). Cet exemple montre que différentes personnes choisissent arbitrairement différentes ancres pour la même question dont ils ne connaissent pas la réponse, et ces ancres produisent souvent des réponses très différentes.

Et au niveau neurobiologique ?

Au  cœur  des  questions  soulevées  par  le  Nudge,  se  trouve  la  notion  de prise  de décision.  De  nombreux  champs  de  recherche  y  sont  consacrés  :  économie, sociologie, psychologie,  sciences  cognitives  etc., sans  oublier  les  débats  philosophiques  sur  le  libre arbitre (Damasio 2012, Dennett 1978, 1993, Lavazza 2019, Searle 1997).

Les neurosciences ne sont pas en reste avec l’émergence des nouvelles disciplines que sont la neuroéconomie et le neuromarketing. L’objectif est de comprendre comment les choix économiques  sont  déterminés  par  les  états  mentaux.  Grace  aux technologies  d’imagerie cérébrale  par  IRM  (imagerie  par  résonnance  magnétique)  il  est possible  de  détecter  les régions  du  cerveau  activées  quand  on  demande  au  sujet  placé  dans  la machine  de  faire  une tache cognitive  impliquant  une  prise  de  décision  dans  un  choix économique.  Les  taches  les plus utilisées sont calquées sur des jeux d’argent, loterie, paris, avec perte et gains, fictifs ou en nature. 

Toutes les études s’accordent pour montrer que des circuits impliqués dans la prise de décision sont situés dans le partie frontale du cerveau, à savoir dans le cortex préfrontal (CPF) dont  le  développement  chez  l’être  humain  a  permis  l’émergence  des  capacités  cognitives  les plus  élaborées  :  pensée,  raisonnement,    planification,  anticipation, conscience  réflexive  etc. 

Dans  les  choix  économiques,  on  peut  observer  l’activation  de  sous-régions  du  CPF  qui  sont mobilisées  de  façon  variables  selon  les  conditions  de  la  tâche  à  effectuer  :  choix rationnels basés sur la perception d’indices, choix subjectifs en l’absence d’indices, choix orientés selon l’évaluation des probabilités de récompense, de prises de risque etc.

Une  étude récente  par  IRM  a  recherché  les  effets  du  « Nudge  social »  sur  des choix économiques (Chung 2015). La tache utilisée est un jeu de loterie avec différents niveaux de risques, faible ou fort. L’IRM montre l’activation de sous-régions du CPF, les unes impliquées dans  la  prise  de  risque  objective,  et  les  autres  activées  lors  de préférences  subjectives.  Ces différentes  régions  sont  interconnectés  et  s’activent  simultanément  mais  à  des  degrés  divers selon l’évaluation des prises de risque. Ces résultats ont été comparés à ceux d’un autre groupe de participants qui avaient été préalablement informés des choix et prises de risques d’autres joueurs  fictifs  dans  cette  tâche.  Ce  message  a  eu  pour  conséquence d’orienter  les  choix personnels  de  prise  de  risque  en  fonction  des  choix  des  autres.  Cet  effet  était  corrélé  à  des modulations de l’activité des régions du CPF.

Cette  étude  prend  tout  son  intérêt  dans  le  cadre  de  la  recherche fondamentale  sur  le fonctionnement   cognitif   et   ses   corrélats   neuronaux   :   interactions  entre   rationalité   et subjectivité  dans  la  prise  de  décision,  plasticité  des choix  en  fonction de  l’environnement social.   Ces   résultats   (et   ceux   d’autres   études   par   IRM)   viennent  ainsi   confirmer   les nombreuses recherches en psychologie expérimentale et en économie comportementale sur la prise de décision (Damasio 2012, Dennett 1978, 1993, Lavazza 2019).

Mais  qu’en  faire  pratiquement ?  Certains  peuvent  en  tirer  argument pour  chercher  à développer des puces intracérébrales ou des casques de neurostimulation dans le but d’orienter les  choix  économiques.  La  réussite  de  ce  scénario  est  peu  probable.  En  effet,  les  régions  du CPF  mises  en  jeu  dans  la  prise  de  décision  ne  sont  pas  uniquement  dédiées  à  cette  fonction. 

Elles sont aussi impliquées dans d’autres processus cognitifs tout autant fondamentaux dans la vie  psychique  et  les  comportements.  Dans  l’état  actuel  de  nos connaissances,  le  projet  de  cibler  une  fonction  spécifique  sans  entraver  le  fonctionnement  normal du  cerveau  n’est  pas fondé scientifiquement (Vidal 2019).

Rappelons qu’en France, la loi de bioéthique (révision 2019/2020, http://www.assemblee-nationale.fr/15/ta/ta0343.asp) stipule    dans    l’article    12    que    « les techniques  d’imagerie  cérébrale  ne  peuvent  être  employées  qu’à  des fins  médicales  ou  de recherche  scientifique,  ou  dans  le  cadre  d’expertises  judiciaires  »,    ce  qui  exclut  de  fait l’expérimentation  en  neuromarketing  (Vidal  2020).  Cet  article  reprend les  conclusions  de l’avis  129  du  CCNE  considérant  que  l’IRM  fonctionnelle  n’est  pas  une  technique  fiable  pour  expliquer le comportement et  déconseille son emploi dans les applications « sociétales » telles que le neuromarketing (www.ccne-ethique.fr).

Une  autre  préoccupation  éthique  est  celle  des  effets  à  long  terme  du  Nudge  sur  la structure  et  le fonctionnement  du  cerveau.  Il  a  été  montré  que  le  guidage  par  GPS s’accompagne  d’une  réduction  des  capacités de  mémoire  spatiale  et de  représentation  de l’espace,  et  ce  proportionnellement  à  la  fréquence  d’usage  du GPS  (Dahmani  2020). 

Des modifications  des  connexions  entre  les  régions  cérébrales  impliquées  dans  l’orientation spatiale  (hippocampe,  cervelet)  ont  aussi  été décrites  (Fajnerova  2018).  Ces  effets  observés chez  les  adultes  pourraient  avoir  des  conséquences  néfastes  sur le  cerveau  des  enfants  et adolescents en interférant avec les processus de développement en cours chez les jeunes. 

Prise dans son ensemble, notre analyse de l’usage de plus en plus important  de  connaissances  issues  des  sciences  comportementales  dans l’élaboration des politiques en Europe révèle un intérêt croissant des  autorités  de  l’UE  –  et  de  certains  États  membres  –  pour  cette  approche. 

C’est pour mieux t’accompagner mon enfant

Un exemple de nudge qui s’est avérée efficace sur les choix des gens de devenir donneurs d’organes, n’est qu’un simple changement de défaut d’option dans les formulaires de don d’organes. Une étude montre que lorsque les formulaires ont une option par défaut qui nécessite un consentement explicite (les gens doivent cocher une case s’ils veulent être donneurs), moins de 20% des personnes deviennent généralement des donneurs. Lorsque les formulaires ont une option de désactivation par défaut (les utilisateurs doivent cocher une case s’ils ne souhaitent pas être des donneurs) plus de 98% des personnes deviennent généralement des donneurs. Cette disparité est due à l’effet par défaut – tendance à s’en tenir à ce qui est présélectionné, indépendamment de ce que c’est. 

L’utilisation de panneaux qui encouragent les clients d’un l’hôtel à réutiliser leurs serviettes et leurs draps est un exemple d’un petit coup de coude rentable qui apporte des avantages à tous. Ces panneaux affichent généralement ce genre de message : «Près de 75% des clients aident l’environnement en utilisant leurs serviettes plus d’une fois. Vous pouvez rejoindre vos compagnons de voyage et ainsi contribuez à préserver l’environnement en réutilisant les serviettes pendant votre séjour. » Pour un certain nombre de raisons possibles allant du pouvoir fondamental des normes sociales qui amènent les gens à suivre la majorité, la pression des pairs, beaucoup de gens finissent par réutiliser leurs serviettes. Inciter les clients de l’hôtel à réutiliser leurs serviettes et leurs draps est surtout bénéfique pour les architectes de choix (hôtels) car cela réduit leurs coûts liés à l’utilisation d’électricité, d’eau et de savon, ainsi qu’au travail de réapprovisionnement et de lavage des serviettes. Moins de lavage se traduit également par une réduction des coûts de remplacement étant donné que l’usure des serviettes et des draps est réduite, ce qui prolonge leur durée de vie. L’American Hotel and Lodging Association estime que ce simple nudge réduit le nombre de nettoyage de linge – ainsi que les coûts connexes – de 17%. 

L’une des illustrations les plus connues de Thaler remonte au début des années 1990 à l’aéroport de Schiphol à Amsterdam. Comme les planchers des toilettes pour homme devenaient trop collants, le responsable du nettoyage a mis en place un coup de coude pour essayer de réduire les «déversements» autour des urinoirs. Ce nudge a pris la forme d’une image de mouche placée dans chaque urinoir. L’idée avait pour but de donner aux hommes quelque chose à viser. Le résultat en a été une réduction de 80% des déversements et une réduction du nettoyage de 20% en moyenne, ce qui se traduit par une réduction de 8% les frais de nettoyage des toilettes de l’aéroport.

Aujourd’hui grâce à l’utilisation de l’intelligence artificielle, tant Microsoft que Google proposent par exemple des outils pour inciter les employés à se réserver des plages libres dans leur calendrier. Microsoft incite les utilisateurs via la fonctionnalité MyAnalytics d’Office365, a se garder des plages libres pour travailler lorsque l’on a déjà accepté beaucoup de réunion ou à transférer une nouvelle réunion à un collaborateur, mais aussi à limiter l’envoi de mail après les horaires de bureau et de rappeler les mails important non lus. Alors que Google (via Gmail) propose des outils qui remontent les mails importants non répondus en haut de la boite de réception. Il permet également le rappel des mails importants restés sans réponse depuis 3 jours.

On le voit ici, l’utilisation combinée de nudge et d’intelligence artificielle est une autre manière de pousser doucement les collaborateurs à faire le meilleur choix pour eux, puisqu’ils peuvent décider premièrement d’activer ou non ces options, puis ensuite de suivre ou pas ces recommandations. L’utilisation de l’intelligence artificielle permet ici de rendre possible de tel nudge autrement plus complexe à mettre en œuvre par d’autres méthodes numériques plus traditionnelles.

Les affinités entre le nudge et le numérique

Le numérique est à l’évidence un environnement rêvé pour le nudge. En premier lieu, nous prenons aujourd’hui beaucoup de décisions sur nos écrans au moyen d’interfaces numériques. Lorsque nous faisons des achats en ligne, contactons un service client ou comparons des offres de crédit, lorsque nous envoyons un message à des collègues ou saisissons des informations dans un logiciel professionnel, lorsque nous réagissons à un post sur un réseau social, à chaque fois nous opérons des choix. Et nous le faisons parmi des options qui nous sont présentées d’une certaine manière par les architectes (de choix) de ces interfaces. Auteurs d’un papier sur le sujet, des chercheurs de l’Université de Saint-Gall estiment que le nudge peut enrichir le travail des designers d’interfaces et les aider à concevoir des systèmes aidant les utilisateurs à faire les choix les plus bénéfiques pour eux, en exploitant ou en contrant des effets psychologiques spécifiques.

Deux autres atouts du numérique sont soulignés pour l’implémentation de nudge. D’abord, il est facile de créer des nudges à grande échelle: il est plus aisé et meilleur marché de créer une notification ou de modifier une option par défaut sur un site web pour tous les utilisateurs que de dessiner une mouche dans les urinoirs de tous les aéroports du monde. Autre avantage, le numérique permet de tester différentes variantes pour en tirer des enseignements et déterminer le nudge le plus efficace. Là aussi, il est plus simple de faire du A/B testing dans une application que d’expérimenter différentes dispositions des plats dans un self-service. Enfin, les nudges numériques peuvent être personnalisés et envoyés au moment et dans le contexte le plus opportun.

Le pouvoir des Nudges va être amplifié, grâce au numérique et à l’intelligence artificielle, à travers des objets qui vont détecter nos habitudes et comportements, et nous influencer, nous inciter à consommer… Une voix d’enceinte connectée (Alexa d’Amazon par exemple) pourrait nous inciter à faire plus de sport, à manger moins, à être plus attentif, à acheter une crème antirides ou à voter pour untel. Le nudge est souvent mis en œuvre pour surveiller notre santé et pour notre bien-être, il pourrait tout autant être une stratégie d’insistance à des fins uniquement mercantiles ou de manipulation de masse.

C’est pour mieux te manipuler mon enfant

En intégrant des connaissances de l’économie comportementale, les entreprises et les designers peuvent concevoir des architectures de choix et des coups de coude pensés sciemment pour inciter les utilisateurs à prendre les meilleures décisions, c’est l’idée du digital nudge.

Mais les manipulations sont faciles et il arrive qu’une prise en charge de l’expérience de l’employé peut ressembler davantage à de la surveillance. Récemment, Amazon a créé la polémique après avoir déposé un brevet pour un bracelet capable de suivre la position de la main des employés de ses entrepôts pour les avertir lorsqu’ils mettent un article dans le mauvais casier. Si l’intention du géant de l’e-commerce semble respectable – «éviter que les manutentionnaires ne se trompent de casier et aient à tenir un scanner à la main» – un tel suivi est de nature à générer de la méfiance, sans parler des dérives possibles. L’employé peut toujours refuser de suivre les recommandations du bracelet, donc on peut encore parler de nudge.

Autre exemple, la société Cogito a développé un outil de coaching intelligent qui analyse le contenu et la façon de parler des employés des centres d’appel. Une fois la conversation terminée, l’outil affiche des recommandations à l’écran de l’agent lui suggérant de parler plus lentement, de poser des questions ouvertes ou de montrer plus d’empathie… Là encore les employés ont toujours le choix de suivre ou non les recommandations de l’outil en toute connaissance de cause. L’outil informatique fait en quelque sorte office de manager… Manager qui saura si l’employé aura suivi les dites recommandations, ce qui peut facilement s’apparenter à une forme de pression.

Les pratiques non respectables sont particulièrement répandues sur les réseaux sociaux, où la gestion de notre vie privée est, à certains égards, plus déroutante que jamais. Facebook a permis par exemple aux utilisateurs de se retirer des sites Web partenaires de Facebook pour collecter et enregistrer leurs informations Facebook accessibles au public. Quiconque a refusé cette «personnalisation» a vu un pop-up demandant: «Êtes-vous sûr ? Permettre une personnalisation instantanée vous offrira une expérience plus riche lorsque vous naviguez sur le Web. » Jusqu’à récemment, Facebook a également mis en garde les gens contre la désactivation de ses fonctionnalités de reconnaissance faciale : «Si vous désactivez la reconnaissance faciale, nous ne pourrons pas utiliser cette technologie si un étranger utilise votre photo pour usurper votre identité.» Le bouton pour activer le réglage est lumineux et bleu; le bouton pour l’éteindre est un gris moins accrocheur.

Les chercheurs appellent ces décisions de conception et de formulation des «modèles sombres», un terme appliqué à l’expérience utilisateur qui tente de manipuler vos choix. Quand Instagram vous demande à plusieurs reprises «d’activer les notifications» et ne propose pas d’option pour refuser? C’est un motif sombre. Lorsque LinkedIn vous montre une partie d’un message InMail dans votre e-mail, mais vous oblige à visiter la plateforme pour en savoir plus, il s’agit là aussi d’un motif sombre. Quand Facebook vous redirige pour vous «déconnecter» lorsque vous essayez de désactiver ou de supprimer votre compte. C’est aussi un motif sombre. Ce genre de nudge est communément appelé « sludge ».

Des motifs sombres apparaissent partout sur le Web, incitant les gens à s’abonner à des newsletters, à ajouter des éléments à leur panier ou à s’inscrire à des services. Mais, dit Colin Gray, chercheur en interaction homme-machine à l’Université Purdue, ils sont particulièrement insidieux «lorsque vous décidez des droits à la confidentialité à céder, des données dont vous êtes prêt à vous séparer. Gray étudie les motifs sombres depuis 2015. Lui et son équipe de recherche ont identifié cinq types de base: harceler, obstruction, furtivité, interférence d’interface et action forcée. Tous ces éléments apparaissent dans les contrôles de confidentialité. Lui et d’autres chercheurs dans le domaine ont remarqué la dissonance cognitive entre les grandes ouvertures de la Silicon Valley vers la confidentialité et les outils pour moduler ces choix, qui restent remplis de langage déroutant, de conception manipulatrice, et d’autres fonctionnalités conçues pour récupérer plus de données. 

Ces jeux de protection de la vie privée ne sont pas limités aux médias sociaux. Ils sont devenus endémiques au Web en général, en particulier à la suite du règlement général européen sur la protection des données . Depuis l’entrée en vigueur du RGPD en 2018, les sites Web sont tenus de demander aux gens le consentement pour collecter certains types de données. Mais certaines bannières de consentement vous demandent simplement d’accepter les politiques de confidentialité, sans possibilité de dire non. «Certaines recherches ont suggéré que plus de 70% des bannières de consentement dans l’UE comportent une sorte de motif sombre intégré», déclare Gray. «C’est problématique lorsque vous cédez des droits substantiels.»

Récemment, des sites comme Facebook et Twitter ont commencé à donner à leurs utilisateurs un contrôle plus précis de leur vie privée sur le site Web. La vérification de la confidentialité récemment déployée par Facebook, par exemple, vous guide à travers une série de choix avec des illustrations aux couleurs vives. Mais Gray note que les valeurs par défaut sont souvent définies avec moins de confidentialité à l’esprit, et les nombreuses cases à cocher peuvent avoir pour effet de submerger les utilisateurs. «Si vous avez une centaine de cases à cocher, qui va le faire», dit-il.

Les schémas les plus sombres de tous surviennent lorsque les gens essaient de quitter ces plates-formes. Essayez de désactiver votre compte Instagram et vous constaterez que c’est extrêmement difficile. Tout d’abord, vous ne pouvez même pas le faire depuis l’application. À partir de la version de bureau du site, le paramètre est enterré à l’intérieur de «Modifier le profil» et est livré avec une série d’interstitiels. (Pourquoi désactivez-vous? Trop distrayant? Ici, essayez de désactiver les notifications. Juste besoin d’une pause? Pensez à vous déconnecter.)

«Cela met des frictions sur la manière d’atteindre votre objectif, pour vous compliquer la tâche», déclare Nathalie Nahai, l’auteur de Webs of Influence: The Psychology of Online Persuasion. Il y a des années, quand Nahai a supprimé son compte Facebook, elle a trouvé un ensemble similaire de stratégies de manipulation. «Ils ont utilisé les relations et les connexions que j’avais pour dire: « Êtes-vous sûr de vouloir arrêter? Si vous partez, vous ne recevrez pas de mises à jour de cette personne », puis affichez les photos de certains de ses amis proches. «Ils utilisent ce langage qui est, dans mon esprit, de la coercition», dit-elle. « Ils rendent psychologiquement douloureux pour vous de partir. »

Une fois soumis à l’IA, notre cerveau s’expose alors à toutes sortes de manipulations, même bienveillantes, ce qui hérisse le poil du libéral individualiste Gaspard Koenig. Il redoute l’introduction à grande échelle de « nudges » dans les algorithmes. Gaspard Koenig s’est rendu au siège de la compagnie de Didi, le « Uber » chinois. Son interlocuteur lui apprend que la compagnie de VTC envisage la possibilité d’équiper ses chauffeurs de capteurs biométriques, en plus de l’application GPS de navigation. « Le chauffeur Didi ne sera plus qu’un tas de chair et de neurones hyperconnectés, à qui l’IA indiquera quel passager prendre à bord, quelle rue emprunter, quand faire une pause et où s’arrêter, écrit Gaspard Koenig. La décision humaine la plus primaire, celle d’aller pisser (sic), pourrait être déléguée à la machine. » Le « nudge » a gagné. Le chauffeur améliore ses conditions de travail, les clients perçoivent un service de meilleure qualité et Didi optimise ses courses.

IA contre IA

Alors comment contrecarrer les manipulations initiées par ces nudges numériques ?

Cette solution pourrait être appuyée par… l’intelligence artificielle. En effet, des algorithmes pourraient tester automatiquement les sites de vente en ligne pour détecter les nudges et encore plus les sludges. Un label issu de ces inspections automatiques, pourrait ainsi être crée. De bonne machines luttant contre les mauvaises ? Bien que manichéenne, cette idée rappelle que les machines ne font que ce pour quoi elles ont été conçues. A charge donc aux consommateurs d’utiliser les possibilités offertes par l’intelligence artificielle pour défendre leurs intérêts. 

CONCLUSION

Pour Richard Bordenave, directeur général du groupe BVA, ce sont les hommes qui conçoivent les algorithmes, par la sélection des données d’entraînement et le fait qu’elles sont en grande partie comportementales. Ce sont donc les biais humains contenus dans les données choisies et l’éthique des concepteurs qu’il faut interroger. Si la finalité de l’algorithme est d’aider l’utilisateur avec des recommandations pertinentes, et que son retour est positif, la boucle est vertueuse. Si l’algorithme est programmé pour réduire le choix, en fonction du profil de l’acheteur (et non ses goûts), ou pour ajuster le prix en fonction de son parcours précédent (au lieu d’un tarif applicable à tous), il contrevient à l’éthique du nudge (transparence, équité et liberté de choix).

L’IA peut influencer les comportements pour le meilleur et pour le pire. La réflexion éthique et la connaissance des facteurs humains (biais cognitifs, facteurs émotionnels ou sociaux…) à l’œuvre dans la vraie vie deviendront critiques pour les marques. Bordenave croit aux « IA gendarmes », pour contrer les « IA voleurs ». L’algorithme des uns pourra contrôler si les comportements mesurés par les autres sont réels, les emplacements fréquentables, les commentaires authentiques, etc.

Dans tous les cas, la dimension manipulatrice des nudges numériques soulève naturellement des questions éthiques. Selon un article paru dans le NY Times, l’entreprise Uber recourt à quantités de techniques analogues pour influer sur le comportement des chauffeurs. Une approche consiste à les alerter qu’ils sont tout près d’atteindre un objectif au moment où ils s’apprêtent à terminer leur journée, une autre leur envoie la prochaine opportunité de trajet avant qu’ils aient bouclé leur course – ces techniques n’ont d’autre but que de pousser les chauffeurs à travailler plus longtemps et à accepter des courses moins lucratives pour eux…

Ainsi, outre l’indispensable liberté laissée aux utilisateurs, clients ou collaborateurs, les nudges ne sauraient être décidés et élaborés sans une communication ouverte avec ceux auxquels ils sont administrés, à la fois pour qu’ils en soient conscients et, surtout, pour qu’ils puissent juger du bien-fondé de leur visée. 

La recherche montre que la plupart des gens ne savent même pas qu’ils sont manipulés. Mais selon une étude, lorsque les gens étaient familiarisés à l’avance avec le langage pour montrer à quoi ressemblait la manipulation, deux fois plus d’utilisateurs pouvaient identifier ces modèles sombres. Au moins, il y a un espoir qu’une plus grande prise de conscience puisse redonner aux utilisateurs une partie de leur contrôle. L’éducation au nudge (et donc aux sludges) est donc plus que nécessaire.

Il y a quatre leviers importants pour développer des systèmes intelligents et éthiques : éduquer sur l’éthique des machines, expliciter des règles éthiques, écrires des outils de vérification des règles éthiques, concernant la coévolution humain-machine et l’évaluation des machines ; et enfin établir des règles juridiques. 

Pour remettre un peu d’humain dans l’IA, et surtout lui redonner du sens, Gaspard Koenig imagine une règle supérieure d’ordre moral. Celle-ci est inspirée de la « Prime Directive » imaginée dans la série de science-fiction « Star Trek ». Nous définirions par avance les normes que nous souhaitons imposer aux algorithmes qui nous gouvernent même si celles-ci sont sous-optimales pour le groupe. 

«Nudge for Good», a coutume d’écrire Richard Thaler lorsqu’il dédicace son ouvrage…

REFERENCES

Nudging : Quand le paternalisme libertaire rencontre le numérique – rodolphe Koller

Nudge – Émotions, habitudes, comportements: comment inspirer les bonnes décisions, Richard Thaler et Cass Sunstein, Vuibert 2010 (édition française)

Digital Nudging: Altering User Behavior in Digital Environments, Tobias Mirsch, Christiane Lehrer et Reinhard Jung, University of St. Gallen, 2017

The Pervasive Power of the Digital Nudge, BCG Perspectives, 2017

Guide Your Customers To Better Experiences With Behavioral Science, Forrester, 2018

Positive technology, Designing work environments for digital well-being, Deloitte Insights, 2018

Simulation-Based Trial of Surgical-Crisis Checklists, The New England Journal of Medicine, 2013;

How Uber Uses Psychological Tricks to Push Its Drivers’ Buttons, New York Times, 02.04.2017

https://lejournal.cnrs.fr/billets/rire-avec-les-robots-pour-mieux-vivre-avec

https://dataia.eu/recherche/le-projet-bad-nudge-bad-robot

The Ethics and Applications of Nudges – Valerie D. Joly – Chock University of North Florida

https://www.ictjournal.ch/articles/2019-09-25/le-numerique-pour-ameliorer-lexperience-des-employes

https://www.ictjournal.ch/articles/2019-10-10/nudging-quand-le-paternalisme-libertaire-rencontre-le-numerique

https://www.lemonde.fr/blog/internetactu/2017/07/15/tout-est-il-nudgable-lincitation-comportementale-en-ses-limites/

https://fr.wikipedia.org/wiki/Th%C3%A9orie_du_Nudge

https://www.wired.com/story/facebook-social-media-privacy-dark-patterns/

L’UNION EUROPÉENNE ET LE NUDGING – Alberto ALEMANNO

https://www.wired.com/story/neuroscience-key-people-wear-masks/

https://www.medecinesciences.org/en/articles/medsci/full_html/2016/12/medsci20163212p1130/medsci20163212p1130.html

https://la-rem.eu/2019/04/nudge/

https://www.forbes.fr/technologie/nudges-et-intelligence-artificielle-unis-pour-le-meilleur-ou-pour-le-pire/

https://www.ilec.asso.fr/article_bulletin_ilec/11254

https://www.lesechos.fr/idees-debats/livres/intelligence-artificielle-peur-sur-le-moi-1131378https://managersante.com/2020/04/13/la-sante-par-le-nudge-decryptage-dune-technique-qui-nous-veut-du-bien-malgre-nous/