Christophe Moyen, Catherine Vidal
Novembre 2020
INTRODUCTION
Nous ne sommes pas aussi rationnels que nous le pensons. Alors que nous aimons penser que nos décisions sont le résultat de réflexion rationnelle, la vérité est que les choses dont nous ne sommes pas conscients influencent en fait notre décision tout le temps. Les progrès des sciences cognitives et comportementales révèlent que la façon dont sont présentées les différentes options, ce que l’on appelle «l’architecture de choix», influence nos décisions. Nous avons tendance à réagir différemment à une option particulière selon comment elle nous est présenté. Sur la base de ces données, Richard Thaler et Cass Sunstein ont développé la théorie du nudge (ou le coup de coude), qui expliquent que les décisions et les comportements des gens devraient être influencés de manière prévisible et non coercitive en apportant de petits changements à l’architecture de choix sur la base du « paternalisme libertarien ». Donc ces nudges peuvent nous influencer sur la bonne manière d’agir pour notre bien ou le bien commun en utilisant nos biais cognitifs et comportementaux. Or aujourd’hui, l’homme a inventé une « machine » capable de reproduire parfaitement nos biais, on pourrait même dire à notre insu, l’intelligence artificielle nourrie par toutes nos données. Ainsi l’association du nudge et de l’intelligence artificielle fera-t-elle « coup double » en nous permettant d’agir plus efficacement pour nous même ou notre environnement en exploitant au mieux nos biais ; ou au contraire cette association ne sera qu’un « coup fourré » qui permettra de mieux nous contrôler voire de nous manipuler en ayant de moins en moins de chance de s’en apercevoir ?
Définition du Nudge
Dans leur livre « Nudge: Improving Decisions About Health, Wealth, and Happiness », Richard Thaler et Cass Sunstein définissent le «coup de coude» comme «tout aspect de l’architecture de choix qui modifie le comportement des gens de manière prévisible sans interdire aucune option ou changer considérablement leurs incitations économiques. » En d’autres termes, un nudge est un changement de la façon dont les options sont présentées qui orientent les gens dans une certaine direction sans en interdire les autres options, tout en maintenant la liberté de choix des gens.
Suggestions, avertissements, les valeurs par défaut et les recommandations en sont tous des exemples.
Les amendes, les mandats, les menaces, les interdictions et les instructions directes ne le sont pas, car ils interdissent certaines options ou réduisent considérablement la liberté de choix.
Un nudge est analogue au fonctionnement d’un GPS. Le GPS suggère le meilleur itinéraire, mais il ne contraint pas les conducteurs à emprunter cette voie. Le GPS permet aux conducteurs d’aller dans une direction différente s’ils le souhaitent, mais les conducteurs finissent souvent par emprunter l’itinéraire suggéré. Le nudge est donc une méthode permettant d’influencer les décisions et les comportements des gens de manière non coercitive en apportant de petits changements à l’architecture de choix.
Un architecte de choix est une personne chargée de présenter les différentes options. Vendeurs, médecins, serveurs, concepteurs de sites Web et les professeurs ne sont que quelques exemples d’architectes de choix qui donnent un « coup de coude ». Leurs décisions sur la façon dont les options sont présentées à d’autres personnes affectent les décisions que les autres prennent. C’est étayé par des preuves issues des sciences cognitives et comportementales qui suggèrent que nous prenons généralement des décisions irrationnelles en raison d’erreurs systématiques dans notre façon de raisonner.
Le paternalisme libertaire
Le paternalisme libertaire est une vision du politique qui combine deux postulats. Elle est « paternaliste » en ce qu’elle repose sur l’idée qu’il est légitime d’influencer le comportement des gens pour les aider à vivre plus longtemps, mieux et en meilleure santé. Ces objectifs seraient implicitement partagés par chacun(e), tout en étant régulièrement contrecarrés par des erreurs de jugement et des biais psychologiques. Cette vision est « libertaire » en ce que la liberté de choix des personnes doit néanmoins ne jamais être limitée. En cela, les outils classiques de la réglementation et de la taxation sont, pour les tenants du paternalisme libertaire, à éviter.
Définition de l’IA
Commençons par la définition de l’algorithme, puisque nous le verrons, toute intelligence artificielle est un algorithme. Un algorithme est un ensemble d’opérations étape par étape autonome que les ordinateurs utilisent pour effectuer des taches de calcul, de traitement des données et de raisonnement automatisé. L’algorithme informatique détaille la manière dont un programme doit se comporter. Les algorithmes sont donc la base des technologies d’intelligence artificielle.
L’intelligence artificielle (IA) a pour objectif de permettre à des machines de prendre des décisions et de résoudre des problèmes. C’est l’ensemble des théories et des techniques mises en œuvre pour la réalisation de machines capables de simuler différents éléments de l’intelligence humaine. Deux techniques tiennent aujourd’hui le haut du panier. LeMachine Learning (ML) que l’on peut définir comment étant l’apprentissage automatique qui est un champ d’étude de l’IA qui décrit un processus systématique par lequel une machine apprend à partir d’exemples ; et le Deep Learning (DL) : qui est une déclinaison du Machine Learning directement lié aux réseaux de neurones artificiels.
Les biais heuristiques qui font l’efficacité du nudge
Les erreurs dans notre façon de raisonner résultent généralement d’heuristiques, qui sont des règles empiriques que les gens utilisent pour former des jugements et prendre des décisions. Heuristique, bien que parfois précise et utiles, conduisent souvent à des erreurs graves et systématiques, appelées «biais cognitifs», qui apparaissent lorsque les gens choisissent ce que l’heuristique suggère même si la suggestion est la mauvaise option. Ainsi, même lorsque nous prenons de «bonnes» décisions (en termes de résultats), ces décisions sont encore irrationnelles (dans un certain sens) lorsqu’elles sont le résultat de biais.
Les trois principaux biais heuristiques et cognitifs identifiés par Tversky et Kahneman dans leur recherche sont les suivants :
a) Représentativité
Les gens ont tendance à évaluer les probabilités en fonction du degré auquel A est représentatif de B. Autrement dit, à quel point A est similaire à B. Cette heuristique a lieu dans le stéréotypage. Pour Par exemple, nous pensons qu’un homme de 2m10 est plus susceptible d’être un joueur de basket-ball professionnel qu’un homme de 1 m 70 parce que la plupart des basketteurs professionnels mesurent plus de 2m. Dans ce cas, l’heuristique aboutit à un jugement précis, mais des biais se produisent lorsque la similarité et les fréquences divergent. Ceci est démontré dans une expérience de pensée sur une femme nommé Linda. Dans cette expérience de pensée, les sujets de cette expérience apprennent que Linda est une jeune femme célibataire, franche et brillante qui s’est spécialisée en philosophie. Linda est préoccupée par les problèmes de discrimination et elle participe à des manifestations de justice sociale. Après que ces descriptions ont été données aux sujets, ceux-ci sont invités à choisir s’ils pensent que Linda est: (i) une caissière de banque, ou (ii) une caissière de banque active dans un mouvement féministe. La majorité des gens ont tendance à choisir (ii) bien que ce soit une erreur logique. Dans ce cas, il est plus probable que Linda soit une caissière de banque qu’une caissière féministe parce que toutes les caissières féministes sont des caissières de banque.
Le biais cognitif qui résulte de l’heuristique de représentativité est enraciné dans le fait que les gens se fient aux similitudes et aux attentes pour choisir la description qui semble mieux assortir à Linda selon la description qu’on leur donne d’elle. Instinctivement, La description de Linda correspond à (ii) mieux que (i).
b) Disponibilité
Les gens ont tendance à évaluer la fréquence ou la probabilité d’un événement en fonction de la facilité avec laquelle un tel événement est rappelé. L’heuristique de disponibilité est étroitement lié aux biais d’accessibilité, d’évidence et de fraicheur. Les médias influencent grandement les informations qui sont à notre disposition. Par exemple, les gens ont tendance à croire que les homicides sont plus fréquents que les suicides étant donné que les informations sur les homicides sont plus accessibles (c’est-à-dire plus fréquemment rapporté dans les médias) et donc plus facilement rappelées. Cependant, plus de personnes meurent de suicide que d’homicide. Les expériences personnelles et les événements récents sont également largement plus disponibles pour nous, et plus facilement rappelés que les événements que l’on n’a pas vécu personnellement ou des événements vécus il y a longtemps. Prenons pour exemple les achats d’assurance contre les inondations. Quelqu’un qui n’a pas connu d’inondation dans le passé immédiat est beaucoup moins susceptible de souscrire ce genre assurance (même s’ils vivent dans des plaines inondables) que quelqu’un qui en a connu (ou connait quelqu’un qui en a vécu) un. C’est le cas même si la première personne vit sur une zone inondable et que la seconde vit dans une zone où il n’y a pas de risque d’inondation significatif.
c) Ajustement et ancrage
Afin de prendre des décisions ou de déterminer une inconnue, les gens ont tendance à s’appuyer fortement sur des valeurs initiales ou familières comme points de départ, appelées ancre, pour faire des estimations. Le biais qui résulte de cette heuristique se produit lorsque le référentiel de comparaison n’est pas une bonne similitude. Thaler et Sunstein donnent un exemple dans lequel deux groupes de personnes sont invités à deviner la population de la ville de Milwaukee. Un groupe est de Chicago et l’autre de Green Bay. Le premier groupe pense que c’est la plus grande ville du Wisconsin, mais il ne pense pas que ce soit aussi grand que Chicago, ce qui l’amène à dire que la population de Milwaukee est environ un tiers de la taille de celle de Chicago (environ un million). Le second groupe de Green Bay ne connaît pas non plus la réponse exacte, mais il sait que Green Bay est composé d’environ cent mille personnes. Il sait également que Milwaukee est plus grand que Green Bay, raison pour laquelle il pense que la population de Milwaukee est d’environ trois cent mille personnes. Dans ce cas, les personnes de Chicago ont fait une estimation trop élevée alors que ceux de Green Bay en ont fait une estimation trop faible (pour information, la population de Milwaukee est d’un peu moins six cent mille personnes). Cet exemple montre que différentes personnes choisissent arbitrairement différentes ancres pour la même question dont ils ne connaissent pas la réponse, et ces ancres produisent souvent des réponses très différentes.
Et au niveau neurobiologique ?
Au cœur des questions soulevées par le Nudge, se trouve la notion de prise de décision. De nombreux champs de recherche y sont consacrés : économie, sociologie, psychologie, sciences cognitives etc., sans oublier les débats philosophiques sur le libre arbitre (Damasio 2012, Dennett 1978, 1993, Lavazza 2019, Searle 1997).
Les neurosciences ne sont pas en reste avec l’émergence des nouvelles disciplines que sont la neuroéconomie et le neuromarketing. L’objectif est de comprendre comment les choix économiques sont déterminés par les états mentaux. Grace aux technologies d’imagerie cérébrale par IRM (imagerie par résonnance magnétique) il est possible de détecter les régions du cerveau activées quand on demande au sujet placé dans la machine de faire une tache cognitive impliquant une prise de décision dans un choix économique. Les taches les plus utilisées sont calquées sur des jeux d’argent, loterie, paris, avec perte et gains, fictifs ou en nature.
Toutes les études s’accordent pour montrer que des circuits impliqués dans la prise de décision sont situés dans le partie frontale du cerveau, à savoir dans le cortex préfrontal (CPF) dont le développement chez l’être humain a permis l’émergence des capacités cognitives les plus élaborées : pensée, raisonnement, planification, anticipation, conscience réflexive etc.
Dans les choix économiques, on peut observer l’activation de sous-régions du CPF qui sont mobilisées de façon variables selon les conditions de la tâche à effectuer : choix rationnels basés sur la perception d’indices, choix subjectifs en l’absence d’indices, choix orientés selon l’évaluation des probabilités de récompense, de prises de risque etc.
Une étude récente par IRM a recherché les effets du « Nudge social » sur des choix économiques (Chung 2015). La tache utilisée est un jeu de loterie avec différents niveaux de risques, faible ou fort. L’IRM montre l’activation de sous-régions du CPF, les unes impliquées dans la prise de risque objective, et les autres activées lors de préférences subjectives. Ces différentes régions sont interconnectés et s’activent simultanément mais à des degrés divers selon l’évaluation des prises de risque. Ces résultats ont été comparés à ceux d’un autre groupe de participants qui avaient été préalablement informés des choix et prises de risques d’autres joueurs fictifs dans cette tâche. Ce message a eu pour conséquence d’orienter les choix personnels de prise de risque en fonction des choix des autres. Cet effet était corrélé à des modulations de l’activité des régions du CPF.
Cette étude prend tout son intérêt dans le cadre de la recherche fondamentale sur le fonctionnement cognitif et ses corrélats neuronaux : interactions entre rationalité et subjectivité dans la prise de décision, plasticité des choix en fonction de l’environnement social. Ces résultats (et ceux d’autres études par IRM) viennent ainsi confirmer les nombreuses recherches en psychologie expérimentale et en économie comportementale sur la prise de décision (Damasio 2012, Dennett 1978, 1993, Lavazza 2019).
Mais qu’en faire pratiquement ? Certains peuvent en tirer argument pour chercher à développer des puces intracérébrales ou des casques de neurostimulation dans le but d’orienter les choix économiques. La réussite de ce scénario est peu probable. En effet, les régions du CPF mises en jeu dans la prise de décision ne sont pas uniquement dédiées à cette fonction.
Elles sont aussi impliquées dans d’autres processus cognitifs tout autant fondamentaux dans la vie psychique et les comportements. Dans l’état actuel de nos connaissances, le projet de cibler une fonction spécifique sans entraver le fonctionnement normal du cerveau n’est pas fondé scientifiquement (Vidal 2019).
Rappelons qu’en France, la loi de bioéthique (révision 2019/2020, http://www.assemblee-nationale.fr/15/ta/ta0343.asp) stipule dans l’article 12 que « les techniques d’imagerie cérébrale ne peuvent être employées qu’à des fins médicales ou de recherche scientifique, ou dans le cadre d’expertises judiciaires », ce qui exclut de fait l’expérimentation en neuromarketing (Vidal 2020). Cet article reprend les conclusions de l’avis 129 du CCNE considérant que l’IRM fonctionnelle n’est pas une technique fiable pour expliquer le comportement et déconseille son emploi dans les applications « sociétales » telles que le neuromarketing (www.ccne-ethique.fr).
Une autre préoccupation éthique est celle des effets à long terme du Nudge sur la structure et le fonctionnement du cerveau. Il a été montré que le guidage par GPS s’accompagne d’une réduction des capacités de mémoire spatiale et de représentation de l’espace, et ce proportionnellement à la fréquence d’usage du GPS (Dahmani 2020).
Des modifications des connexions entre les régions cérébrales impliquées dans l’orientation spatiale (hippocampe, cervelet) ont aussi été décrites (Fajnerova 2018). Ces effets observés chez les adultes pourraient avoir des conséquences néfastes sur le cerveau des enfants et adolescents en interférant avec les processus de développement en cours chez les jeunes.
Prise dans son ensemble, notre analyse de l’usage de plus en plus important de connaissances issues des sciences comportementales dans l’élaboration des politiques en Europe révèle un intérêt croissant des autorités de l’UE – et de certains États membres – pour cette approche.
C’est pour mieux t’accompagner mon enfant
Un exemple de nudge qui s’est avérée efficace sur les choix des gens de devenir donneurs d’organes, n’est qu’un simple changement de défaut d’option dans les formulaires de don d’organes. Une étude montre que lorsque les formulaires ont une option par défaut qui nécessite un consentement explicite (les gens doivent cocher une case s’ils veulent être donneurs), moins de 20% des personnes deviennent généralement des donneurs. Lorsque les formulaires ont une option de désactivation par défaut (les utilisateurs doivent cocher une case s’ils ne souhaitent pas être des donneurs) plus de 98% des personnes deviennent généralement des donneurs. Cette disparité est due à l’effet par défaut – tendance à s’en tenir à ce qui est présélectionné, indépendamment de ce que c’est.
L’utilisation de panneaux qui encouragent les clients d’un l’hôtel à réutiliser leurs serviettes et leurs draps est un exemple d’un petit coup de coude rentable qui apporte des avantages à tous. Ces panneaux affichent généralement ce genre de message : «Près de 75% des clients aident l’environnement en utilisant leurs serviettes plus d’une fois. Vous pouvez rejoindre vos compagnons de voyage et ainsi contribuez à préserver l’environnement en réutilisant les serviettes pendant votre séjour. » Pour un certain nombre de raisons possibles allant du pouvoir fondamental des normes sociales qui amènent les gens à suivre la majorité, la pression des pairs, beaucoup de gens finissent par réutiliser leurs serviettes. Inciter les clients de l’hôtel à réutiliser leurs serviettes et leurs draps est surtout bénéfique pour les architectes de choix (hôtels) car cela réduit leurs coûts liés à l’utilisation d’électricité, d’eau et de savon, ainsi qu’au travail de réapprovisionnement et de lavage des serviettes. Moins de lavage se traduit également par une réduction des coûts de remplacement étant donné que l’usure des serviettes et des draps est réduite, ce qui prolonge leur durée de vie. L’American Hotel and Lodging Association estime que ce simple nudge réduit le nombre de nettoyage de linge – ainsi que les coûts connexes – de 17%.
L’une des illustrations les plus connues de Thaler remonte au début des années 1990 à l’aéroport de Schiphol à Amsterdam. Comme les planchers des toilettes pour homme devenaient trop collants, le responsable du nettoyage a mis en place un coup de coude pour essayer de réduire les «déversements» autour des urinoirs. Ce nudge a pris la forme d’une image de mouche placée dans chaque urinoir. L’idée avait pour but de donner aux hommes quelque chose à viser. Le résultat en a été une réduction de 80% des déversements et une réduction du nettoyage de 20% en moyenne, ce qui se traduit par une réduction de 8% les frais de nettoyage des toilettes de l’aéroport.
Aujourd’hui grâce à l’utilisation de l’intelligence artificielle, tant Microsoft que Google proposent par exemple des outils pour inciter les employés à se réserver des plages libres dans leur calendrier. Microsoft incite les utilisateurs via la fonctionnalité MyAnalytics d’Office365, a se garder des plages libres pour travailler lorsque l’on a déjà accepté beaucoup de réunion ou à transférer une nouvelle réunion à un collaborateur, mais aussi à limiter l’envoi de mail après les horaires de bureau et de rappeler les mails important non lus. Alors que Google (via Gmail) propose des outils qui remontent les mails importants non répondus en haut de la boite de réception. Il permet également le rappel des mails importants restés sans réponse depuis 3 jours.
On le voit ici, l’utilisation combinée de nudge et d’intelligence artificielle est une autre manière de pousser doucement les collaborateurs à faire le meilleur choix pour eux, puisqu’ils peuvent décider premièrement d’activer ou non ces options, puis ensuite de suivre ou pas ces recommandations. L’utilisation de l’intelligence artificielle permet ici de rendre possible de tel nudge autrement plus complexe à mettre en œuvre par d’autres méthodes numériques plus traditionnelles.
Les affinités entre le nudge et le numérique
Le numérique est à l’évidence un environnement rêvé pour le nudge. En premier lieu, nous prenons aujourd’hui beaucoup de décisions sur nos écrans au moyen d’interfaces numériques. Lorsque nous faisons des achats en ligne, contactons un service client ou comparons des offres de crédit, lorsque nous envoyons un message à des collègues ou saisissons des informations dans un logiciel professionnel, lorsque nous réagissons à un post sur un réseau social, à chaque fois nous opérons des choix. Et nous le faisons parmi des options qui nous sont présentées d’une certaine manière par les architectes (de choix) de ces interfaces. Auteurs d’un papier sur le sujet, des chercheurs de l’Université de Saint-Gall estiment que le nudge peut enrichir le travail des designers d’interfaces et les aider à concevoir des systèmes aidant les utilisateurs à faire les choix les plus bénéfiques pour eux, en exploitant ou en contrant des effets psychologiques spécifiques.
Deux autres atouts du numérique sont soulignés pour l’implémentation de nudge. D’abord, il est facile de créer des nudges à grande échelle: il est plus aisé et meilleur marché de créer une notification ou de modifier une option par défaut sur un site web pour tous les utilisateurs que de dessiner une mouche dans les urinoirs de tous les aéroports du monde. Autre avantage, le numérique permet de tester différentes variantes pour en tirer des enseignements et déterminer le nudge le plus efficace. Là aussi, il est plus simple de faire du A/B testing dans une application que d’expérimenter différentes dispositions des plats dans un self-service. Enfin, les nudges numériques peuvent être personnalisés et envoyés au moment et dans le contexte le plus opportun.
Le pouvoir des Nudges va être amplifié, grâce au numérique et à l’intelligence artificielle, à travers des objets qui vont détecter nos habitudes et comportements, et nous influencer, nous inciter à consommer… Une voix d’enceinte connectée (Alexa d’Amazon par exemple) pourrait nous inciter à faire plus de sport, à manger moins, à être plus attentif, à acheter une crème antirides ou à voter pour untel. Le nudge est souvent mis en œuvre pour surveiller notre santé et pour notre bien-être, il pourrait tout autant être une stratégie d’insistance à des fins uniquement mercantiles ou de manipulation de masse.
C’est pour mieux te manipuler mon enfant
En intégrant des connaissances de l’économie comportementale, les entreprises et les designers peuvent concevoir des architectures de choix et des coups de coude pensés sciemment pour inciter les utilisateurs à prendre les meilleures décisions, c’est l’idée du digital nudge.
Mais les manipulations sont faciles et il arrive qu’une prise en charge de l’expérience de l’employé peut ressembler davantage à de la surveillance. Récemment, Amazon a créé la polémique après avoir déposé un brevet pour un bracelet capable de suivre la position de la main des employés de ses entrepôts pour les avertir lorsqu’ils mettent un article dans le mauvais casier. Si l’intention du géant de l’e-commerce semble respectable – «éviter que les manutentionnaires ne se trompent de casier et aient à tenir un scanner à la main» – un tel suivi est de nature à générer de la méfiance, sans parler des dérives possibles. L’employé peut toujours refuser de suivre les recommandations du bracelet, donc on peut encore parler de nudge.
Autre exemple, la société Cogito a développé un outil de coaching intelligent qui analyse le contenu et la façon de parler des employés des centres d’appel. Une fois la conversation terminée, l’outil affiche des recommandations à l’écran de l’agent lui suggérant de parler plus lentement, de poser des questions ouvertes ou de montrer plus d’empathie… Là encore les employés ont toujours le choix de suivre ou non les recommandations de l’outil en toute connaissance de cause. L’outil informatique fait en quelque sorte office de manager… Manager qui saura si l’employé aura suivi les dites recommandations, ce qui peut facilement s’apparenter à une forme de pression.
Les pratiques non respectables sont particulièrement répandues sur les réseaux sociaux, où la gestion de notre vie privée est, à certains égards, plus déroutante que jamais. Facebook a permis par exemple aux utilisateurs de se retirer des sites Web partenaires de Facebook pour collecter et enregistrer leurs informations Facebook accessibles au public. Quiconque a refusé cette «personnalisation» a vu un pop-up demandant: «Êtes-vous sûr ? Permettre une personnalisation instantanée vous offrira une expérience plus riche lorsque vous naviguez sur le Web. » Jusqu’à récemment, Facebook a également mis en garde les gens contre la désactivation de ses fonctionnalités de reconnaissance faciale : «Si vous désactivez la reconnaissance faciale, nous ne pourrons pas utiliser cette technologie si un étranger utilise votre photo pour usurper votre identité.» Le bouton pour activer le réglage est lumineux et bleu; le bouton pour l’éteindre est un gris moins accrocheur.
Les chercheurs appellent ces décisions de conception et de formulation des «modèles sombres», un terme appliqué à l’expérience utilisateur qui tente de manipuler vos choix. Quand Instagram vous demande à plusieurs reprises «d’activer les notifications» et ne propose pas d’option pour refuser? C’est un motif sombre. Lorsque LinkedIn vous montre une partie d’un message InMail dans votre e-mail, mais vous oblige à visiter la plateforme pour en savoir plus, il s’agit là aussi d’un motif sombre. Quand Facebook vous redirige pour vous «déconnecter» lorsque vous essayez de désactiver ou de supprimer votre compte. C’est aussi un motif sombre. Ce genre de nudge est communément appelé « sludge ».
Des motifs sombres apparaissent partout sur le Web, incitant les gens à s’abonner à des newsletters, à ajouter des éléments à leur panier ou à s’inscrire à des services. Mais, dit Colin Gray, chercheur en interaction homme-machine à l’Université Purdue, ils sont particulièrement insidieux «lorsque vous décidez des droits à la confidentialité à céder, des données dont vous êtes prêt à vous séparer. Gray étudie les motifs sombres depuis 2015. Lui et son équipe de recherche ont identifié cinq types de base: harceler, obstruction, furtivité, interférence d’interface et action forcée. Tous ces éléments apparaissent dans les contrôles de confidentialité. Lui et d’autres chercheurs dans le domaine ont remarqué la dissonance cognitive entre les grandes ouvertures de la Silicon Valley vers la confidentialité et les outils pour moduler ces choix, qui restent remplis de langage déroutant, de conception manipulatrice, et d’autres fonctionnalités conçues pour récupérer plus de données.
Ces jeux de protection de la vie privée ne sont pas limités aux médias sociaux. Ils sont devenus endémiques au Web en général, en particulier à la suite du règlement général européen sur la protection des données . Depuis l’entrée en vigueur du RGPD en 2018, les sites Web sont tenus de demander aux gens le consentement pour collecter certains types de données. Mais certaines bannières de consentement vous demandent simplement d’accepter les politiques de confidentialité, sans possibilité de dire non. «Certaines recherches ont suggéré que plus de 70% des bannières de consentement dans l’UE comportent une sorte de motif sombre intégré», déclare Gray. «C’est problématique lorsque vous cédez des droits substantiels.»
Récemment, des sites comme Facebook et Twitter ont commencé à donner à leurs utilisateurs un contrôle plus précis de leur vie privée sur le site Web. La vérification de la confidentialité récemment déployée par Facebook, par exemple, vous guide à travers une série de choix avec des illustrations aux couleurs vives. Mais Gray note que les valeurs par défaut sont souvent définies avec moins de confidentialité à l’esprit, et les nombreuses cases à cocher peuvent avoir pour effet de submerger les utilisateurs. «Si vous avez une centaine de cases à cocher, qui va le faire», dit-il.
Les schémas les plus sombres de tous surviennent lorsque les gens essaient de quitter ces plates-formes. Essayez de désactiver votre compte Instagram et vous constaterez que c’est extrêmement difficile. Tout d’abord, vous ne pouvez même pas le faire depuis l’application. À partir de la version de bureau du site, le paramètre est enterré à l’intérieur de «Modifier le profil» et est livré avec une série d’interstitiels. (Pourquoi désactivez-vous? Trop distrayant? Ici, essayez de désactiver les notifications. Juste besoin d’une pause? Pensez à vous déconnecter.)
«Cela met des frictions sur la manière d’atteindre votre objectif, pour vous compliquer la tâche», déclare Nathalie Nahai, l’auteur de Webs of Influence: The Psychology of Online Persuasion. Il y a des années, quand Nahai a supprimé son compte Facebook, elle a trouvé un ensemble similaire de stratégies de manipulation. «Ils ont utilisé les relations et les connexions que j’avais pour dire: « Êtes-vous sûr de vouloir arrêter? Si vous partez, vous ne recevrez pas de mises à jour de cette personne », puis affichez les photos de certains de ses amis proches. «Ils utilisent ce langage qui est, dans mon esprit, de la coercition», dit-elle. « Ils rendent psychologiquement douloureux pour vous de partir. »
Une fois soumis à l’IA, notre cerveau s’expose alors à toutes sortes de manipulations, même bienveillantes, ce qui hérisse le poil du libéral individualiste Gaspard Koenig. Il redoute l’introduction à grande échelle de « nudges » dans les algorithmes. Gaspard Koenig s’est rendu au siège de la compagnie de Didi, le « Uber » chinois. Son interlocuteur lui apprend que la compagnie de VTC envisage la possibilité d’équiper ses chauffeurs de capteurs biométriques, en plus de l’application GPS de navigation. « Le chauffeur Didi ne sera plus qu’un tas de chair et de neurones hyperconnectés, à qui l’IA indiquera quel passager prendre à bord, quelle rue emprunter, quand faire une pause et où s’arrêter, écrit Gaspard Koenig. La décision humaine la plus primaire, celle d’aller pisser (sic), pourrait être déléguée à la machine. » Le « nudge » a gagné. Le chauffeur améliore ses conditions de travail, les clients perçoivent un service de meilleure qualité et Didi optimise ses courses.
IA contre IA
Alors comment contrecarrer les manipulations initiées par ces nudges numériques ?
Cette solution pourrait être appuyée par… l’intelligence artificielle. En effet, des algorithmes pourraient tester automatiquement les sites de vente en ligne pour détecter les nudges et encore plus les sludges. Un label issu de ces inspections automatiques, pourrait ainsi être crée. De bonne machines luttant contre les mauvaises ? Bien que manichéenne, cette idée rappelle que les machines ne font que ce pour quoi elles ont été conçues. A charge donc aux consommateurs d’utiliser les possibilités offertes par l’intelligence artificielle pour défendre leurs intérêts.
CONCLUSION
Pour Richard Bordenave, directeur général du groupe BVA, ce sont les hommes qui conçoivent les algorithmes, par la sélection des données d’entraînement et le fait qu’elles sont en grande partie comportementales. Ce sont donc les biais humains contenus dans les données choisies et l’éthique des concepteurs qu’il faut interroger. Si la finalité de l’algorithme est d’aider l’utilisateur avec des recommandations pertinentes, et que son retour est positif, la boucle est vertueuse. Si l’algorithme est programmé pour réduire le choix, en fonction du profil de l’acheteur (et non ses goûts), ou pour ajuster le prix en fonction de son parcours précédent (au lieu d’un tarif applicable à tous), il contrevient à l’éthique du nudge (transparence, équité et liberté de choix).
L’IA peut influencer les comportements pour le meilleur et pour le pire. La réflexion éthique et la connaissance des facteurs humains (biais cognitifs, facteurs émotionnels ou sociaux…) à l’œuvre dans la vraie vie deviendront critiques pour les marques. Bordenave croit aux « IA gendarmes », pour contrer les « IA voleurs ». L’algorithme des uns pourra contrôler si les comportements mesurés par les autres sont réels, les emplacements fréquentables, les commentaires authentiques, etc.
Dans tous les cas, la dimension manipulatrice des nudges numériques soulève naturellement des questions éthiques. Selon un article paru dans le NY Times, l’entreprise Uber recourt à quantités de techniques analogues pour influer sur le comportement des chauffeurs. Une approche consiste à les alerter qu’ils sont tout près d’atteindre un objectif au moment où ils s’apprêtent à terminer leur journée, une autre leur envoie la prochaine opportunité de trajet avant qu’ils aient bouclé leur course – ces techniques n’ont d’autre but que de pousser les chauffeurs à travailler plus longtemps et à accepter des courses moins lucratives pour eux…
Ainsi, outre l’indispensable liberté laissée aux utilisateurs, clients ou collaborateurs, les nudges ne sauraient être décidés et élaborés sans une communication ouverte avec ceux auxquels ils sont administrés, à la fois pour qu’ils en soient conscients et, surtout, pour qu’ils puissent juger du bien-fondé de leur visée.
La recherche montre que la plupart des gens ne savent même pas qu’ils sont manipulés. Mais selon une étude, lorsque les gens étaient familiarisés à l’avance avec le langage pour montrer à quoi ressemblait la manipulation, deux fois plus d’utilisateurs pouvaient identifier ces modèles sombres. Au moins, il y a un espoir qu’une plus grande prise de conscience puisse redonner aux utilisateurs une partie de leur contrôle. L’éducation au nudge (et donc aux sludges) est donc plus que nécessaire.
Il y a quatre leviers importants pour développer des systèmes intelligents et éthiques : éduquer sur l’éthique des machines, expliciter des règles éthiques, écrires des outils de vérification des règles éthiques, concernant la coévolution humain-machine et l’évaluation des machines ; et enfin établir des règles juridiques.
Pour remettre un peu d’humain dans l’IA, et surtout lui redonner du sens, Gaspard Koenig imagine une règle supérieure d’ordre moral. Celle-ci est inspirée de la « Prime Directive » imaginée dans la série de science-fiction « Star Trek ». Nous définirions par avance les normes que nous souhaitons imposer aux algorithmes qui nous gouvernent même si celles-ci sont sous-optimales pour le groupe.
«Nudge for Good», a coutume d’écrire Richard Thaler lorsqu’il dédicace son ouvrage…
REFERENCES
Nudging : Quand le paternalisme libertaire rencontre le numérique – rodolphe Koller
Nudge – Émotions, habitudes, comportements: comment inspirer les bonnes décisions, Richard Thaler et Cass Sunstein, Vuibert 2010 (édition française)
Digital Nudging: Altering User Behavior in Digital Environments, Tobias Mirsch, Christiane Lehrer et Reinhard Jung, University of St. Gallen, 2017
The Pervasive Power of the Digital Nudge, BCG Perspectives, 2017
Guide Your Customers To Better Experiences With Behavioral Science, Forrester, 2018
Positive technology, Designing work environments for digital well-being, Deloitte Insights, 2018
Simulation-Based Trial of Surgical-Crisis Checklists, The New England Journal of Medicine, 2013;
How Uber Uses Psychological Tricks to Push Its Drivers’ Buttons, New York Times, 02.04.2017
https://lejournal.cnrs.fr/billets/rire-avec-les-robots-pour-mieux-vivre-avec
https://dataia.eu/recherche/le-projet-bad-nudge-bad-robot
The Ethics and Applications of Nudges – Valerie D. Joly – Chock University of North Florida
https://www.ictjournal.ch/articles/2019-09-25/le-numerique-pour-ameliorer-lexperience-des-employes
https://fr.wikipedia.org/wiki/Th%C3%A9orie_du_Nudge
https://www.wired.com/story/facebook-social-media-privacy-dark-patterns/
L’UNION EUROPÉENNE ET LE NUDGING – Alberto ALEMANNO
https://www.wired.com/story/neuroscience-key-people-wear-masks/
https://la-rem.eu/2019/04/nudge/
https://www.ilec.asso.fr/article_bulletin_ilec/11254
https://www.lesechos.fr/idees-debats/livres/intelligence-artificielle-peur-sur-le-moi-1131378https://managersante.com/2020/04/13/la-sante-par-le-nudge-decryptage-dune-technique-qui-nous-veut-du-bien-malgre-nous/