logo

Facteurs à l’oeuvre dans nos prises de décisions et celles des élèves : connaître les « biais cognitifs » qui nous induisent en erreur afin de les éviter et de faire des choix raisonnables et éclairés.

Article rédigé par Florent Bersani et Camille Benoit.

« To teach how to live without certainty, and yet without being paralyzed by hesitation. »

Bertrand Russell

« Un homme doit choisir. En cela réside sa force : le pouvoir de ses décisions. »

Paulo Coelho

 

Dans une de ses publicités pour son produit “To-do”, Microsoft a contribué à populariser 35,000 comme estimation du nombre de décisions que nous prenons chaque jour.

Sans entrer dans le débat de ce qui compte comme une décision ni de la justesse de cette estimation, nous pouvons toutefois relever comme estimation basse 70 qui est celle que la professeur de psychologie de l’université de Columbia Sheena Iyengar mentionne comme le nombre de choix qu’un américain moyen déclare effectuer par jour.

Dans le monde de l’éducation, le nombre de décisions par heure d’enseignement interactif que doivent prendre les professeurs est encore plus conséquent. Il varie de 42 d’après Hilda Borko, professeur à l’université de Stanford et ses co-auteurs dans leur article “Teachers’ Thinking About Instruction” publiée en 1990 dans la revue Remedial and Special Education, à 200 voire 300, d’après Philip Jackson, de l’université de Chicago dans son livre “Life in Classrooms” publié également en 1990.

Quoi qu’il en soit, le nombre de décisions prises par jour tant par les professeurs que par les écoliers dans le cadre des études est tout simplement considérable et celles-ci ont souvent un impact important sur leur apprentissage immédiat et leur orientation à plus long terme.

Mais qu’est-ce qu’un bonne décision et comment la prend-on ?

Daniel Kahneman est un psychologue cognitif et économiste célèbre pour ses travaux sur la prise de décision et la théorie des perspective. Il a remporté le prix Nobel d’économie en 2002 et publié un best-seller en 2011 “Système 1 & Système 2 : Les deux vitesses de la pensée”. En 2017, il a été rejoint par Richard Thaler au panthéon des lauréats du Nobel récompensés pour leur contribution à la compréhension de la psychologie de l’économie. Richard Thaler s’est lui aussi adressé au grand-public avec son livre “Nudge. Émotions, habitudes, comportements : comment inspirer les bonnes décisions” publié en 2010.

Leurs travaux à tous les deux ont malheureusement démontré que, lorsque nous prenons des décisions, nous tombons fréquemment dans des pièges. Fort de leurs observations, ils ont donné naissance à une nouvelle science de la prise de décision qui vise à décrire ces pièges dans lesquels nous sommes pris malgré nous. 

Ces travaux éclairent certaines difficultés rencontrées par les élèves dans les apprentissages.  Ils ont notamment été repris par Olivier Houdé du Laboratoire de Psychologie du Développement et de l‘Éducation de l’enfant dans ses travaux sur l’importance de l’inhibition dans les apprentissages.  L’inhibition de certains biais cognitifs (facteurs inconscients qui entravent notre jugement et nos prises de décisions) est essentielle pour éviter certaines erreurs (fautes d’étourderie, de précipitation etc.).

Nous allons tenter dans cet article de vous sensibiliser à ces biais et à ces tours que nous jouent notre cerveau.

Nous sommes victimes d’illusions visuelles et cognitives :

Si nous avons tous fait l’expérience d’illusions d’optiques amusantes, comme celle de Müller-Lyer ci-dessus dans laquelle les segments rouge et bleu ont exactement la même longueur, c’est parce que notre appareil visuel a des capacités limitées. Notre cerveau ne peut ni ne cherche à traiter avec exactitude et précision l’ensemble des informations de notre environnement. Il vise simplement à nous en restituer une représentation mentale approximative, suffisante pour nous permettre une navigation efficace.

Par analogie, il en va de même de nos capacités décisionnelles. Herbert Simon, économiste, sociologue et psychologue cognitif qui obtint le prix Nobel d’économie 1978, avait déjà introduit la théorie de la rationalité limitée. Cette théorie postule que notre comportement décisionnel ne fait qu’approximer l’optimum car nous n’avons pas les ressources cognitives pour utiliser toute l’information disponible. Kahneman et Thaler vont plus loin en démontrant l’existence d’illusions cognitives qui ne sont pas dues à une simple surcharge informationnelle.

La prise de conscience de ces illusions nous permet de les déjouer en nous apprenant comment bien choisir.  Elle nous sensibilise à ce à quoi nous devons être attentif, et les tendances ou automatismes que nous devons inhiber afin d’éviter de tomber dans ces pièges.

Une définition théorique de la “bonne vue cognitive” :

Dans leur livre sur la théorie du choix rationnel publié en 2001, les psychologues américains Hastie et Dawes nous rappellent que la qualité d’une décision ne peut pas être simplement déterminée par les résultats qu’elle entraîne. Ces résultats peuvent en effet dépendre plus ou moins fortement du hasard et de la chance. C’est l’estimation, au moment où la décision est prise, des résultats possibles et de leurs probabilités qui permet de juger de la qualité ce cette dernière.

Un choix est donc dit rationnel s’il satisfait à quatre critères :

  1. Il utilise uniquement les ressources disponibles au moment de la prise de décision, qu’elles soient matérielles, physiologiques, psychologiques ou sociales. Ainsi un élève qui aurait choisi de ne réviser qu’une petite partie du programme de son interrogation de mathématiques en faisant de vastes impasses ne devrait pas prétendre avoir fait un bon choix s’il tombe par chance précisément sur cette partie à l’examen.
  2. Il repose sur l’évaluation de ses conséquences possibles. Pour continuer notre exemple des impasses ci-dessus, si la conséquence d’une mauvaise note à cette interrogation est le redoublement ou l’impossibilité d’être orienté vers la filière préférée, le choix de faire des impasses est d’autant plus dur à motiver.
  3. Quand ses conséquences sont incertaines, il repose sur l’estimation de leurs probabilités. Sans souscrire à la pratique des impasses, il est en revanche utile de savoir allouer ses ressources – temps et fraîcheur mentale – entre les différentes matières à réviser. Si cinq heures de travail en français peuvent permettre d’améliorer la note de 2 points coefficient 1 avec une chance sur deux tandis que le même volume de travail en mathématiques permettrait d’obtenir 3 points supplémentaires coefficient 5 avec 2 chances sur 3, ces probabilités sont bien un guide rationnel précieux.
  4. Il optimise la satisfaction espérée en fonction des évaluations précédentes. Ce critère paraît trivial puisqu’il affirme simplement qu’un choix est rationnel quand l’option retenue est bien la meilleure après évaluation aux étapes précédentes des conséquences probabilisées des différentes alternatives. Mais n’oublions pas que ce critère est bien cruciale : il ne suffit pas d’avoir déterminé quel serait le bon choix, encore faut-il effectivement faire celui-ci. Ainsi, si après réflexion un élève conclut qu’il devrait faire un effort particulier dans une matière qu’il apprécie moins parce que c’est là où il a le plus de marge de progression et que cette progression a le plus d’impact positif sur sa situation scolaire, mais qu’en pratique il ne produit pas l’effort sur cette matière mais se complaît dans un autre domaine moins important dans lequel il a déjà un très bon niveau, son choix n’est pas rationnel.

 

Mais cette définition d’un choix rationnel ne fait que marquer le début de nos aventures dans la science de la prise de décision et sa pratique.

L’utilité espérée :

Considérez par exemple le choix entre les deux jeux suivants :

      1. Gagner 45€ avec 2 chances sur 10, et rien sinon.
      2. Gagner 30€ avec 2,5 chances sur 10 et rien sinon.

Majoritairement, nous préférons le jeu A qui nous rapporte 9€ en moyenne (45 x 2 / 10) alors que le jeu B ne nous rapporte que 7,50€ (30 x 2,5 / 10) en moyenne.

Considérez maintenant le choix entre les deux jeux suivants :

      1. Gagner 45€ avec 8 chances sur 10, et rien sinon
      2. Gagner 30€ à coup sûr

Majoritairement nous semblons préférer le jeu B qui nous rapporte 30€ en moyenne alors que le jeu A nous rapporte 36€ en moyenne.

Il est tout à fait possible de développer une théorie qui explique ce phénomène – et c’est d’ailleurs ce qu’avait commencé à faire Daniel Bernoulli au milieu du XVIIIe siècle et qu’ont parachevé Morgenstern et von Neumann deux cents ans plus tard avec la théorie de l’utilité espérée.

Avant de présenter très sommairement en quoi cette théorie de l’utilité espérée consiste, revenons un instant sur la chronologie du développement de la théorie mathématique de la prise de décision, qui est étroitement liée à celle des probabilités.  Nous nous excusons d’emblée pour ce passage technique mais que nous éclairerons avec des exemples concrets afin de le rendre plus accessible.

Une brève histoire de l’utilité :

« Probability is the most important concept in modern science, especially as nobody has the slightest notion what it means. »

Bertrand Russell

Les concepts centraux des probabilités, hasard et aléa, seraient tous deux nés étymologiquement des jeux de dés*, l’un arabe et l’autre latin. Ils permettent de désigner la survenance incertaine d’événements apparemment détachés de toute cause identifiable. Ils évoquent la chance ou la faveur capricieuse des dieux plus que « les rapports nécessaires qui dérivent de la nature des choses », pour reprendre la définition que Montesquieu fait d’une loi, comme nous le rappelle René Passet dans « Les trois figures du hasard en économie ». Soumis à l’incertain, ils semblaient défier toute ambition de rigueur scientifique.

* La phrase de Jules César rapportées par Suétone lors de la traversée du Rubicon vers 50 av J.C. “alea jacta est” (le dé est jeté) est passée à la postérité.

C’est donc une réelle avancée que constitue la publication du livre De ratiociniis in ludo aleae (De la logique du jeu de dés) en 1638 par le Hollandais Christian Huygens. Dans son livre, il développe les premières bases de la théorie des probabilités et définit le concept de moyenne, qui nous paraît si intuitif désormais. Pour comparer deux jeux, Huygens recommande de choisir celui dont le gain est le plus élevé en moyenne. Un élève appliquant cette théorie à ses choix commencera donc à réfléchir en termes de probabilités et de conséquences.

Mais cette théorie naissante des probabilités se heurte à un certains nombre d’écueils, comme le paradoxe de Saint-Pétersbourg. Ce paradoxe vient du jeu dans lequel un joueur lance une pièce tant qu’il n’a pas tiré pile.  Le gain est d’un euro, doublé à chaque fois qu’il tire face (1 au premier tirage, 2 au second, 4 au troisième etc.) : soit 2n euros où n est les nombre de fois qu’il a lancé la pièce avant ce tirage. Ainsi, si le joueur tire pile au premier tirage, il touche un euro mais s’il attend le troisième lancer pour obtenir pile, il touchera 4 euros. La question est de savoir, combien vous seriez-prêts à payer pour jouer à un tel jeu. Le problème est que l’espérance de gain de ce jeu est infinie donc tout joueur rationnel, selon la théorie de Huygens, devrait être prêt à payer jusqu’à la totalité de ses biens pour pouvoir y jouer… mais cela n’est heureusement pas le cas en pratique. Pourquoi ?

Parce que la plupart d’entre nous sommes averses au risque en général, et au risque financier en particulier. C’est-à-dire que nous n’accordons pas la même importance à un gain qu’à une perte. Miser la totalités de nos biens pour la très hypothétique probabilité de gagner une fortune si nous réussissons à lancer pile très tardivement ne nous paraît intuitivement pas raisonnable. Pour formaliser cette intuition, le mathématicien suisse d’origine hollandaise Daniel Bernoulli propose dans son livre « Specimen theoriae novae de mensura sortis (Esquisse d’une théorie nouvelle de mesure du sort) » publié en 1738 une nouvelle théorie, celle de l’espérance morale. Pour calculer la moyenne de nos pertes et gains, Bernoulli propose d’appliquer à ces derniers une fonction particulière avant de les multiplier par leur probabilité puis de les sommer. La fonction d’utilité particulière qu’il retient est le logarithme et il passe donc de E à E* comme critère de choix.

Avec ce cadre d’analyse, il est possible de rendre asymétrique la faillite et la fortune. Un élève qui appliquerait cette théorie à ses choix procéderait donc à une évaluation risque-averse particulière avec la fonction logarithme de leurs conséquences.

John von Neumann et Oskar Morgenstern dans leur livre « Theory of Games and Economic Behavior » publié en 1944 vont un cran plus loin et proposent un cadre axiomatique complet, pour lequel le logarithme n’est qu’une des fonctions d’utilité possible. Ils établissent dans toute sa généralité, la théorie de l’utilité espérée. Pour calculer la moyenne de nos pertes et gains, von Neumann et Morgenstern proposent d’appliquer à ces derniers une fonction générale U qu’il nous incombe de définir, avant de les multiplier par leur probabilité puis de les sommer. La fonction d’utilité U n’est plus nécessairement le logarithme et nous passons donc de E* à Ê comme critère de choix.

Cette fonction d’utilité U peut être :

  • Linéaire, ce qui nous ramène à la théorie de Huygens
  • Concave, comme le logarithme de la théorie de Bernoulli 
  • Convexe, dans le cas d’un individu qui préfère le risque

 

Un élève utilisant cette théorie peut donc également faire rationnellement des choix qui favorisent la prise de risque.

Revenons à notre exemple :

      1. Gagner 45€ avec 8 chances sur 10, et rien sinon
      2. Gagner 30€ à coup sûr

L’espérance du gain comme critère de choix attribue 36€ au jeu A. et 30€ au jeu B mais si nous prenons la fonction racine carrée comme fonction d’utilité alors le jeu A. vaut 5.37 ce qui est moins que le jeu B qui vaut lui 5.48. L’utilisation de la fonction d’utilité nous a permis de refléter mathématiquement, qu’un individu peut avoir plus peur de perdre 100€ qu’il n’a envie de gagner 100€.

Mais il subsiste malgré l’introduction de cette fonction d’utilité des déviations systématiques dans nos choix que la théorie de l’utilité espérée ne parvient pas à expliquer.

Le paradoxe d’Allais

C’est par exemple le cas du paradoxe d’Allais (prix Nobel d’économie 1988).

Considérez par exemple les deux jeux suivants :

      1. Gagner 1 million d’euros à coup sûr
      2. Gagner 2,5 millions d’euros avec 10 chances sur 100, 1 million d’euros avec 89 chances sur 100 et rien avec 1 chance sur 100

Le choix du jeu A semble ultra-majoritaire.

Mais si l’on considère les deux jeux suivants, nous devrions continuer à préférer le jeu A, ce qui est loin d’être le cas :

      1. Gagner 1 million d’euros avec 11 chances sur 100
      2. Gagner 2,5 millions d’euros avec 10 chances sur 100

En effet, si nous notons U(X€) l’utilité que nous attribuons à recevoir X€, notre préférence du jeu A au jeu B dans le premier choix, se traduit par l’inégalité suivante :

U(1) ≥ 0,10 x U(2,5) + 0,89 x U(1) + 0,01 x U(0)

Nous pouvons sans perte de généralité fixer U(2,5)=1 et U(0)=0 ce qui nous donne donc (1-0,89) x U(1) ≥ 0,10 soit encore :

0,11 x U(1) ≥ 0,10

Si l’on considère alors le deuxième couple de jeux A et B:

      • L’utilité du nouveau jeu A est 0,11 x U(1)
      • L’utilité du nouveau jeu B est 0,10 x U(2,5) = 0,10 puisque nous avons fixé U(2,5)=1

Mathématiquement, nous devrions donc préférer le jeu A au jeu B dans le deuxième choix… et pourtant…

Le paradoxe d’Ellsberg

Le paradoxe d’Ellsberg est une autre illustration des écueils pratiques de la théorie de l’utilité espérée. 

Imaginez une urne qui contient 90 boules de couleurs, 30 rouges et 60 noires ou jaunes, sans que l’on connaissance la proportion entre ces dernières. On tire une boule au hasard.

A quel jeu préférez-vous jouer :

      1. Gagner 100€ si la boule est rouge et rien sinon
      2. Gagner 100€ si la boule est noire et rien sinon

La majorité d’entre nous préfère jouer au jeu A, ce que nous pouvons interpréter comme une préférence pour un pari dont les chances de gagner sont connues à un pari plus incertain même si potentiellement plus lucratif.

Considérez maintenant la paire de jeux suivante. Préférez-vous :

      1. Gagner 100€ si la boule est rouge ou jaune et rien sinon
      2. Gagner 100€ si la boule est noire ou jaune et rien sinon

L’addition de la boule jaune à ces deux jeux par rapports aux précédents ne devrait pas changer notre préférence puisqu’elle est ajoutée identiquement aux jeux A. et B. 

En effet si on rajoute le lot C identiquement à A et B, comparer A+C à B+C revient exactement à comparer A à B. Nous devrions être indifférents à C.

Et pourtant, nous semblons maintenant préférer le jeu B puisque c’est celui dont nous pouvons désormais estimer la probabilité de gain (60/90) alors que la probabilité de gain dans le jeu A est devenue inconnue (même si au moins égale à 30/90).. 

Une étude pratique de notre “vue cognitive réelle” :

L’exploration de ces deux paradoxes est riche d’enseignements. Elle a abouti à la théorie des perspectives de Daniel Kahneman et Amos Tversky, qu’ils présentent dans leur article « Prospect Theory : An Analysis of Decision under Risk » publié en 1979. Cette théorie propose effectivement un cadre pour expliquer ces paradoxes et prendre en compte les déviations observées par rapport à la théorie de l’utilité espérée. Elle permet la mise en place d’une fonction averse au risque pour les gains et favorable au risque pour les pertes, nous passons de Ê à Ẽ :

Elle ajoute également une étape préalable à l’évaluation des résultats possible : une étape de cadrage qui fixe la représentation mentale de l’état de référence à partir duquel les résultats seront évalués, ce cadrage donne donc un degré de liberté supplémentaire et permet de choisir la définition de gain ou perte.  Nous détaillerons plus bas cet effet de cadrage.

Mais plutôt que de présenter cette théorie en détails, c’est sur les manifestations qu’elle permet d’expliquer, dans nos déformations ou myopies cognitives, assez directement applicables au contexte éducatif, que nous allons nous focaliser. Nous examinerons plus particulièrement les biais suivants :

  • L’effet de cadrage
  • L’effet de saillance
  • L’effet de coût irrécupérable
  • L’effet d’ancrage
  • L’effet de régression à la moyenne
  • L’effet Dunning-Kruger

 

L’effet de cadrage :

L’effet de cadrage (framing en anglais) est étudié par Amos Tversky et Daniel Kahneman dans leur article “The framing of decisions and the psychology of choice” publié en 1981 dans la revue Science. Ils montrent que notre choix dépend fortement de la manière dont le problème est présenté, en prenant généralement avantage de notre aversion aux pertes.

Par exemple, imaginez que vous avez reçu 100€, à quel jeu préférez-vous jouer :

      1. Recevoir 100€ de plus avec 1 chance sur 2
      2. Recevoir 50€ à coup sûr

Le choix B est majoritaire.

Imaginez maintenant que vous avez reçu 200€, à quel jeu préférez-vous jouer :

      1. Garder les 200€ avec 1 chance sur 2 et en rendre 100€ avec 1 chance sur 2.
      2. Perdre 50€ à coup sûr.

Le choix A est maintenant majoritaire alors qu’un peu de réflexion montre qu’il s’agit exactement de la même situation que précédemment.

En effet pour le premier couple de jeux, les situations finales sont :

      1. Avoir 200€ (=200€-0€) avec 1 chance sur 2 ou 100€ (=200€-100€) avec 1 chance sur 2.
      2. Recevoir 150€ (=100€+50€) à coup sûr.

Et pour le deuxième couple de jeux, les situations finales sont :

      1. Avoir 200€ (=100€+100€) avec 1 chance sur 2 ou 100€ avec 1 chance sur 2.
      2. Recevoir 150€ (=200€-50€) à coup sûr.

C’est à dire exactement les mêmes !

Pour mettre à profit, l’effet de cadrage, imaginons un élève que nous voulons encourager à persévérer dans ses efforts d’apprentissage. Nous pouvons cadrer nos encouragements soit en mettant l’accent sur tous les efforts qu’il a déjà accomplis soit sur ceux qu’il lui reste à accomplir pour arriver au bout de sa peine. 

S’il se cadre sur ce qu’il a déjà déjà accompli, le point d’arrivée de ses efforts peut lui paraître plus proche parce qu’il pense en fait à l’éloignement de son point de départ (“regarde tout ce que tu as appris à faire ou à quel point tu le fais mieux qu’il y a quelques semaines”). Alors que cadrer sur le point d’arrivée s’il semble encore trop éloigné peut susciter le découragement, le syndrome du verre à moitié vide, (“oh là là, c’est beaucoup trop dur, je n’y arriverai jamais). Le cadrage sur le point d’arrivée redevient généralement motivant à l’approche du but (“allez, courage, plus qu’une page de cours ou d’exercices et c’est terminé!”).

L’effet de saillance :

L’effet de saillance (saliency en anglais) est lui étudié par Amos Tversky et Daniel Kahneman dans un autre de leurs articles “Judgment under uncertainty: Heuristics and biases” publié dans la revue Science. Ils montrent que nous avons tendance à considérer comme représentatifs les exemples qui nous viennent le plus facilement à l’esprit. 

Par exemple, imaginez un groupe de 10 élèves :

      • Estimez le nombre de paires d’élèves que vous pouvez former. 
      • Estimez maintenant le nombre de groupes de 8 élèves que vous pouvez former. 

Nous avons malheureusement tendance à imaginer qu’il y a plus de paires d’élèves que de groupes de 8 parce qu’il nous est plus facile d’imaginer des paires, alors qu’il s’agit pourtant exactement du même nombre. 

En effet une paire d’élève est un groupe de 2 élèves. Si l’on forme une paire, les élèves du groupe de 10 élèves non retenus dans cette paire sont donc au nombre de 8. A toute paire d’élève, on peut donc associer de manière unique un groupe de 8 élèves, et réciproquement. Mathématiquement, on dit que ces ensembles sont en bijection : ils ont la même taille (que l’on appelle cardinal).

Si l’on souhaite calculer ces deux nombres, ce qui n’est pas nécessaire pour s’apercevoir qu’ils sont égaux, la théorie élémentaire du dénombrement nous donne avec les coefficients binomiaux:

      • Nombre de paires de 2 élèves dans un groupe de 10 élèves = 102=1092=45
      • Nombre de paires de 8 élèves dans un groupe de 10 élèves = 108=1092=45

Dans la même veine, 

      • Connaissez vous beaucoup de mots anglais de six lettres dont l’avant-dernière lettre est un n ? 
      • Et maintenant connaissez-vous beaucoup de mots anglais de six lettres qui se terminent par -ing ? 

Une chose est sûre, les mots de six lettres qui se terminent par -ing sont aussi des mots de six lettres dont l’avant-dernière lettre est un n. Donc le nombre de mots anglais de six lettres dont l’avant-dernière lettre est un n est supérieur ou égal au nombre de mots anglais de six lettres qui se terminent par -ing est un n. 

Et pourtant comme la terminaison -ing en anglais est très fréquente car c’est celle des verbes conjugués au présent continu, nous arrivons à penser beaucoup plus facilement à des exemples de mots anglais de six lettres qui se terminent par -ing. Et trompé par cette facilité, nous tombons fréquemment dans le piège de conclure que c’est parce qu’il y en a plus, à tort.

C’est également cet effet de saillance qui nous fait à tort plus craindre une attaque de requin car elles sont généralement relatées en une des journaux qu’un accident de la route, trop nombreux et ordinaires pour être systématiquement mentionnés. En résumé, nous avons tendance à prendre pour vrai ou général, ce qui est le plus présent à notre esprit ou ce dont nous arrivons à nous rappeler le plus facilement. 

Il est donc particulièrement important d’être vigilant, spécialement dans le domaine de l’éducation, aux messages les plus clairs et mémorisables que nous envoyons aux élèves. Qui n’a pas entendu un adulte se rappeler des dizaines d’années après avoir quitté les bancs de l’école, de l’appréciation lapidaire et malheureusement souvent cinglante qu’un professeur  avait utilisé pour résumer sa correction d’une copie.

Pour mettre à profit, cet effet de saillance, nous pouvons donc inciter un élève à réviser pour un examen en rendant plus présent à son esprit, selon son degré d’anxiété et d’application :

  • Soit le souvenir d’un examen où son relâchement l’avait conduit à un résultat décevant.
  • Soit le souvenir de tous les examens qu’il a réussi jusque là en travaillant sereinement selon les instructions données en classe.

 

L’effet du coût irrécupérable :

L’effet du coût irrécupérable (sunk costs en anglais) est étudié par exemple par Hal Arkes et al. dans leur article “The psychology of sunk cost” publié en 1985 dans Organizational Behavior and Human Decision Processes

Il consiste à tenir compte dans nos choix de coûts déjà engagés et qui ne peuvent plus être récupérés quelle que soit notre décision. 

Par exemple, imaginons que nous ayons acheté de longue date un ticket pour un concert et qu’un examen important soit finalement programmé pile le lendemain de ce concert. Le prix que nous avons payé pour ce ticket ne devrait pas importer dans notre choix d’aller au concert ou bien de nous reposer avant l’examen. Ce ticket a déjà été payé que nous allions au concert ou non. Et pourtant, notre choix semble bien souvent le prendre en compte…

Les trois enfants d’Amos Tversky, le co-auteur inséparable de Daniel Kahneman qui est mort avant d’avoir pu partager avec lui le prix Nobel, se souviennent de leur père comme un vivant exemple de résistance à cet effet de coût irrécupérable. Ils revoient encore leurs parents partant en voiture pour aller au cinéma voir un film… et leur père ré-apparaissant sur le canapé du salon familial moins de vingt minutes plus tard. Cinq minutes du film lui avaient suffi pour déterminer qu’il n’en valait pas la peine. Il retourna bien sûr chercher sa femme, leur mère, lorsque le film fut terminé. “Ils m’ont déjà pris mon argent quand j’ai acheté le ticket”, expliquait-il, “faudrait-il en plus que je leur donne mon temps ?”.

Cet effet de coût irrécupérable peut se manifester chez un élève qui s’entête dans une voie de résolution d’un problème qui n’aboutit pas. Plutôt que de prendre du recul et d’attaquer sous un autre angle, celui-ci peut s’obstiner en considérant tout le temps qu’il a déjà investi dans la voie infructueuse.

L’effet d’ancrage :

L’effet d’ancrage (anchoring en anglais) consiste à donner un poids trop important à notre première impression ou au premier élément de repère mentionné, sans que celui-ci n’ait d’ailleurs nécessairement trait au problème à trancher. 

Dans une expérience historique, Kahneman investigue les réponses données par des écoliers à la question de calculer en moins de cinq secondes 8! (le ! en mathématiques se lit “factorielle”) qui n’est autre que le produit des entiers de 1 à 8 (inclus). Comme ce temps est normalement trop court pour mener à terme le calcul mental exact, les écoliers doivent procéder à une estimation. Le premier groupe d’écoliers est chargé de calculer  8 × 7 × 6 × 5 × 4 × 3 × 2 × 1 alors que pour le second il s’agit de 1 × 2 × 3 × 4 × 5 × 6 × 7 × 8. L’ancrage se manifeste : la médiane du premier groupe est 2,250 et celle du second n’est que de 512 – la réponse exacte est 40,320. Les élèves du premier groupe trouvent en effet fréquemment un nombre plus élevé que le second groupe parce qu’ils commencent par multiplier les grands nombres entre eux (8 x 7 x 6…) et donc extrapolent un nombre plus grand à partir de cet ancrage que ceux du second groupe qui commencent par multiplier les petits nombres entre eux (1 x 2 x 3…) et donc extrapolent un nombre plus petit à partir de cet autre ancrage.

Kahneman procède à une autre expérience d’ancrage encore plus flagrante. Il demande à deux groupes de personnes d’estimer le nombre de pays africains membres de l’ONU après avoir vu le résultat d’une roue de loterie aléatoire. Le premier groupe tire le nombre 65 à la loterie et le second 10. Là aussi les effets de l’ancrage sont apparents : 45 pays africains membres de l’ONU pour le premier groupe, contre 25 pour le second.

Plus récemment, Dan Ariely et ses co-auteurs ont montré dans leur article « Coherent Arbitrariness: Stable Demand Curves Without Stable Preferences” publié en 2003 dans The Quarterly Journal of Economics que des étudiants de MBA voyaient leurs estimations du prix de différents biens courants de consommation fortement influencées par leur numéro de sécurité sociale dont on leur avait arbitrairement demandé de se rappeler au préalable.

La conscience de l’effet d’ancrage peut aider à un élève d’améliorer simplement ses performances aux examens. Si un élève se contente en effet d’évaluer la difficulté de son test par celle du premier exercice qu’il rencontre – voire par celle de la première question du premier exercice, il risque de s’ancrer sur une perception erronée de facilité ou au contraire de difficulté du test et subir l’euphorie ou le découragement subséquent. Si par contre, il commence par parcourir l’ensemble de l’énoncé avant de procéder à l’évaluation de la difficulté de l’examen, il sera plus juste, et cela lui permettra de surcroît d’élaborer une stratégie de réponse appropriée, comme par exemple ne pas oublier de réserver du temps répondre aux questions faciles.

En tant qu’enseignants, nous pouvons par ailleurs, également choisir de donner ou non des ancres dans nos interventions auprès des élèves comme par exemple leur dire “Je vous recommande de réviser environ 30 minutes tous les soirs jusqu’à l’examen mais c’est à vous bien sûr de déterminer sur quelle durée quotidienne vous voulez vous engager. D’ailleurs, à combien l’estimez vous ?”. Dans cette intervention, l’ancre que nous donnons aux élèves est de 30 minutes tous les soirs, elle les incite donc à prendre cette durée et périodicité comme point de référence et nous pouvons espérer grâce à l’effet d’ancrage que leur déviation par rapport à ce point soit minime. La suite de l’incitation vise à renforcer cet ancrage en utilisant l’effet d’engagement de la théorie de la persuasion.

L’effet de régression à la moyenne :

L’effet de régression à la moyenne (regression to the mean en anglais) consiste à attribuer à des causes externes le simple phénomène de retour à la moyenne – les mesures d’une variable stationnaire tendent à osciller autour de sa moyenne, par définition de cette dernière ; une mesure élevée sera donc naturellement compensée par une mesure ultérieure plus basse. 

Kahneman rapporte à ce sujet une anecdote amusante dans son livre “Système 1 / Système 2 : Les deux vitesses de la pensée”. Alors qu’il expliquait à des instructeurs aéronautiques qu’il est plus efficace de récompenser une amélioration que de punir une erreur, un des instructeurs les plus aguerris le contredit ouvertement en disant : « J’ai bien souvent félicité des élèves pour l’exécution parfaite d’une manœuvre acrobatique. En général, quand ils la re-tentent ensuite, ils s’en tirent moins bien. Alors que j’ai souvent hurlé dans les écouteurs d’un élève qui a raté sa manœuvre, et en général, il s’en tire beaucoup mieux la fois suivante. Donc, je vous en prie, ne venez pas nous dire que la récompense fonctionne, mais pas la punition, parce que c’est le contraire qui est vrai. » Cet instructeur était précisément tombé dans ce biais qui consiste à rattacher une interprétation causale aux fluctuations inévitables d’un processus aléatoire.

Notre incapacité à prendre en compte la puissance de l’effet de régression à la moyenne peut nous laisser dangereusement dans le noir quant à la nature du monde qui nous entoure et nous entraîner dans cette bien triste vie où nous avons constamment l’impression d’être punis d’avoir récompensé et récompensés d’avoir puni. 

Pour mettre à profit notre compréhension de l’effet de régression à la moyenne, nous pouvons sensibiliser nos élèves aux variations normales qui font partie de l’existence et des processus d’apprentissage afin de les aider :

  • à ne pas se remettre trop durement en question en cas de résultat un peu inférieur.
  • à ne pas le prendre pour acquis en cas de résultat un peu supérieur. 

 

Nous pouvons illustrer cela par les performances des grands sportifs. Leur classement final est la moyenne de leurs résultats sur l’année alors qu’en étant attentif, dans le détail, à leur performance, nous pourrions être étonnés du nombre de défaites ou fautes commises, ce que ne se prive pas de nous rappeler le basketteur américain Michael Jordan.

 

L’effet Dunning-Kruger :

L’effet Dunning-Kruger ou effet de surconfiance (overconfidence en anglais) documenté par Justin Kruger et David Dunning dans leur article “Unskilled and Unaware of It: How Difficulties in Recognizing One’s Own Incompetence Lead to Inflated Self-Assessments” du Journal of Personality and Social Psychology, est le biais selon lequel les moins qualifiés dans un domaine surestiment leur compétence alors que les plus qualifiés la sous-estiment.

Nous pouvons renforcer auprès de nos élèves cette intelligence de l’effet Dunning-Kruger, en leur répétant, pour reprendre l’aphorisme de Confucius, que la véritable connaissance consiste non seulement à savoir ce que l’on sait mais aussi ce que l’on ne sait pas.

Les premiers pas de l’optique cognitive appliquée à l’éducation :

Les applications de cette nouvelle science des décisions à l’éducation est relativement récente et doivent donc être encore mesurées avec prudence. 

L’article de synthèse de Mette Damgaard et Helena Nielsen “Nudging in education” publié en 2018 dans Economics of Education Review en dresse un état des lieux scientifique. 

Loin de décourager l’application de la nouvelle science des décisions à l’éducation, cette revue critique est sans doute plus un encouragement à continuer d’investiguer de manière scientifique quelles techniques et modalités permettront d’aider les plus efficacement nos écoliers à apprendre. 

Daniel Kahneman écrivait dans le manuscrit d’un de ses livres qu’il avait essayé d’enseigner sa nouvelle science des décisions à des fonctionnaires et militaires à des postes et grades variés dans l’administration et l’armée mais ce malheureusement avec un succès limité parce que les esprits adultes lui semblaient trop habitués à leurs propres illusions… En revanche,  son expérience avec des écoliers avait été très encourageante.

La sphère économique a elle pris beaucoup d’avance dans l’application de cette nouvelle science des décisions probablement en raison des enjeux financiers directement associés et de la relative facilité éthique des expériences dans son secteur.

Mais les élèves étant aux prises avec ces enjeux, constamment dans leurs apprentissages, le développement des applications pratiques de cette science est également prometteur dans le champ de l’éducation.  

En tous cas, il paraît d’ores et déjà crucial de sensibiliser les élèves aux tours que nous joue notre cerveau et aux pièges dans lesquels ils peuvent être pris afin de :

  1. Développer leur esprit critique, ce qui est d’autant plus essentiel à l’heure de la multiplication des sources d’information,
  2. Leur permettre de garder ou reprendre le contrôle sur eux-même, de développer leur auto-discipline et d’avancer intelligemment vers les objectifs qu’ils se seront fixés.

 

Partager cet article Share on Facebook
Facebook
Tweet about this on Twitter
Twitter