[Boîte à outils] Se fier à son intuition ou développer l’esprit critique ?

Suivre son intuition permet de prendre position sur un sujet, ou encore de prendre une décision complexe simplement. Néanmoins, bien que nous ayons connaissance de nos intuitions, nous ne ne sommes pas toujours au fait de leurs fondements. D’où viennent-elles ? Peut-on leur faire confiance ? Si on ne le peut pas, comment bien raisonner et faire le tri parmi le flot de données scientifiques contradictoires qui nous parviennent ?

La pensée critique est parfois définie comme la faculté qui permet de séparer le bon grain de l’ivraie : séparer bonnes et mauvaises argumentations et bonnes (dans le sens de justifiées) et mauvaises croyances.

La pensée critique est en réalité plus qu’une manière de penser ; c’est une pratique qui consiste à mettre en place des stratégies, des méthodes, des outils pour évaluer la qualité d’une information (si elle a des chances d’être correcte, de correspondre à la réalité), sur la base des preuves disponibles. Evaluer la qualité d’une information — si elle est soutenue par des preuves — permet de calibrer sa confiance en l’information elle-même, et contribue finalement à prendre de meilleures décisions, éclairées, réfléchies, fondées.

La pensée ou esprit critique est proche de l’esprit scientifique, au sens où elle peut utiliser les stratégies et outils dont s’est dotée la science pour faire face aux limites de la subjectivité, des préconceptions, des intuitions qui sonnent juste mais ne le sont pas nécessairement, des premières impressions et des fausses impressions, de la tendance tout à fait naturelle à se trouver toujours d’accord avec soi-même, de la crédulité ou de la méfiance excessives, des difficultés à reconnaître dans une nouvelle situation un problème précédemment rencontré pour lequel on saurait trouver une solution… La philosophie aussi prête ses outils : analyse, vigilance, réflexivité à la pratique de la pensée critique.

La pensée critique n’intéresse toutefois pas que les philosophes et les scientifiques, mais aussi les éducateurs ; son enseignement est d’autant plus d’actualité à l’ère des nouvelles technologies — alors qu’on assiste à la multiplication et diffusion d’informations plus ou moins fiables, susceptibles de servir de fondements pour la prise de décision.

1. L’intuition et la pensée critique : deux tendances opposées ?

Dans la société contemporaine, nous sommes confrontés à deux invitations contradictoires. D’un côté, la société se tourne de plus en plus vers la science et les preuves afin de guider la bonne prise de décision en médecine, dans le policy-making et, plus récemment, dans le domaine de l’éducation. De l’autre côté, nous sommes invités à nous méfier de la science, à laisser libre cours à notre intuition naturelle et à la sagesse de l’expérience individuelle, voire à nous fier à nos sentiments profonds afin de guider nos choix. Ce tiraillement entre deux directions opposées est souvent représenté par l’image d’un hypothétique dualisme entre « cerveau droit » — qui serait plus créatif, féminin, empathique, intuitif— et « cerveau gauche » — logique, rationnel et mathématique ; le supposé cerveau masculin. Souvent, ceux qui utilisent cette image pensent que le monde serait meilleur si on pouvait davantage développer le cerveau droit, ou du moins contrebalancer l’apparente dominance du cerveau gauche. En réalité, les deux hémisphères assurent des fonctions en partie différentes mais complémentaires, et sont très bien connectés grâce à un épais corps de fibres (le corps calleux). Le dualisme entre cerveau droit et cerveau gauche est donc un « neuromythe » : une fausse croyance habillée en jargon scientifique.

Mais la question reste ouverte : peut-on/doit-on faire confiance à notre intuition ? L’intuition peut-elle nous guider vers de meilleures choix que l’utilisation avertie de science ?

La réponse à cette question a des retombées en termes d’éducation. Si la réponse est oui, alors — et indépendamment du mythe du cerveau droit/cerveau gauche — il pourrait être utile de mettre en place des formes d’instruction capables de renforcer les capacités intuitives. Si la réponse est non, alors il s’agit plutôt d’apprendre à utiliser la science et les données qu’elle nous fournit de manière avertie. Il faudrait en particulier apprendre comment séparer le bon grain de l’ivraie dans la masse d’informations en circulation.

2. Nos intuitions ne sont pas toujours correctes, même quand elles nous concernent !

420px-muller-lyer_illusion-svg

Prenons le cas classique de l’illusion de Mueller-Lyer : deux lignes parallèles de la même longueur, la première avec à ses extrémités des arêtes de poisson ouvertes, l’autre fermées ; on peut savoir que la longueur est la même, mais les lignes nous apparaîtront toujours de longueur différente. Tout le monde sait que la perception peut nous tromper, parce que ce genre d’illusion est largement répandu et expliqué. Face à d’autres illusions — moins connues — nous ne sommes pas moins dupes, mais cette fois, sans le savoir. La connaissance de nos processus cognitifs ne fait pas partie des compétences qu’on nous enseigne à l’école !

Si on vous demandait si vous pourriez manquer de remarquer un gorille qui marche en plein milieu de votre champ visuel, s’arrête, vous regarde et se bat la poitrine en acte de défiance avant de repartir, vous diriez probablement que non. C’est pourtant ce qui arrive à la moitié environ de ceux qui visionnent une vidéo fabriquée par Daniel Simons and Christopher Chabris, et qui sert à tester le rôle joué par l’attention dans la perception (Chabris & Simons, 2015).

Notre intuition nous dit que — sauf conditions particulières — nous percevons tout ce qui est devant nous, qui est grand et « évident ». Ceci est néanmoins faux puisque notre capacité de voir est fortement influencée par ce qu’on s’attend à voir : on peut ne pas voir un cycliste dans la rue, mais plus il y a de cyclistes dans la rue, plus on y fait attention, et donc, moins il y a d’accidents. La même considération s’applique à notre mémoire. Notre intuition nous dit qu’on peut oublier quelque chose qui s’est passé, mais qu’on ne peut pas se rappeler de quelque chose qui n’est pas arrivé. Pourtant, Elisabeth Loftus et d’autres ont montré qu’on peut amener quelqu’un à construire des faux souvenirs (Chabris & Simons, 2015). Nous avons aussi tendance à surestimer nos capacité (ou à nous considérer sous-estimés par les autres) aussi bien que nos connaissances, et sommes donc les victimes de ce qu’on peut appeler une « illusion de confiance en soi ». D’ailleurs, dans de nombreuses situations, nous préférons écouter ceux qui montrent une grande confiance en eux-mêmes : le médecin qui nous présente un diagnostic est plus crédible et rassurant s’il prend un air assuré que s’il consulte devant nous la base de données MedLine à la recherche des données les plus fiables — alors même que le deuxième a plus de chances de prendre la bonne décision. Nous entretenons donc un certain nombre d’illusions cognitives qui nous renvoient un portrait optimiste de nos capacités cognitives (Chabris & Simons, 2015 ; Sharot, 2011 ; Sloman & Fernbach, 2017).

Ceci ne veut pas dire que notre pensée, comme notre perception, mémoire, et nos fonctions cognitives en général, sont comme des machines cassées, qui fonctionnent mal et nous mettent à mal !

En grande partie, les limites de l’intuition et de la cognition humaine constituent la contrepartie d’autres capacités, quant à elles adaptives. De fait, les mécanismes qu’on vient de discuter nous permettent de focaliser l’attention sur des détails importants sans se laisser distraire, de se rappeler des détails utiles, de repérer les dangers réels et non réels — dans une nature peuplée de dangers cachés et bêtes féroces, mieux vaut quelques faux positifs qu’un seul faux négatif, s’orienter et agir sur la base des informations immédiatement disponibles, plutôt qu’hésiter indéfiniment.

3. La surcharge informationnelle : un problème 

La considération des limites de la cognition nous donne cependant des raisons pour prendre du recul par rapport à notre intuition, et pour être exigeants quant aux données qui sous-tiennent une assertion — notamment quand l’enjeu est important.

Savoir que nous sommes sujets à des erreurs récurrentes nous encourage à aller à la recherche de supports et d’outils pour contenir limites, illusions, biais — du moins quand des problèmes inédits ou des choix critiques se présentent à notre esprit.

D’autres considérations, externes à notre fonctionnement cognitif, nous poussent dans la même direction.

Trop d’information nuit à l’information

Nous vivons à une époque où l’information est omniprésente. Il ne s’agit pas de critiquer, mais de prendre acte d’une situation par rapport à laquelle on reviendra pas en arrière : les technologies de l’information et de la communication sont là pour rester, l’information disponible n’ira qu’en s’accroissant, les formations vont être de plus en plus « libres ».

La multiplication de l’information disponible passe par Internet, avec ses forums d’experts, ses encyclopédies, ses podcasts, vidéos et conférences en ligne, mais aussi les réseaux sociaux ; la multiplication des formations « libres » passe par l’accessibilité de cours en ligne de grandes universités ; ou de cours libres sous forme de vidéo.

Comment juger si cette information est fiable, comment séparer le bon grain de l’ivraie quand on est submergé d’informations ?

Quand on tape les mots « climate change« , le moteur de recherche Google nous propose « 911,000,000 results (0.34 seconds)« . Il n’est pas facile de se repérer dans une telle masse d’informations — qui peuvent, en plus, être contradictoires. Est-il possible qu’à un certain moment, l’information disponible soit tellement vaste que la « bonne information » en vient à être noyée dans le bruit général, et qu’il devienne de plus en plus difficile de l’identifier ? De leur côté, moteurs de recherche, réseaux sociaux et sites commerciaux repèrent facilement nos préférences, grâce au nombre de visites qu’on fait à certains liens plutôt qu’à d’autres, ou aux achats qu’on effectue. Cela nous fait probablement gagner du temps, mais mettre nos opinions à l’épreuve d’idées différentes, donc de devenir critiques par rapport à nos idées, devient encore plus difficile. La multiplication de l’information disponible et la manière dont elle est dispensée requièrent donc un exercice de suspension de la croyance et de scepticisme aussi bien que des outils pour évaluer et combiner des sources de différente nature et connaissances passées de manière à pouvoir évaluer les faits, comparer les hypothèses rivales, établir si l’information est réellement informative ou circulaire (comme dans le cas des neuroimages, qui abondent sur Internet).

La science en société

Une considération ultérieure qui nous pousse vers un meilleur exercice de la pensée critique est liée à l’accroissement de l’importance des connaissances scientifiques, tant dans la vie des individus que dans celle de la société et des nations. Autant qu’à la plus grande disponibilité d’informations, nous assistons en effet à la multiplication des connaissances scientifiques, susceptibles d’avoir un impact applicatif sur santé, éducation, environnement.

Il est alors d’autant plus important de s’inspirer de la « bonne science » : de savoir juger la solidité de des données présentées, l’existence d’un accord entre scientifiques. Si les sciences du cerveau sont en ce moment à la mode, par exemple, ceci ne veut pas dire que les connaissances théoriques qu’elles ont multiplié lors des vingt dernières années soient prêtes à être traduites en méthodes testables et donc applicables à l’éducation.

Le besoin de connaissances immédiatement applicables, et la séduction « naturelle » du langage et des images neuroscientifiques, peuvent attribuer un succès immérité à des méthodes qui se targuent d’être « brain based » mais qui sont, au mieux, des principes généraux vaguement inspirés de notions générales sur le fonctionnement du cerveau et, au pire, des véhicules de neuromythes.

La capacité de juger de la solidité de l’évidence disponible ne concerne pas seulement les décideurs (en éducation ou ailleurs). La capacité des citoyens de participer au débat sur le changement climatique, le tabac, le nucléaire, les thèmes de la bioéthique en dépend aussi. L’alphabétisation scientifique devient donc une priorité de l’éducation à la citoyenneté.

On considère d’ailleurs que la compétitivité des états les plus développés sur le marché de l’innovation et du travail dépend d’un investissement massif de la part des systèmes éducatifs — à tous les niveaux, dans tous les états — sur les STEM : Science, Technology, Engineering, Mathematics. Du coup, l’évaluation des compétences relatives devient de plus en plus significative pour l’éducation au niveau international. La notion d’alphabétisation scientifique ne se limite pas à la capacité à maîtriser des connaissances scientifiques. Elle comprend aussi celle de les mobiliser là où nécessaire, afin de juger les affirmations scientifiques qui circulent par les médias, ou d’utiliser les connaissances et les méthodes de la science pour juger de la solidité d’autres argumentations.

Afin d’utiliser les connaissances disponibles et tirer des conséquences basées sur l’évidence, il ne suffit pas de posséder des connaissances. Il faut aussi être capables d’en juger la pertinence (savoir quand et comment les mobiliser) et d’en évaluer la solidité empirique et la cohérence des arguments. 

Pour cette raison, l’éducation à la pensée scientifique ne peut pas se limiter à une éducation centrée sur les contenus, mais doit être capable de former les étudiants à développer leur esprit critique.


Références

  • Bronner, G. (2013). La démocratie des crédules. Presses universitaires de France.
  • Chabris, C. F., & Simons, D. (2015). Le gorille invisible : Quand nos intuitions nous jouent des tours. le Pommier.
  • Fernbach, P., & Sloman, S. (2017). The knowledge illusion. Why We Never Think Alone.
  • Pasquinelli, E. (2015). Mon cerveau, ce héros: mythes et réalité. le Pommier.
  • Sharot, T. (2011). The optimism bias. Current biology21(23), R941-R945.

NOTE : Cet article est paru dans une version préalable dans le Blog [Lab]Map en 2016. Ses contenus ont été mis à jour.

Article rédigé par Elena Pasquinelli, février 2020

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s