L’existence de biais cognitifs, définis comme une déviation involontaire dans la pensée logique, est un des résultats les plus ancrés de la psychologie moderne. Elle en a recensé des dizaines. Ces résultats ont contribué à instiller l’idée, désormais communément acceptée, que notre cerveau ne peut pas penser correctement sans être dévié, et que nous ne sommes donc pas des acteurs rationnels. Mais est-ce si sûr? Et si ces « déviations » n’en étaient pas vraiment? Si elles servaient un objectif important pour nous, celui d’agir en incertitude?

Regardez l’image ci-dessus. Il y a deux fois le mot « THE » dans le texte. Beaucoup d’entre-nous ne le remarquent pas. Des tests comme celui-ci, vous en avez sûrement fait. Ils servent à illustrer les près de 180 biais identifiés par les psychologues et les économistes du comportement. Conclusion de ces derniers? Notre cerveau se trompe et il nous trompe. Nous décidons donc en fait n’importe comment, et nous ne sommes pas si rationnels que ça.
L’erreur est humaine
Mais cette conclusion est discutable. La vie de l’être humain est depuis toujours marquée par l’incertitude et le danger. Notre cerveau a évolué pour nous aider à survivre dans ce contexte. Pour cela, il a développé des capacités à prendre des décisions malgré des informations insuffisantes, ambiguës, voire fausses. Il a également appris à filtrer des informations pour ignorer ce qui ne lui semble pas pertinent et se focaliser sur l’important. Lorsque vous regardez l’image, et que vous ratez le fait qu’il y a deux fois « THE », c’est en fait parce que votre cerveau a jugé que le deuxième « THE » était inintéressant. Il a donc ignoré cette information. Il a corrigé de lui-même la lecture. Ce qui est présenté comme une erreur est en fait une marque d’efficacité de notre cerveau.
Comment a-t-il jugé cela? En fonction du contexte. Si vous corrigez le manuscrit de votre prochain livre, l’oubli du second « THE » est une erreur. Si vous lisez un texte pour en extraire les principales idées, l’oubli permet d’aller vite. Être capable de lire et de comprendre un texte malgré des fautes de frappe et des erreurs, souvent sans même s’en rendre compte, est quelque chose que nous faisons tous les jours, et c’est un gage d’efficacité. En incertitude, il peut être efficace d’ignorer certaines informations pour éviter la paralysie ou la lenteur, qui peuvent être mortelles. Ce qui est une « erreur » dans un contexte peut donc être un gage d’efficacité dans un autre. Le contexte – qui lit et dans quel but – est donc la clé.
Naturellement, le cerveau peut parfois se tromper en ignorant certaines informations. Mais sans ce filtre, notre vie serait un enfer. Imaginez que vous décidiez de lutter contre ces biais. Désormais, vous voulez être certain de ne jamais rater un mot en double. Pour cela, vous allez devoir réduire votre vitesse de lecture, et dépenser beaucoup plus d’énergie par votre concentration. Cela n’aura un intérêt que si le gain est réel et si il est vital pour vous de ne rater aucun doublon. Sinon, c’est un gaspillage.
Gare au gorille!
Une autre expérimentation classique est celle du gorille. Les chercheurs montrent la vidéo d’un match de basket aux participants et leur demandent de compter le nombre de fois où les joueurs en blanc ont passé la balle. À un moment, un gorille passe dans le fond. La plupart des participants ne le remarquent pas. Conclusion? « Les humains sont aveugles aux choses évidentes, et aveugles à leur aveuglement » selon les mots fameux du psychologue Daniel Kahneman. C’est une conclusion très étrange: les participants font ce qu’on leur a demandé. Ils comptent le nombre de passes consciencieusement. Pour cela ils se concentrent, et leur cerveau élimine les autres informations. Loin de démontrer un aveuglement, la vidéo démontre au contraire le pouvoir de concentration de l’esprit humain. Mais, me répond-on souvent, pourquoi les participants font-ils, sous-entendu bêtement, ce qu’on leur a demandé? Et bien parce qu’ils sont dans un labo. Une grande partie des travaux de la psychologie a en effet été faite dans ce que les chercheurs appellent des « petits mondes » (small worlds), c’est à dire des environnements simplifiés, comme un laboratoire. Vous prenez un groupe de gens, vous leur posez une question et ils doivent répondre. Ils ne savent pas pourquoi des chercheurs leur demandent de compter des passes alors qu’ils pourraient le faire eux-mêmes. Ils ne connaissent pas l’enjeu (Pourquoi doit-on connaître le nombre de passes? des gens vont-ils perdre leur job, voire mourir si je réponds mal?) L’exercice n’a aucun sens. Seulement voilà, les participants sont bonne pâte, ils veulent aider la science. Ils trouvent l’exercice stupide, mais le font quand-même. L’expérience elle-même conditionne les participants à se concentrer sur la tâche à accomplir sans poser de question. Et l’on s’étonne ensuite du résultat?
Dans le monde réel, complexe et incertain, nul doute que de nombreux participants auraient, avant de faire l’exercice, cherché à mieux comprendre son objectif. Ils auraient même parfois refusé de répondre, faute de connaissance suffisante. Mais dans le test, la réponse « Je ne sais pas » n’est jamais proposée. Dans le monde réel, où le risque existe, les participants ne seraient jamais totalement concentrés. Une petite partie de leur cerveau serait toujours en alerte en surveillant l’environnement et ne raterait probablement pas le passage du gorille. L’exercice ne fonctionne que parce que les participants sont pris au piège et conditionnés pour démontrer qu’ils sont aveugles. Il ne démontre rien si ce n’est, tenez-vous bien, que quand on vous demande de vous concentrer et que vous le faites, parce que vous savez qu’il n’y a aucun danger à le faire, vous ratez ce qui n’est pas l’objet de votre concentration.
Les limites de la psychologie de laboratoire
L’affirmation selon laquelle nous sommes biaisés suppose que nous sachions ce qu’un comportement non biaisé serait. Le chercheur prétend connaître la bonne réponse, mais celle-ci n’est clairement identifiable que dans le petit monde simplifié d’une expérience de laboratoire. La plupart des soi-disant ‘biais’ sont le produit de la nécessité de prendre des décisions dans un contexte d’incertitude. En l’absence de contexte, ces expériences sur la psychologie ne nous apprennent pas grand-chose sur le monde réel. D’ailleurs, que ces « déviations » soient aussi répandues et prédictibles devrait inciter à la prudence pour les qualifier d’erreur. C’est, au contraire, une raison supplémentaire de penser qu’elles sont plutôt une forme d’adaptation de notre cerveau à la tâche difficile qui est la sienne: nous aider à survivre en incertitude.
Plus généralement la limite de l’économie comportementale de laboratoire est qu’elle traduit une approche normative du comportement humain et qu’elle repose sur des principes abstraits, irréalistes et décontextualisés. Elle travaille sur des problèmes simples, voire simplistes, auxquels il n’y a qu’une seule réponse indiscutable. Des centaines d’études ont été lancées sur ces bases, plus parce que c’était facile que parce que ça avait un intérêt. Sans doute est-il temps de cesser de prétendre être capable de dire comment les humains devraient penser de façon parfaite et de s’intéresser enfin à la façon, extraordinaire, dont ils réussissent à le faire dans l’incertitude et la complexité du monde depuis la nuit des temps.
🔎 Source pour cet article: John Kay & Mervin King, Radical Uncertainty, Bridge Street Press, 2020.
📬 Abonnez-vous pour être averti des prochains articles par mail (cliquez sur “Abonnez-vous” plus bas).
▶️ Retrouvez-moi sur LinkedIn pour échanger sur cet article.
🎧 Vous pouvez également vous abonner au format podcast des articles via votre plateforme favorite: Apple Podcast – YouTube Music – Spotify – Amazon Music/Audible – Deezer
En savoir plus sur Philippe Silberzahn
Subscribe to get the latest posts sent to your email.
5 réflexions au sujet de « Notre cerveau face à l’incertitude: Les biais cognitifs existent-ils vraiment? »
QUESTIONS.
En matière d’incertitude, pensons au Réchauffement Climatique (RC).
Les climatologues du monde entier (y compris la poignée de chercheurs sélectionnés sur critère politique par l’ONU-GIEC) constatent que le CO2 est responsable de 20% (environ) de l’effet de serre. On sait pourtant que l’effet de serre n’est pas la seule cause du RC (incertitude numéro 1). Néanmoins les responsables politiques ont fait le choix de lutter contre les émissions de CO2, et non contre l’effet de serre globalement.
Biais Cognitif ?
Autre incertitude, numéro 2: la cause majoritaire de l’effet de serre est la Vapeur d’Eau (VE). Peu de recherches sur le sujet, et peu de certitudes sur l’action à long terme (voire à court terme aussi), de la VE : pourtant, personne ne parle d’économie « dévaporisée » ( par contre on a le cerveau gonflé de projets économique décarbonés…)
Biais cognitif ?
Incertitude numéro 3 : on ne sait pas discriminer, dans l’atmosphère, le CO2 anthropique du CO2 naturel. Rappelons qu’il y a 3 millions d’années, il y avait sur terre autant de CO2 naturel (forcément naturel), qu’aujourd’hui. La nature sait être prolixe en CO2. Un exemple de l’incertitude : les rivières émettent un CO2 dont l’isotope du Carbone est le même que celui du CO2 humain. Donc, incertitude sur les compositions du CO2 dans l’air. Mais on s’obstine à se focaliser, tel un Totem, sur le CO2 anthropique au point de se préparer à des sacrifices économiques importants, voire tragiques.
Biais cognitif ?
Traduction libre : le « biais cognitif » est une interprétation de la réalité, un concept, une idée humaine, un angle de vue.
Derrière une pseudo rationalité expérimentale, la subjectivité.
On pourrait penser que le concept valise « c’est mon cerveau », si envahissant, est du même métal….
Article d’une mauvaise foi confondante. Les biais cognitifs existent, non parce qu’on les a reproduits en laboratoire, mais parce qu’on les a constatés statistiquement. Le fait qu’ils soient en effet un mécanisme utile pour une prise de décision rapide n’empêche pas qu’ils puissent aussi avoir des conséquences délétères dont il faut être conscient pour les corriger.
Sans parler des biais qui n’ont aucune espèce d’utilité, mais découlent simplement de préjugés sans fondement. Par exemple les auditions pour recruter des musiciens classiques ne validaient que très peu de femmes, jusqu’à ce qu’elles se déroulent à l’aveugle. Parce qu’à leur insu les jurys, pourtant persuadés de leur impartialité, considéraient toujours que les hommes étaient plus performants.
L’évolution des statistiques après passage aux auditions à l’aveugle a démontré qu’il existait un biais cognitif.
Se reconnaître faillible n’est certes pas agréable, mais se montrer injuste par ignorance est sans doute pire.
Attention, le manuscrit a été mal corrigé:
« Être capable de lire et de comprendre un texte malgré des fautes de frappe et des erreurs, souvent s’en même s’en rendre compte, est quelque chose que nous faisons tous les jours, et c’est un gage d’efficacité. »
Sans même vous en rendre compte, vous illustrez combien mon cerveau est inefficace! Sniff…
Ce n’est pas Daniel Kahneman qui a fait l’étude célèbre sur le gorille invisible, mais ce sont Daniel Simons et Christopher Chabris (https://journals.sagepub.com/doi/abs/10.1068/p281059).