Léa

Penser est futile : pourquoi les gens sont si irrationnels

Connaissez-vous l’heuristique d’ancrage ? L’illusion de la dinde ? Peut-être l’effet Barnum ou Halo ? Ces phénomènes et bien d’autres expliquent pourquoi nous prenons des décisions irrationnelles alors que nous sommes convaincus de penser de manière totalement rationnelle. Ces termes décrivent des distorsions cognitives typiques : des pierres d’achoppement mentales qui nous conduisent sur une glace glissante lors de l’évaluation de situations, de personnes ou de risques et font obstacle à une action rationnelle.

Un exemple d’heuristique d’ancrage est la réduction des prix dans les boutiques en ligne : notre cerveau ne voit que l’ancien prix, souvent barré, comme référence, fixe une « ancre » et l’utilise pour mesurer l’attractivité du nouveau prix – même s’il est complètement arbitraire. L’illusion de la dinde est une mise en garde contre la projection d’expériences subjectives du passé vers le futur. Chaque jour, le fermier apporte de la nourriture à la dinde. La dinde le considère donc comme son meilleur ami – jusqu’à Thanksgiving. Les auteurs d’horoscopes utilisent l’effet Barnum : il décrit la tendance à se raconter des déclarations totalement hors de propos (faites attention à vos rêves !). Et l’effet de halo fait référence à la tendance à considérer les personnes sympathiques comme intelligentes ou particulièrement sociales.

Au total, plus de 50 distorsions cognitives sont enregistrées. Les humains peuvent en principe être des créatures rationnelles, mais dans de nombreuses situations, le module rationnel échoue et le soi-disant bon sens prend le dessus. Le cerveau prend des raccourcis et évalue le monde de manière intuitive. De telles heuristiques sont souvent efficaces, mais échouent facilement lorsque l’expérience quotidienne atteint ses limites, par exemple lors de l’évaluation des risques statistiques ou lors d’événements complexes comme une pandémie ou le changement climatique.

A lire :  Pepper, le robot qui a du ressenti

Ce qui nous amène à Donald Trump.

La psychologie cognitive devrait en fait être éternellement reconnaissante envers l’ex-président des États-Unis et ses fans. Des générations d’étudiants trouveraient ici du matériel pour leurs mémoires de maîtrise, car il est rare que des faisceaux entiers de distorsions cognitives s’alignent aussi joliment. Lorsque nous nous demandons comment il se peut que l’homme autrefois le plus puissant du monde raconte de façon chronique des conneries complètes, l’effet Dunning-Kruger nous aide en premier. Il affirme que l’auto-évaluation de ses propres compétences et capacités réelles est parfois inversement proportionnelle. Pour le dire de manière plus populaire : les plus grands piliers pensent qu’ils sont particulièrement bien informés sans même commencer à comprendre l’étendue de leur propre ignorance. Cet effet entre en jeu, par exemple, lorsque les gens recommandent avec audace l’eau de Javel comme gargarisme contre le coronavirus ou parlent d’arbres qui explosent dans les villes forestières d’Autriche. Le biais des angles morts protège contre les sentiments de doute de soi : l’aveuglement face à sa propre incapacité, combiné à la conviction qu’il faut toujours penser de manière rationnelle.

Le fait que les partisans de Trump croient volontiers même aux histoires et aux récits de conspiration les plus absurdes peut également être illustré à l’aide de distorsions. L’effet de vérité repose sur le fait qu’il suffit de répéter les affirmations suffisamment souvent pour qu’elles soient considérées comme vraies. La répétition établit l’acceptation, qui est exploitée par les stratèges des relations publiques ainsi que par les partis et les personnes qui proclament constamment qu’une élection leur a été volée.

A lire :  Brièvement demandé

L’effet suivant est particulièrement important en période de bulles de filtres : le biais de confirmation. Nous avons tendance à prêter attention aux informations qui confirment notre opinion et à ignorer celles qui la contredisent. Inconsciemment, les informations qui soutiennent les croyances existantes sont préférées. Cela devient problématique lorsque l’on ne traîne que dans des groupes dans lesquels sont échangées des pseudo-preuves en faveur d’une terre plate ou que Bill Gates a caché des micropuces dans les vaccins corona.

De plus, l’erreur de coût irrécupérable entre en jeu : vous vous accrochez ironiquement à une croyance si elle a été acquise au prix de beaucoup d’efforts. C’est pourquoi ceux qui propagent des histoires de complot chuchotent : lisez-le vous-même ! Pense pour toi même! Pose des questions ! Les interlocuteurs passent alors toute la nuit sur Internet et ne s’écartent plus de leurs opinions car sinon ils devraient admettre qu’ils ont perdu beaucoup de temps.

Ne parvenez-vous pas à surmonter les distorsions cognitives ? Plutôt non, encore moins avec des faits. L’effet retour de flamme ou boomerang est à blâmer : si vous essayez de réfuter un mythe du complot avec des preuves, cela renforce généralement la croyance dans le complot.

Tout ce que nous pouvons faire, c’est réaliser que, dans une certaine mesure, nous ne pouvons pas tous faire confiance à notre pensée.

Laisser un commentaire