Les petites erreurs de notre cerveau décryptées dans un livre ludique et précis
Le monde a changé extrêmement rapidement en quelques millénaires. Trop rapidement pour nos méninges, qui peinent parfois à adapter leurs fonctionnements instinctifs à l'évolution de la société, et en particulier aux nouveaux modes de communications. Et si certains raccourcis - des heuristiques - de pensée restent utiles pour fonctionner au quotidien, nos raisonnements s'en trouvent souvent biaisés.
Il est donc nécessaire de connaître les limites de nos pensées pour les surmonter, entraîner son cerveau à mieux raisonner et ainsi éviter les pièges tendus par nos câblages ancestraux et les mécanismes sociaux. C'est tout l'objectif du livre publié par l'enseignant-chercheur en psychologie sociale à l'Université de Fribourg Pascal Wagner-Egger, spécialiste des croyances, en collaboration avec l'illustrateur et vulgarisateur scientifique Gilles Bellevaut.
L'ouvrage est publié aux éditions 41, rattachées aux presses polytechniques et universitaires romandes. Mais derrière un propos scientifique rigoureux, il se veut avant tout ludique et accessible au grand public. Les 30 biais décryptés sont à chaque fois accompagnés d'une explication scientifique sur leur fonctionnement et leur origine, mais aussi d'un dessin principal réalisé à la manière d'une caricature de presse, et d'une ou plusieurs anecdotes ou exemples concrets.
Conséquences potentiellement graves
Si le ton est léger, Pascal Wagner-Egger n'en sous-estime pas pour autant les conséquences potentielles. Car ces erreurs de jugements peuvent mener à des croyances néfastes pour la santé ou la société, voire à la radicalisation, aux sectes et aux drames concrets auxquels toutes ces choses peuvent mener. Des phénomènes d'autant plus visibles depuis l'arrivée d'internet et la libéralisation du marché de l'information, qui ont changé la donne en termes d'environnement informationnel.
Au point que le chercheur qualifie son livre de "musée des horreurs de la pensée humaine". "C'est une exagération, mais c'est pour attirer l'attention sur les conséquences parfois dramatiques", explique-t-il vendredi dans l'émission Médialogues de la RTS. "Un génocide, finalement, c'est une théorie raciste qui prend de l'importance dans une société".
"Toute forme de pensée extrême est liée à ces biais cognitifs et sociaux. Il y a aussi des biais sociaux, bien sûr, c'est multifactoriel. Mais des recherches scientifiques tendent à montrer que ces biais cognitifs seraient liés à certains phénomènes comme le racisme, le complotisme. Pendant la pandémie, on a vu les gens se radicaliser sur internet, sur les réseaux sociaux, avec ces biais cognitifs à l'oeuvre. Donc c'est important de garder un oeil dessus", détaille-t-il.
L'importance de la vulgarisation
La bonne nouvelle, c'est qu'il est possible d'entraîner son cerveau. Pascal Wagner-Egger fonde cet objectif sur l'hypothèse des deux vitesses de la pensée, popularisée par le psychologue Daniel Kahneman. L'hypothèse consiste à dire qu'il existe deux formes de pensée dans notre cerveau. Une première forme "très rapide et automatique, qui est parfois liée à des erreurs, car elle était prévue pour nous aider à survivre; et une autre qui est apprise, qui est beaucoup plus lente, qui demande des efforts, et qui amène à nous pencher sur notre pensée et ses mécanismes", résume le scientifique.
Dans cette optique, la vulgarisation joue un rôle prépondérant. C'est la mission du coauteur du livre Gilles Bellevaut, qui a contribué à la sélection des biais recensés dans l'ouvrage et qui en a réalisé les illustrations. Membre du Café des sciences, une association de vulgarisateurs et vulgarisatrices scientifiques, et de Kidi'science, qui cible plus spécifiquement les enfants, il souligne l'importance de cette activité pour "rétablir le contact avec le monde scientifique, qui a tendance à être décrédibilisé auprès du grand public".
"Le travail s'est fait en collaboration étroite", explique-t-il dans Médialogues. "Car ce n'est pas toujours évident de cerner tous ces biais et de les caractériser en un dessin. Surtout dans le style du dessin de presse, c'est assez complexe: en une image, il faut résumer pas mal d'informations!"
"L'intérêt du dessin est de pouvoir faire passer plus facilement certaines idées. Et avec humour, c'est encore plus efficace!", estime-t-il.
Le biais, grand influenceur des médias
La force des images, c'est d'ailleurs en partie l'objet de l'un des biais décrit dans le livre: l’effet du "caractère vivant de l'information", qui définit que l'on sera plus facilement influencé par des éléments concrets, comme des images ou des anecdotes personnelles, que par des éléments intangibles comme des statistiques ou des études scientifiques. Un biais qui concerne particulièrement les médias et les nouveaux modes de transmission que sont les réseaux sociaux.
Le biais de négativité est un autre exemple de distorsion de la cognition qui influence le fonctionnement des rédactions: les trains qui arrivent à l'heure sont moins intéressants que les trains en retard, eux-mêmes moins intéressants que les trains qui déraillent. "On accuse parfois les médias de donner trop de nouvelles négatives", explique Pascal Wagner-Egger. "Mais en réalité, c'est ce que nous on partage et ce qui nous intéresse comme êtres humains, dans les discussions quotidiennes. C'est assez explicable, c'est utile et nécessaire de savoir ce qui va mal, parce que c'est ce qu'on veut corriger."
>> Lire à ce sujet : Les déclarations négatives ont plus de chances de convaincre le cerveau humain
Tous ces biais sont issus d'une longue et lente évolution des câblages de notre cerveau, mais aussi de nos environnements et interactions sociales. Mis bout à bout, ils rappellent que l'être humain n'est pas si rationnel qu'il peut parfois le penser. Mais aussi qu'il est possible de les connaître et de les éviter afin de raisonner avec prudence pour prendre les meilleures décisions possibles. D'autant que la méthode scientifique - malgré ses imperfections - a été en partie développée pour contrer l'effet de ces biais, dans un effort collectif pour une connaissance qui soit un peu meilleure.
Texte web: Pierrik Jordan
Émission Médialogues: Antoine Droux
Le choix de Gilles Bellevaut: le biais du "point aveugle"
Sur les réseaux sociaux, on voit souvent dans les débats des arguments consistant à identifier les biais cognitifs chez l'adversaire. Un angle risqué, relève Gilles Bellevaut, qui cite le "biais du point aveugle" parmi les plus importants du livre. Au point que les deux coauteurs ont décidé de le placer en couverture.
Celui-ci est en réalité une sorte de "méta-biais" qui consiste, lorsque l'on connaît l'existence des biais cognitifs, à voir les erreurs de raisonnement chez les autres sans avoir conscience de ses propres failles. Or, "si on est dans une optique d'améliorer sa réflexion et de la rendre la plus objective et rationnelle possible, il est tout aussi intéressant de poser un regard sur ses propres mécanismes de pensée", rappelle le vulgarisateur.
Le choix de Pascal Wagner-Egger: le biais de "corrélation illusoire"
Interrogé sur le biais cognitif qui l'interpelle le plus dans l'ouvrage, Pascal Wagner-Egger cite le biais de "corrélation illusoire", qui réside dans le fait de voir un lien de causalité là où il y a un simple corrélation entre deux événements. Une erreur de pensée qu'il juge à la base de beaucoup de croyances ou de superstitions.
"Ce biais est intéressant, parce que des guérisons de toutes sortes sont basées dessus: vous êtes malades, vous faites une prière ou vous prenez une thérapie quelconque, et ensuite vous guérissez. Vous aurez forcément l'impression que ce que vous avez fait vous a guéri. C'est possible, mais ça peut aussi être une guérison naturelle, ou liée à plein d'autres causes. La seule manière de savoir vraiment, c'est la méthode scientifique, avec un groupe expérimental et un groupe contrôle. Mais notre cerveau n'a pas le temps de faire ça, donc on va tout de suite associer ce qu'on a fait à la guérison alors que, dans la plupart des cas, ce n'est pas vrai", détaille le chercheur en psychologie sociale.
Nostradamus, cas d'école
S'il est facile d'identifier des biais cognitifs en situation expérimentale, cette tâche est parfois bien plus complexe dans une situation réelle. Car plusieurs erreurs cognitives peuvent agir en même temps. Les fameuses "prédictions correctes" de Nostradamus, encore relevées récemment dans un article de Slate, sont un cas d'école d'une combinaison de différents biais.
Le fait de croire en ces prédictions combine ainsi un effet de corrélation illusoire avec une erreur de validation personnelle, ou "effet Barnum", qui nous pousse à nous reconnaître dans des descriptions générales vagues et ambiguës, et un biais du survivant, qui fait que nous sommes davantage frappés par les prédictions qui se réalisent et on oublie toutes les choses qui ne marchent pas.
Ainsi, comme le rappelle Everett F. Bleiler, cité par Slate, Nostradamus écrivait d'innombrables prédictions dans un langage volontairement vague, usant de "mots latins obscurs créant des possibilités de double sens", en "omettant les prépositions, les articles" et en "privilégiant l'infinitif". Tous les ingrédients sont réunis pour un cocktail dévastateur de biais cognitifs.