Associations Libres

"Faut pas croire tout ce qu'on voit sur le web" – Einstein

Discuter d’une croyance… et la corriger ? Susannah Locke

Il n’y a rien de pire que de discuter avec quelqu’un qui refuse d’entendre la voix de la raison. Vous pouvez mettre autant de faits que vous voulez sur la table, il se contentera de s’enterrer plus loin encore dans ses croyances.

Cet article est une traduction de : How to debunk false beliefs without having it backfire

Dans les dernières décennies, des psychologues ont étudié pourquoi tant de gens sont comme cela. À ce qu’il s’avère, notre cerveau a des failles qui peuvent rendre difficile le fait de se rappeler d’un fait erroné qu’il l’est. Et tenter de débunker la désinformation peut souvent avoir l’effet inverse et renforcer la croyance. Le problème est pire encore lorsque les sujets abordés portent une charge émotionnelle – comme les vaccins ou le réchauffement climatique.

Alors, comment peut faire réellement changer quelqu’un d’avis ? J’ai été discuter avec le Pr Stephan Lewandowsky, un psychologue de l’université de Bristol et co-auteur du Debunking Handbook pour en savoir plus.

Susannah Locke : Il y a des preuves qui montrent que lorsque les gens s’accrochent à des faits erronés, ce n’est pas simplement de l’obstination – mais en fait une sorte de bug du cerveau. Pourquoi est-il si difficile de changer l’esprit des gens ?

Stephan Lewandowski : Ce n’est pas une tache facile de mettre à jour la mémoire de quelqu’un. C’est un résultat très clair qui s’avère vrai même pour des choses complètement anodines : notre appreil cogbitif a un problème fondamental lorsqu’il s’agit de modifier ce qu’on a dans la tête.

Ce que des gens ont suggéré – et dont je pense que c’est ce qui se passe – est que les gens se rappellent bien de l’information et qu’ils y attachent une étiquette « non, ce n’est pas ça ». Et le problème est que souvent cette étiquette peut être oubliée. Donc vous vous rappelez de l’information, mais pas du fait qu’elle est fausse.

Bon, une des façons de surmonter cela est de dire aux gens non seulement que quelque-chose est faux, mais aussi de leur dire ce qui est vrai. Une information alternative rend plus ffacile la modification de la mémoire.

Lors d’une étude devenue classique, on a dit à des gens qu’il y a eu le feu dans un hangar et que de la peinture à l’huile ou d’autres matériaux inflammables ont été trouvé dans un local électrique. Puis, plus tard, on leur dit qu’en fait le local était vide. Et si c’est tout ce que vous faites, les gens vont continuer à penser qu’il y avait de la peinture à l’huile dans le local. Se contenter de simplement dire que quelque-chose n’est pas vrai ne suffit pas.

Mais, si à la place, vous dites que le local était vide et que l’on a trouvé des chiffons imbibés d’essences ailleurs, alors les gens oublient le local car ils ont une explication alternative à l’incendie. Vous avez besoin d’une alternative pour que les gens puissent se débarrasser de l’information initiale.

Susannah Locke : Qu’est ce que les gens font le plus souvent mal lorsqu’il s’agit de faire changer les gens d’avis ?

Stephan Lewandowski : À partir du moment où vous abordez des situations qui sont chargées émotionnellement, qui sont politiques, qui sont des choses qui affectent les croyances fondamentales des gens – alors vous commencez à avoir des problèmes. Parceque ce qui risque d’arriver est qu’ils s’enferment dans leur croyance encore plus profondément et soient encore plus convaincues par des fausses informations.

Ce que l’on appelle « effet retour de flamme » peut survenir et ensuite les croyances sont encore plus ancrées.

Susannah Locke : Comment peut-on empêcher l’effet retour de flamme ?

Stephan Lewandowski : C’est très difficile. Ces choses font souvent parties de notre identité culturelle et de la façon dont nous concevons le monde. Et il faut prendre cela en compte et encourager doucement les gens à se départir de leurs croyances. Mais c’est un processus difficile.

Une solution est de commencer par donner aux gens une opportunité de réaffirmer leur croyance de temps en temps. Parlons des armes de destruction massive en Irak. Elles n’existent pas, non ? Après que l’Irak ait été envahi, personne n’en a trouvé. Et pourtant je pense qu’aujourd’hui environ 30 % du public croit encore à leur existence et avec une ligne de démarcation très nette entre bords politiques.

Si vous prenez des républicains et que vous les emmenez dans un labo pour leur dire qu’il n’y avait pas de ces armes en Irak, cela risque de renforcer leur croyance. C’est exactement l’étude que nous avons faite.

Il y a des preuves qui montrent que vous pouvez éviter cela si vous demandez aux gens de vous parler d’une occasion où ils étaient parfaitement à l’aise avec leur croyance en la libre entreprise (ou n’importe quelle autre chose importante pour cette personne). Alors seulement ils deviennent plus réceptif à un message correcteur.

Et la raison est que c’est moins menaçant dans ce contexte. Basiquement, je me mets à l’aise avec la façon dont je vois le monde, et alors à ce moment je peux supporter la contradiction car ça ne menace pas fondamentalement mon point de vue.

Une autre façon est d’avoir un messager qui parage vos idées : vous prenez un libéral pour parler aux libéraux et un conservateur pour parler aux conservateurs.

Susannah Locke : Les psychologues se sont-ils complètement débarrassé du modèle du déficit d’information – l’idée que l’on peut faire changer quelqu’un d’avis en lui donnant des informations correctes ?

Stephan Lewandowski : C’est un problème nuancé. Il y a quelques années, les gens disaient en gros que ce modèle était mort – en gros c’est un problème de culture. Mais je pense qu’il s’agit là d’une sur-simplification.

C’est une combinaison de deux facteurs. La culture est extrêmement importante, mais il est aussi vrai que dans certaines circonstances, fournir la bonne information est bénéfique. C’est ça : plus d’information permet aux gens de se rendre compte de ce qui se passe.

Après, le truc c’est qu’il faut que vous donniez aux gens l’opportunité de traiter l’information en profondeur. Si vous avez, par exemple, une salle de classe où les gens sont forcés de rester assis et de se concentrer, alors plus d’information est utile. On a de nombreuses preuves de ça en psychologie de l’éducation.

Mais le problème se pose dans le cas de situation de tous les jours, quand les gens écoutent la radio ou sont en train d’avoir une discussion de comptoir – alors le modèle de déficit d’information ne joue plus. Et, en gros, simplement balancer plus d’informations aux gens les fait décrocher. Dons il faut faire attention lorsqu’on évoque les discours publics que sont la radio, la télé ou les médias.

Susannah Locke : Disons que je passe mes vacances en famille et que j’ai un oncle qui ne croit pas au changement climatique. Comment est-ce que je peux le faire changer d’avis ?

Stephan Lewandowski : C’est difficile mais il y a quelques choses que je peux suggérer. La première est de donner à la personne le temps d’exprimer sa croyance. Affirmez que ce ne sont pas des idiots, des zozos ou des fous – qu’elle ne se sente pas attaquée. Et ensuite tentez de présenter l’information d’une façon qui ne rentre pas trop en conflit avec sa vision du monde.

L’un des problèmes sur lequel j’ai travaillé est justement l’attitude des gens sur le réchauffement climatique. Pour un bon nombre de personnes, à partir du moment où ils entendent les mots « réchauffement global », elles se braquent. Mais il y a des façons de contourner ça. Par exemple, il a été montré que si vous montrez les conséquences sur la santé de ce changement ou si vous présentez des solutions impliquant le marché, cela menace moins leur vision du monde.

Si vous dites aux gens qu’il y a une écrasante majorité de 97 % des climatologues qui s’accordent sur la notion de réchauffement anthropique global, il semble qu’il y ait une croyance liée aux « gardiens de la connaissance » qui permet aux gens de reconnaître l’importance du problème.

Dans la majorité des cas, c’est efficace avec les gens qui sont idéologiquement disposés à rejeter ce problème comme étant un fait. En général, les gens sont très sensibles à ce qu’ils perçoivent comme étant l’opinion majoritaire autour d’eux.

Susannah Locke : Si vous présentez trop d’information aux gens, sont-ils plus susceptibles de rejeter votre position ?

Stephan Lewandowski : C’est assez nuancé et cela dépend du temps que les gens sont prêts à investir pour réfléchir à ces informations. Si les gens s’assoient avec l’intention d’écouter et d’essayer de démêler le problème, alors il n’y a rien qui nous laisse penser qu’un effet retour de flamme monstrueux soit à prévoir.

Cependant, il y a de nombreuses preuves que dans un contexte informel – devant une télé allumée ou quelque-chose comme ça – vous risquez de diluer votre message si il contient trop d’information. Ce problème de la surcharge d’information est d’autant plus critique que le contexte est informel. Et c’est toujours à prendre en compte.

La plupart des recherches sur la désinformation ont mimé ces situations informelles. Les gens s’assoient simplement et lisent quelque-chose comme un article de journaux, et c’est comme ça que survient l’effet retour de flamme et que les gens s’ouvrent à la désinformation.

Susannah Locke : Qu’en est-il de « l’effet de familiarité », lorsque le simple fait de mentionner une fausse information fait que les gens s’ accrochent encore plus ?

Stephan Lewandowski : Jusqu’à il y a encore deux ou trois ans, j’aurais supposé qu’il existe. Maintenant, on commence à se dire que ce n’est pas si robuste que ça. Nous avons eu beaucoup de difficultés à essayer de le reproduire.

Il se produit de temps en temps, et d’autre fois non. J’ai tendance à penser que ça risque de s’avérer assez peu fréquent.

Susannah Locke : Quelle est votre expérience favorite montrant la difficulté du débunking ?

Stephan Lewandowski : Une des études que j’aime beaucoup est celle que j’ai conduite sur la guerre d’Irak qui a été publiée en 2005. Ce que nous avons fait était d’observer des gens à qui étaient soumis des informations sur la guerre et les armes de destruction massive. Nous avons mené l’étude dans 3 pays (États-Unis, Allemagne et Australie) au même moment.

Et ce que nous avons découvert est que les américains qui savait que tout cela était faux continuaient à y croire – ce qui n’a aucun sens. Nous disions « voilà une information » et nous leur demandions si ils savaient qu’elle avait été réfutée. Et une minute plus tard, on leur demandait si il croyait à cette information, et c’était le cas. Mais pas pour les allemands ni les australiens.

Bon, à première vue, cela pourrait laisser penser qu’il y a quelque-chose de bizarre chez les américains comparé aux deux autres nationalités. Mais ce qui est intéressant, c’est que ce n’est pas du tout le cas. Ce qui déclenchait cet effet était le scepticisme [sur les raisons ayant conduit au fait que la guerre soit déclarée].

Il s’est avéré que lorsque nous demandions aux gens si ils pensaient qu’à l’époque la guerre avait été déclarée pour aller chercher des armes de destruction massive, cela permettait de prédire si oui ou non ils allaient continuer à croire des choses fausses.

Lorsque vous prenez cet élément en compte, les différences entre australiens, allemands et américains disparaissent, il y avait cet variable cognitive sous-jacente. Il s’avérait juste qu’il y avait beaucoup plus de sceptiques en Allemagne et en Australie.

Susannah Locke : Comment la compréhension de la psychologie du débunking a-t-elle évoluée depuis que vous avez commencé à l’étudier ?

Stephan Lewandowski : Au cours des dix années que j’ai passé à travailler dans ce domaine, le rôle du point de vue culturel et de l’identification des gens à leur propre culture a été de plus en plus pris en compte. Et, dans le même temps, nous nous sommes rendus compte que le scepticisme est très important.

Les gens sont sceptiques envers les motivations de ceux qui leur disent quelque-chose – c’est très important et assez nouveau.

Une autre chose qui a émergé de plus en plus au cours du temps est l’existence de l’effet retour de flamme – que si vous dites une chose à des gens, ils croiront le contraire. Cette découverte semble très robuste.

Susannah Locke : Avez-vous vu des gens changer leur message en réponse à ces nouvelles recherches ?

Stephan Lewandowski : Le précis de réfutation [lien vers la version française sur le site du Cortecs, NDT]– il a été téléchargé au moins un demi million de fois. Donc le message se répand je pense. J’ai vu de nombreuses références à ce manuel, et je pense que des gens dans les médias sont maintenant conscients de la difficulté qu’il y a à retirer une information du discours public.

Je suis vaguement optimiste sur le fait que ces recherches aient un impact. Et vraisemblablement, si on en arrive aux gouvernements et grandes organisations, je crois qu’ils commencent à avoir un peu de jugeote sur ce qu’ils disent et la façon dont ils le disent, en partie du fait de ces recherches.

Susannah Locke : Y a t il autre chose d’important que les gens devraient savoir ?

Stephan Lewandowski : Une des choses que je voudrais mettre en avant est qu’il est très important pour les gens de rester sceptiques et d’anticiper le fait que des gens vont tenter de mentir au public. Certaines des désinformations actuelles ne sont pas accidentelles. Je pense qu’une part notable est introduite dans le discours public afin d’obtenir des effets politiques. C’est mal, mais efficace.

Ce que nos recherches montrent, c’est que si les gens sont au courant de la possibilité qu’on ait pu leur mentir, alors ils sont plus susceptibles d’accepter les corrections ultérieures.

Un commentaire sur “Discuter d’une croyance… et la corriger ? Susannah Locke

  1. rthems
    17 juillet 2016

    Bonjour,
    voici les fautes que j’ai identifiées dans le texte :

    « Alors, comment peut faire réellement » => peut-on]

    « notre appreil cogbitif a un problème fondamental  » => cognitif

    « et dont je pense que c’est ce qui se passe » la formulation n’est pas terrible, « avec lesquels je suis d’accord » ? la phrase anglaise n’a pas véritablement de traduction en français mais il s’agit bien d’une suggestion 😉

    « rend plus ffacile  » un f en trop

    « un messager qui parage vos idées » => partage

    « Dons il faut faire attention » => Donc

    « simplement et lisent quelque-chose comme un article de journaux » ne serait-ce pas plus correct :« un article de journal » ?

    « Au cours des dix années que j’ai passé » il ne faut pas accorder « passé » avec « dix années » ?

    « nous nous sommes rendus compte que le scepticisme est très important. » => {était très important} ou {nous nous rendons compte}

    J’aime

Laisser un commentaire

Information

Cette entrée a été publiée le 5 Mai 2016 par dans Débutant, et est taguée , .