Associations Libres

"Faut pas croire tout ce qu'on voit sur le web" – Einstein

Ces biais cognitifs que votre médecin devrait connaître. John Byrne

Les biais cognitifs sont des erreurs systémiques qui prédisposent notre pensée à adopter un point de vue plutôt qu’un autre. La méthode scientifique a été développée, en plus d’autres raisons, pour contrer ces biais afin d’obtenir des connaissances objectives.

Cet article est une traduction de : Cognitive Biases

Les biais sont souvent le résultat d’utilisation de raccourcis de la pensée, appelés heuristique. De tels raccourcis nous permettent de prendre des décisions rapides concernant des problèmes néanmoins complexes en suivant des règles approximatives et instinctives. Pour utiles qu’elles soient en de nombreuses situations (comme par exemple pour déterminer l’humeur de quelqu’un que vous venez de rencontrer) les heuristiques peuvent nous égarer. De nombreux problèmes devraient être examinés avec attention et recul, or, lorsque nous cédons à nos heuristiques rapides de la pensée, nous finissons souvent par agir en fonction de nos biais.

Le site de l’Institut National pour la Santé indique que ces biais sont… « des façons de voir partielles ou préjudiciables qui affecte l’interprétation d’un problème. »

« En recherche clinique, un biais est un facteur systémique plutôt que l’intervention d’un intérêt qui affecte la magnitude (c’est à dire qui tend à faire augmenter ou décroître) une différence observée entre les résultats d’un groupe suivant un traitement et le groupe contrôle. »

« Les biais diminuent la justesse ( mais pas forcément la précision) d’une observation. »

Nous ne jugeons pas rationnellement les nouvelles informations, du moins pas aussi rationnellement que nous aimons à le penser. La façon dont nous voyons le monde est différent de ce que le monde est en réalité.

Nous développons des modèles du monde dans notre esprit qui sont cohérents avec nos points de vue sur lui et nous-même. Les informations qui entrent en conflit avec notre vision interne du monde et ce que nous pensons de nous-même créent le sentiment désagréable appelé dissonance cognitive. Et nos biais nous empêchent de recevoir ces nouvelles informations objectivement : ils nous aident à préserver notre image mentale du monde et celle que nous nous faisons de nous-même.

Les psychologues ont identifié de nombreux biais cognitifs, ils entrent en jeu dans notre pensée quotidienne. Les docteurs sceptiques gagneraient à se familiariser avec eux, la liste ci-dessous n’est pas complète mais sont importants pour comprendre les sources d’erreurs inhérentes à notre réflexion.

Une liste plus exhaustive peut être trouvé sur Wikipedia.

Le biais de confirmation :

Le biais de confirmation est la tendance que nous avons à ne chercher ou à interpréter que les informations d’une façons qui confirme nos préconceptions, tout en ignorant celles qui ne les supportent pas. Nous avons discuté de cela dans la section What is Science.

Il est naturel de ne chercher que les données qui soutiennent nos idées car nous nous y attachons émotionnellement.

Nous expérimentons des dissonances cognitives lorsque nous nous trouvons en présence de preuves qu suggèrent que nos idées sont fausses, ce qui est une expérience déplaisante. Nombreux sont ceux qui évitent cette possibilité en ne recherchant que les informations allant dans leur sens. En d’autres mots, ils oublient le critère de réfutabilité de Popper.

Le biais de confirmation est le carburant de nombreuses affirmations. Un simple exemple est cele qui veut que les urgences sont plus occupées les nuits de pleine Lune. Bien des gens tiennent cette affirmation pour vraie et comme allant de soi, allant jusqu’à jurer sur leur expérience personnelle.

Cependant, cette affirmation n’est pas supportée par les preuves. En fait, les preuves la contredisent, de la même façon qu’il n’y a pas d’augmentation mesurable des suicides à la cette époque.

Donc l’affirmation se révèle être un mythe (appelons-le le Mythe de la Pleine Lune), mais pourquoi est-il si répandu dans la culture populaire ?

Une fois qu’une idée telle que le Mythe de la Pleine Lune devient connu, un certain nombre de personnes travaillant aux urgences auront tendance à se souvenir plus spécifiquement de tous les événements se passant durant les nuits de pleine Lune. Et les urgences sont des endroits où des choses très inhabituelles arrivent tout le temps.

Les partisans du mythe pourraient bien aller au travail en se disant « Oh non, Il y a la pleine Lune ce soir, ça va encore être une nuit infernale. » Et une telle pensée peut conditionner cette personne à se rappeler des événements ayant lieu ces nuits-là, tout en oubliant tout ce qui se passe aussi les nuits « normales ».

Les médecins peuvent avoir des ennuis en se reposant sur certains traitements avec lesquels ils ont eu quelques « succès » précédemment. Un praticien pourrait avoir prescrit un jour un traitement controversé (et potentiellement dangereux) à un patient présentant certains symptômes. Les symptômes peuvent avoir disparu pour une raison X ou Y et le patient remerciera tout de même le praticien pour le travail bien fait.

Ce dernier continuera donc à prescrire le traitement aux autres patients présentant les même symptômes, si quelques uns se sentent mieux et remercie de la même façon le médecin, qui aura tendance à se rappeler de ces cas avec fierté, tout en oubliant les patients s ‘étant plaint que leur état ne s’améliorait pas ou que les effets secondaires étaient trop importants.

La phrase « se souvenirs des succès, oublier les échecs » décrit l’essence du biais de confirmation. Les chercheurs doivent donc toujours employer au maximum l’aveuglement afin de réduire le biais de confirmation au maximum : si les données sont collectées sans que la personne qui les reccueille ne soit en mesure de dire si la variable testée est présente ou absente, alors elle n’aura aucune raison d’accorder plus d’importance à une partie de la donnée qu’à une autre.

Les médecins sceptiques devraient donc toujours faire attention à ne pas se reposer sur les souvenirs qu’ils ont de leurs expériences passées.

Un concept proche est celui de la Théorie de l’Exposition Sélective qui consiste en :

  • la perception sélective (tendance qu’on nos attentes à modifier nos perceptions – si ils sont confrontés à des données rebutantes, les gens n’y font pas attention ou les déforment pour les faire correspondre à leurs attentes)

  • l’exposition sélective (les gens veillent à ne pas communiquer avec le parti adverse)

  • la rétention sélective (les gens oublient purement et simplement les informations rebutantes).

Le biais de sélection :

Le biais de sélection est une distorsion des preuves ou des données qui émerge de la façon dont nous les collectons ou de la façon dont les échantillons étudiés sont choisis. Cela est particulièrement important dans les études médicales.

Par exemple, si quelqu’un désire étudier les effets d’un  »complément régime » sur l’embonpoint, il est possible que l’on recrute des volontaires en communiquant à travers des publications liées au sport et/ou aux régimes. Si 100 personnes se manifestent pour participer volontairement à l’étude et que l’on choisit comme groupe contrôle 100 étudiant de l’université où se déroule l’étude, alors le scénario sera fondamentalement biaisé en faveur d’un résultat positif.

Ceci s’explique par le fait que les deux groupes ne sont pas comparables : on peut facilement prédire que le groupe test aura de bien meilleurs résultats en terme de perte de poids, ce dernier étant composé de gens pour qui c’est une préoccupation pré-existante. Si elle devait exister, cette étude serait totalement inutile.

Cela semble assez évident mais de nombreuses pratiques ont bénéficié du soutien d’études entachées de biais de sélection.

Les chercheurs doivent utiliser des groupes randomisés afin de réduire le biais de sélection. En attribuant au hasard les participants aux groupe test et contrôle, le biais de sélection est moins susceptible de jouer.

Le biais de publication :

Le biais de publication joue sur le système de publication des journaux scientifiques : ces derniers sont plus susceptibles de publier des études positives, plutôt que des résultats négatifs. Les résultats positifs sont vus comme étant plus susceptibles d’attirer un lectorat et de faire augmenter les ventes du journal.

Elles sont également considérées comme étant plus attractives pour les grands médias généralistes, tandis que les études ne montrant pas d’effet (ou des effets négatifs), se seraient pas aussi intéressantes.

De manière intéressante, John PA Ionnadis, a souligné dans Pourquoi la majorité des études publiées sont fausses que « dans la plupart des conceptions et mise en place des études, il est plus probable que l’affirmation étudiée soit fausse plutôt que vraie. De plus, dans de nombreux champs de recherche actuels, les découvertes annoncées pourraient bien souvent être simplement de très bonnes mesures des biais pré-existants. »

Donc, non seulement des facteurs comme les biais de confirmation et de sélection contribuent potentiellement à fausser les résultats négatifs, mais les faux positifs résultants sont plus susceptibles d’être publiés.

Une étude de 2000 du BMJ a scruté 48 revues systématiques de la fondation Cochrane et affirme que « 26 (54%) d’entre elles avaient oublié des études et dans 10, le nombre d’études manquantes était significatif. »

Par conséquent, le problème est particulièrement prévalent dans la science médicale, un outil très utile pour mettre cela à jour est le  »graphique en entonnoir » (voir Détecter le biais de publication).

Le biais de publication peut être vu comme une forme du biais de sélection de la part des éditeurs. Il présente faussement des données à la communauté scientifiques qui sont biaisées en faveur d’un effet, au lieu de présenter l’ensemble des données disponibles, – qui, prises dans leur ensemble peuvent ne montrer qu’un effet réduit, voire pas d’effet du tout.

Récemment, des responsables éditoriaux de journaux ont appelé les chercheurs à enregistrer publiquement leurs études (et leur conception) avant de les conduire. Cela permettrait à la communauté scientifique d’accéder à toutes les recherches pertinentes dans un domaine.

C’est aussi en lien avec « l’effet tiroir », dans lequel les chercheurs tendent à laisser les études négatives « dormir dans le classeur à dossier » alors qu’il vont promouvoir les études positives confirmant leurs idées préconçues et ayant de plus grandes chances d’être publiées.

Autres biais notables :

Le biais d’ancrage : décrit la tendance qu’ont les humains à trop se reposer sur les premières informations reçues (l’ancre) lors de prises de décisions.

Nous sommes largement influencés par les premières informations reçues sur une question. Par exemple : on nous demande si nous envisagerions de payer 50€ pour un objet XY, puis on nous informe que l’objet en question vaut en fait 35€. Nous avons alors tendance à penser que l’objet est une affaire car tout ce que nous avons comme élément de comparaison est le 50€ de départ.

Des études ont montré que l’ancrage peut survenir même lorsqu’un concept sans aucun rapport est présenté avant la présentation du problème.

Dans son livre Prévisiblement irrationnel : les forces cachées qui modèles nos décisions, Dan Aierly décrit une expérience maintenant classique : on fait inscrire à des étudiants les deux derniers chiffres de leur numéro de sécurité sociale, puis on leur demande d’enchérir sur des objets comme à une vente aux enchères.

Les chiffres inscrits ont agi comme une ancre sur leurs enchères : ceux qui avaient les chiffres les plus bas faisaient les enchères les plus faibles et ceux avec les plus hauts faisaient les plus fortes.

Cependant, lorsqu’on les interrogeaient, les étudiants niaient que lesdits chiffres aient pu avoir la moindre influence sur leurs actions.

Ce biais influe sur les décisions médicales bien plus que les médecins veulent bien l’admettre : prenez un patient allant consulter un spécialiste car il pense souffrir de la maladie X, ce dernier peut ne pas considérer d’autre alternatives (peut-être plus probables) car le patient lui aura déjà présenté la chose comme étant « la maladie X ».

Le biais d’attribution : erreur systémique faite lorsque les gens évaluent un comportement ou tente de lui trouver une raison (qu’il s’agisse du leur ou de celui d’une tierce personne).

Les gens tendent à attribuer leurs succès à leur propres capacités plutôt qu’aux circonstances, et de l’autre côté, ils font l’inverse pour les autres. On se dira « Je l’ai fait car je suis doué » et cependant « Il l’a fait car il a eu de la chance. »

Le revers est tout aussi vrai et on mettra ses échecs sur le dos des circonstances… et ceux des autres sur leur incompétence.

L’heuristique de disponibilité : estimer ce qui est le plus probable en fonction de ce dont on garde le plus de souvenir (ce qui est biaisé en faveur d’exemples frappants, inhabituels ou émotionnellement chargés). Cela conduit généralement à utiliser des preuves anecdotiques et des généralisations abusives comme arguments.

Si l’on prend comme exemple l’épidémie d’Ébola de 2014 en Afrique de l’Ouest, cette dernière avait fait l’objet d’une vaste couverture dans les médias et il s’agit d’une maladie effrayante sans réel traitement.

C’était un problème réel pour les nations africaines dotées de peu de moyens pour identifier et mettre en quarantaine les malades dans des délais efficaces et les médias se sont fait l’échos de centaines de décès. Quelques rares personnes ont été diagnostiqués aux États-Unis après avoir voyagé en Afrique.

Le public, médecins compris, en entendait parlait constamment et le résultat fut que lorsque des gens se présentaient en consultation avec de la fièvre à cette époque, la prise en compte d’Ébola comme étant une cause possible était vue par certains comme étant bien plus probable que d’autres maladies qui étaient pourtant infiniment plus plausibles.

La disponibilité de l’idée d’Ébola à travers la forte exposition dans les médias a fait que de nombreux patients et soignants donnaient beaucoup plus de poids à cette hypothèse qu’elle n’en avait en réalité.

La cascade de disponibilité : un processus auto-entretenu dans lequel une croyance collective gagne de plus en plus de plausibilité auprès du public au fur et à mesure de sa répétition (parfois formulée comme « il suffit de répéter suffisamment quelque-chose pour que cela devienne vrai »).

Le mouvement anti-vaccin est un bon exemple de cela : la peur des vaccins fut relancée par un article paru dans le Lancet avant d’être retiré. Rapidement, de grandes figures médiatiques dissertaient sur les dangers des vaccins et des groupes se créaient pour faire passer le mot (ce qu leur valu à leur tout l’attention des médias).

Même après que d’innombrables études aient réfuté les soit-disant dangers des vaccins, l’hystérie a continué à grandir et se trouve encore largement « disponible » pour les nouveaux parents, qui refusent donc les vaccins à leurs enfants.

Le biais d’endogroupe :notre tendance à faire (ou croire) des choses parce que de nombreuses personnes autour de nous font (ou croient) la même chose. C’est un biais en lien avec la pensée de groupe et l’instinct de horde.

Dans les années 1990, on suspectait que le vitamine E puisse aider à faire baisser le risque d »attaque cardiaque en raison de ses effets anti-oxydants. L’effet était plausible et des études furent commanditées pour savoir si il était effectivement présent.

Il devint donc commun que le médecins prescrivent de la vitamine E à leurs patients car cela semblait raisonnable, la pratique se généralisa donc et fut même promue à la télévision. Depuis ce jour, de nombreux patients viennent en consultation avec l’espoir de se voir prescrire ce médicament.

Cependant… les études ne soutiennent pas cette mode. Deux décennies et des dizaines de milliers de patients ont échoué à faire la démonstration d’un bénéfice mesurable. Et il y a un risque potentiel car ces prescriptions ont été associés avec un risque accru de cancer de la prostate. Malgré cela, de nombreux praticiens semblent persister à recommander la vitamine E et elle est toujours largement promue par les entreprises la vendant.

L’effet Duning-Kruger : tendance qu’ont les individus non-qualifiés à surestimer leurs capacités, et paradoxalement la tendance qu’ont les individus compétents à sous-estimer les leurs. L’incompétence empêche de reconnaître ses propres limites et tandis que le niveau de qualification augmente, on est de mieux en mieux à même de les cerner.

Dans leur article de 1999, Dunning et Kruger ont mis cet effet en évidence.

En médecine, on s’y retrouve souvent confronté lorsque des personnes avec peu d’expériences en recherches médicales se convainquent d’une proposition (comme le danger des vaccins et des OGM ou des vertus de la nourriture bio) parcequ’ils « ont fait leurs recherches » en tapant ces termes dans un moteur de recherche ou en lisant des articles dessus sur leur réseau social favori.

Il est difficile, même pour des chercheurs expérimentés, de faire le tri entre le bruit et l’information et d’interpréter de manière critique les données disponibles lorsque l’on se documente sur un sujet particulier. Ceux ayant le moins d’expérience peuvent n’avoir aucune idée d’à quel point ils ont tort et manquent des compétences nécessaires pour s’en rendre compte.

D’un autre côté, les chercheurs les plus expérimentés ont pu apprendre que toute preuve est provisoire et peuvent aussi tenir pour acquis par tous le difficile ensemble de talents nécessaire à l’évaluation de données.

Le biais d’expérimentateur ou biais d’attente : la tendance qu’ont les expérimentateurs à croire, certifier et publier les données qui s’accordent avec ce qu’ils attendaient du résultat d’une expérience et, à l’inverse, leur tendance à refuser, douter et sous-noter celles qui contrarient ces mêmes attentes.

C’est un biais qui s’intrique avec ceux vus plus hauts (confirmation, sélection et publication).

L’effet de faux consensus : tendance qu’ont les gens à surestimer le nombre de personnes qui sont d’accord avec eux.

Les gens ont tendance à faire trop confiance à leurs opinions s’ils pensent que « tout le monde sait ça ». En médecine, un docteur peut finir par avoir des problèmes en supposant que tous ceux qui sont impliqués dans un cas sont d’accord avec leur diagnostic/plan.

L’effet Hawthorne : tendance qu’ont les gens à mieux réussir ou percevoir quelque-chose lorsqu’ils se savent observés.

Une erreur systémique potentielle dans la recherche vient de cet effet : les gens se comportent différemment lorsqu’ils sont au courant qu’ils font partie d’une étude. Si l’on désire s’intéresser aux effets d’un médicament sur l’arrêt du tabac, les participants seront plus susceptibles d’effectivement arrêter de fumer juste parce qu’ils savent qu’on les observe, que le médicament soit efficace ou non.

Pour pallier à cela, les participants doivent être randomisés au sein d’une étude en double aveugle entre un groupe test et un groupe placebo.

Seule la différence nette, s’il en existe une, entre les deux groupe sera à attribuer au médicament.

L’instinct de horde : tendance commune à adopter les opinions et comportements de la majorité pour se sentir plus à l’aise et éviter les conflits.

Une explication possible pour la prolifération de la Médecine Intégrative au sein des institutions médicales est cet instinct. On a tendance à ne pas regarder de trop près les affirmations dont nous percevons qu’elles sont largement partagées par ceux qui nous entourent.

De nombreuses institutions médicales ont créé de tels départements où d’improbables traitements « alternatifs » côtoient ceux basés sur les preuves et la science. Il existe peut-être d’autres raisons, comme le fait de maintenir la compétition avec d’autres institutions, mais il se pourrait bien que cet instinct soit ce qui empêche les établissements de questionner ce qui semble être un double standard.

Le biais de solidarité : tendance qu’ont les gens à allouer des traitements préférentiels à ceux qu’ils identifient comme faisant partie de leur propre groupe.

Lorsque l’on s’identifie émotionnellement à un groupe, on tend à prendre plus à cœur le fait qu’un de ses membres soit accusé ou menacé. En médecine, si un docteur est accusé d’erreur ou de négligence, on s’attend donc à ce que ses pairs soient plus susceptibles de rejeter les charges retenues contre lui sans étudier scrupuleusement les preuves.

De la même manière, si un compétiteur est accusé des mêmes malversations, on aura tendance à donner plus d’importance aux charges et preuves.

L’aversion à la perte : l’insatisfaction liée à la perte d’un objet est supérieure à la satisfaction de l’avoir acquise.

Nous sommes nombreux à préférer « double » plutôt que « quitte » lorsque nous parions, nous ne supportons pas de perdre quelque chose, même si cela signifie persister dans un comportement à risque en escomptant réduire ses pertes.

C’est ce que l’on observe dans les casinos : nombreux sont ceux qui continueront à jouer même lorsqu’ils ne cessent de perdre, du fait de l’aversion à la perte.

En médecine, on peut continuer à donner un traitement, même si ce dernier ne donne pas de bons résultats plutôt que d’admettre que l’on a pris une mauvaise décisions et essayer autre chose. La perte de « avoir raison » est probablement l’une des plus difficile à admettre (Cf Dissonance Cognitive)

Le biais d’omission : tendance à juger les actions néfastes comme pire, ou moins morales, que de toutes autant néfastes omissions (ou inactions).

Laquele est le pire ? Décider une action résultant en un préjudice ? Ou laisser passivement les choses se faire mais si l’on aurait été capable d’intervenir ?

Nous serons nombreux à penser qu’il est pire d’agir et de causer un tort même si le résultat pourrait être le même in fine.

Le biais d’omission est souvent démontré à travers le fameux « dilemme du tramway ».

Le biais de projection : la tendance à supposer inconsciemment que les autres partagent nos pensées, points de vues, croyances et positions.

C’est un biais lié au biais de faux consensus.

Le biais de récence :tendance à accorder plus de poids aux événements récents qu’aux anciens.

C’est un biais similaire à l’heuristique de disponibilité. Un médecin peut avoir rencontré des succès dans un passé récent avec un traitement particulier et pour un patient particulier. Même si cette stratégie n’a pas été la meilleure dans la majorité des cas, que ce soit dans un passé plus lointain ou dans les recherches faites sur le sujet, le docteur risque d’accorder à ce traitement une valeur plus forte que ce qu’elle mérite simplement du fait des récents succès.

Le biais de rétrospection heureuse : la tendance qu’ont les gens à juger les événements passés de manière plus positive qu’ils ne l’auraient fait sur le moment.

La prophétie auto-réalisatrice : tendance à avoir des comportement qui vont (consciemment ou non) valider nos croyances.

Le biais d’auto-promotion : tendance à revendiquer plus de responsabilité dans nos succés que dans nos échecs. Il peut également se manifester comme une tendance pour les gens à évaluer les informations ambiguës d’une façon qui sert leur intérêt propre.

Le réflexe de Semmelweis : tendance à rejeter les nouvelles preuves qui viennent contredire un paradigme établi.

Il a été montré dans une récente étude randomisée que la chirurgie arthroscopique dans le cas de ostéoarthrite du genou n’est pas plus efficace que des soins vigilants. Et malgré tout, la pratique continue. Le paradigme établi de la chirurgie arthroscopique soutient que cela fonctionne.

Les nouvelles preuves du contraire ont été rejetées par de nombreux chirurgiens orthopédiques, dont aucun n’était à l’origine d’études randomisées prouvant le contraire.

D’une certaine façon, cela semble prudent au premier regard : les affirmations extraordinaires demandent des preuves extraordinaires. Et si une affirmation vient contredire un paradigme établi, alors les preuves en sa faveur doivent être solides : avoir été revues par les pairs et répliquées.

Cependant, si les preuves en faveur de cette affirmation finissent par l’emporter, alors il faut abandonner l’ancien paradigme. Mais c’est un passage difficile pour beaucoup (pour de nombreuses raisons, allant des différents biais évoqués ici à la Dissonance Cognitive – une fois de plus).

Le stéréotypage : attendre d’un membre d’un groupe qu’il ait certaines caractéristiques sans avoir réuni d’informations à son sujet.

Le biais du survivant : notre tendance naturelle à sur-estimer les qualités et les vertus des survivants, tout en oblitérant les autres.

Imaginez une conversation entre un coiffeur et un client. Le client parle de son grand-père, fumeur et buveur invétéré qui travaillait dans une mine avant de partir à la retraite et de décéder à l’âge de 98 ans. « Tout ça montre bien que tous ces trucs qu’on vous dit sur boire et fumer c’est n’importe quoi, ce qui compte c’est de se lever le matin pour aller travailler dur, voilà ce qui garde la santé. »

Nous avons tendance à mieux nous rappeler des exceptions aux règles et à prendre leur qualités comme des raisons expliquant pourquoi la règle est fausse. Nous avons également du mal à prendre en compte les exemples typiques, comme tous les gens morts d’avoir trop bu ou trop fumé, car ils ne sont plus là pour que nous les voyons.

NDT : pensez également à tous les exemples de constructions/voitures/… dont on se dit « on savait construire à l’époque » en oubliant les milliers de ruines/épaves/… qu’il a fallu pour laisser ces quelques items en bon état.

Le biais du chevalier blanc : biais menant à des distorsions des informations basés sur des recherches en faveur de ce qui est perçu comme plus vertueux/moral.

Ce biais a été identifié par Cope et Allison en 2010 alors qu’ils cherchaient des articles sur les facteurs de risque d’obésité. Ils ont découverts des disparités dans la communication autour des études en faveur de pratiques qui semblaient plus morales que d’autres.

Par exemple, un biais de publication (cf plus haut) existait dans la comparaison entre allaitement et lait maternisé. Les études favorisant le premier tendaient à être plus publiés que celles montrant des effets moins favorables, peut-être parce que l’allaitement semble plus vertueux que d’autres pratiques.

La pensée magique : formations de croyances et prises de décisions en accord avec ce qu’il est plaisant d’imaginer plutôt qu’en faisant appel aux preuves ou à la rationalité.

Le biais du zéro-risque : préférence poussant à préférer la réduction d’un petit risque à zéro plutôt qu’une baisse d’un risque plus fort.

De nombreux parents vont préférer ne pas faire vacciner leur enfant du fait des risques perçus des effets secondaires. Même si de tels risques sont extrêmement faibles (et parfois virtuellement égaux à zéro en ce qui concerne certains mythes tenaces), ils préféreront tout de même éviter de vacciner.

Dans la réalité, les maladies infectieuses posent de grands risques au public et les vaccins les réduisent significativement… mais ils ne les réduisent pas à zéro. Des gens choisiront donc le « zéro risque » d’effets secondaires au risque bien plus grand de contracter une maladie évitable par un vaccin.


Les biais cognitifs faussent notre vision du monde, tout comme la dissonance cognitive, ils font partie intégrante de notre psychologie. Et si nous n’apprenons pas à le reconnaître lorsque nous y sommes confrontés, alors nous sommes plus sujets à l’erreur et les patients ne peuvent pas se permettre de consulter des praticiens qui ne feraient pas ce travail.

8 commentaires sur “Ces biais cognitifs que votre médecin devrait connaître. John Byrne

  1. leherte
    13 juillet 2016

    Super intéressant

    J’aime

  2. Zebezia
    13 juillet 2016

    La Tronche ont menti, ont peut vraiment tout expliquer avec la dissonance cognitive haha! Le pire c’est que je le crois presque^^

    Sinon, petite remarque et questionnement:

    « En médecine, on peut continuer à donner un traitement, même si ce dernier ne donne pas de bons résultats plutôt que d’admettre que l’on a pris une mauvaise décisions et essayer autre chose. La perte de « avoir raison » est probablement l’une des plus difficile à admettre (Cf Dissonance Cognitive) »

    Çà, c’est un cas particulier de dissonance cognitive (un piège abscons il me semble?), c’est l’engagement dans une décision qu’on a prise soi mème, et dont il est moins couteux cognitivement de rationaliser en se trouvant les fausses preuves (ou raisons pour lesquelles) que le traitement marche que d’admettre d’avoir eu tort et ne pas persévérer dans la décision.

    Je me suis fait la remarque a ce propos que tu as détaillé plus de choses que ce qu’on voit dans les listes de biais « habituelles », souvent je crois que les autres les oublies^^ mais pas seulement, certains je les ai plutôt vu classés « technique de manipulation » (simple biais de perception personnelle approximative?) . Justement, si on prends le cas de la théorie de l’engagement par exemple, en quoi le fait de s’être engagé tout seul est une « technique d’auto-manipulation » et non un biais cognitif? C’est pareil non? Donc le piège abscons est un biais? C’est quoi la différence si il y en a une?

    J’aime

    • Maeelk
      13 juillet 2016

      Hello, euh je ne suis pas certain de bien comprendre la question.

      Comme (du coup) je ne voudrais pas dire de bêtises et si vous avez un compte FB, je vous propose d’aller poster votre question sur « Psychologie et scepticisme scientifique » ici : https://www.facebook.com/groups/psychologie.et.scepticisme.scientifique/

      Et si vous obtenez une réponse qui vous satisfait, n’hésitez pas à venir la coller ici.

      Cordialement 🙂

      J’aime

  3. Sylvain57
    27 août 2016

    Merci pour votre article!
    Je me demandais si le biais de « publication » n’est pas (un peu) contradictoire avec le biais de « négativité » décrit dans l’article de George Dvorsky que vous avez traduit sous le titre « 12 biais cognitifs qui vous pourrissent la vie au quotidien » sur ce même site?
    Si j’ai bien compris, dans le premier cas on a tendance à privilégier ce qui fonctionne, ce qui est positif ; dans le second cas, on aurait plutôt tendance à s’attacher ce qui ne fonctionne pas, ce qui est négatif.
    Peut-être que le biais de publication concerne davantage l’image de soi-même que l’on souhaite montrer aux autres alors que le biais de négativité concernerait une image de soi que l’on préfère cacher aux autres… Cette explication vous semble-t-elle correcte?
    Merci d’avance pour votre éclairage.

    J’aime

    • Maeelk
      4 septembre 2016

      Hello,
      vous comparez un biais cognitif avec un biais « institutionnel », je ne pense pas que ce soit vraiment comparable.

      D’un côté on a « mon cerveau aime avoir raison » et de l’autre « mon éditeur préfère les résultats positifs », je ne pense pas que ça relève du même registre. 😉

      J’aime

      • Sylvain57
        4 septembre 2016

        C’est logique
        Merci 😉

        J’aime

  4. Pingback: Les biais de raisonnement | Kobus App

Laisser un commentaire

Information

Cette entrée a été publiée le 11 juillet 2016 par dans Intermédiaire, et est taguée , .