Associations Libres

"Faut pas croire tout ce qu'on voit sur le web" – Einstein

Les chercheurs ne valent pas mieux que vous…

… Mais un psychologue travaille activement à ce que ce ne soit plus le cas.

Quelquefois, il semble presque surprenant que la science puisse tout simplement fonctionner. En 2005, le monde des sciences médicales a été secoué par une étude au titre provocateur « Pourquoi la plupart des découvertes publiées sont fausses »(1). Écrit par Johan Ioannidis, professeur de médecine à l’université de Stanford, l’article ne pointait aucun résultat en particulier ; au lieu de ça, il montrait que les statistiques relatives à la publications de découvertes « positives » n’étaient pas cohérentes avec celles que l’on aurait attendues. Comme Ioannidis l’a conclu plus récemment, «  de nombreux résultats de recherches publiés sont faux ou exagérés, et on estime que 85% des ressources de recherches sont gaspillées » (2).

Tout se passe comme si certains chercheurs choisissaient consciemment leurs résultats d’expérience pour que leurs travaux soient publiés et une partie du problème réside sûrement dans la politique d’édition des journaux. Mais le problème des fausses découvertes commence souvent avec des chercheur qui s’abusent eux-mêmes involontairement : ils deviennent la proie de biais cognitifs, des modes de pensée qui les entraîne vers des conclusions fausses mais pratiques ou attractives.

« Lorsque l’on regarde les taux de reproductibilité en psychologie et dans d’autres sciences empiriques, on peut dire avec certitude que quelque-chose ne marche pas de la façon dont ça devrait » déclare Susann Fielder, spécialiste des comportements économiques à l’Institut Max Planck pour la Recherche sur les Biens Collectifs de Bonn en Allemagne. « Les biais cognitifs pourraient en être la raison ».

Le psychologue Bryan Nosek de l’Université de Virginie pense que le biais le plus courant et problématique est le « raisonnement motivé » : lorsqu’on interprète les observations pour qu’elles collent à une idée en particulier. Les études ont montré que « la plupart de nos raisonnements sont en fait des rationalisations » dit-il.

En d’autres mots, la décision est déjà prise en ce qui concerne ce qu’il faut faire ou penser et et les « explications » du raisonnement ne sont en fait que des justifications pour ce que l’on voulait faire (ou croire) dès le début.

La Science, bien sûr, est faite pour être plus objective est sceptique que les pensées de tous les jours – mais à quel point en réalité ?

Tandis que le modèle de méthode scientifique basé sur la falsifiabilité défendu par le philosophe Karl Popper postule que les chercheurs cherchent des moyens de tester et réfuter leurs hypothèses (se demandent « en quoi ai-je tort ?») Nosek soutient que les chercheurs se demandent généralement plutôt « en quoi ai-je raison ? » (ou « en quoi avez-vous tort?).

Lorsque surviennent des faits suggérant que, finalement, l’hypothèse pourrait ne pas être la bonne, on a tendance à les classer comme « non pertinents », voire erronés.

Le désormais tristement célèbre épisode de la « fusion froide » de la fin des années 80, initié par les électro-chimistes Martin Fleischmann et Stanley Pons était plein de ces écarts volontaires. Par exemple, quand il fut démontré à Fleischmann et Pons que le spectre énergétique de rayons gamma de ce qu’ils présentaient comme une réaction de fusion était au mauvais endroit, ils l’ont tout simplement déplacé en marmonnant quelque-chose d’ambigu à propos de la calibration.

Les statistiques peuvent sembler constituer un havre à l’abri mais elles sont tout autant sujettes aux mêmes travers. Chris Hartgerink de l’Université de Tilburg au Pays-Bas travaille sur l’influence du « facteur humain » dans la collecte de statistiques, il montre que les chercheurs attribuent souvent plus de solidité aux statistiques qu’elles n’en méritent. « Les chercheurs, les gens en général, sont mauvais en ce qui concerne l’appréciation des statistiques ».

Alors qu’il serait normal qu’une partie des résultats publiés soient des faux négatifs – c’est à dire des résultats qui réfute une hypothèse pourtant vraie – Hartgerink déclare qu’il n’a jamais lu d’étude concluant que ses découvertes en sont.

Ces récentes recherches montre que sur trois publications signalant des résultats non significatifs, près de deux pourraient être des faux négatifs négligés. (3)

Étant donné que la science a dévoilé une quantité vertigineuse de biais cognitifs possibles, le fait que leurs conséquences soient relativement négligées au sein de la Science elle-même est plutôt singulier.

« Je connaissais l’existence des biais cognitif chez les humains en général, mais quand j’ai « appris » pour la première fois qu’on les trouvaient aussi chez les scientifiques, j’ai été stupéfaits, même si en fait c’est évident » déclare Hartgerink.

Une réponse communément admise à ce genre de situation est que même si des scientifiques peuvent s’abuser eux-même individuellement, d’autres n’hésitent pas à critiquer leurs idées et résultats et que la vérité finit toujours par émerger : la Science, en tant qu’œuvre collective, se corrige elle-même.

C’est parfois vrai, mais cela ne se passe pas nécessairement avec la rapidité et la fluidité auxquelles nous aimerions croire.

Nosek pense que le peer-review peut parfois activement entraver une mise à l’épreuve claire et rapide des affirmations scientifiques. Il pointe le fait que lorsqu’en 2011, une équipe de physiciens italiens avaient apporté les preuves de la détection de neutrinos dépassant la vitesse de la lumière (en violation de la théorie générale de la relativité d’Einstein), cette affirmation fut faite (4) , examinée et réfutée (5-6) très rapidement grâce au très efficace système utilisés par les physiciens des hautes énergies et qui consiste en la distribution de pré-version d’articles à travers un dépôt en accès libre.

Si ces tests avaient du être faits en se fiant aux canaux traditionnels du peer-review, cela aurait pu prendre des années.

De la même façon, quand des chercheurs ont suggéré dans Science en 2010 que l’arsenic pouvait se substituer au phosphore dans l’ADN de certains microbes (ce qui aurait réécrit les principes chimiques fondamentaux de la vie), une des chercheuses qui conduisait une des études de réplication a jugé important de donner un accès à ses recherches en cours via un blog open source.

Ce qui contrastait d’ailleurs fortement avec l’équipe de la recherche originale qui était critiquée pour ne pas avoir fourni de preuves ultérieures à leur conclusion controversée (7).

NDT : pour plus d’informations sur cette histoire :  I confess, I wrote the Arsenic DNA paper to expose flaws in peer-review at subscription based journals

Le peer-review semble être un instrument moins fiable que ce que l’on pense parfois, spécialement dans des domaines tels que la médecine ou la psychologie, comme l’atteste la « crise de la réplicabilité« . Le journaliste médical Ivan Oransky et l’éditeur de publications scientifiques Adam Marcus (qui gère un service de surveillance des rétractations) posent le problème de la façon suivante : « quand la science fonctionne comme elle est censé le faire, les nouvelles découvertes augmentent, modifient ou sapent les connaissances antérieures… le problème est qu’en science – ou plus précisément, dans les publications scientifiques – ce processus ne marche que rarement. Beaucoup (voire la plupart) de ce qui est publié aujourd’hui dans les journaux scientifiques n’est que vaguement susceptible de ré-apparaître si un autre labo tente l’expérience à nouveau, et il y a des chances pour que ce ne soit même pas du tout le cas » (8).

Une des raisons qui font que la littérature scientifique est biaisée est que les journaux sont beaucoup plus prêts à publier des résultats positifs que négatifs : il est plus facile de dire que quelque-chose est vrai que de dire que c’est faux.

Les référents (NDT : les personnes qui déterminent si une étude mérite ou pas d’être publiée) peuvent être plus inclinés à rejeter les résultats négatifs (car trop ennuyeux) et les chercheurs ne gagnent généralement que peu de crédit, de stature professionnelle ou de financement avec de telles découvertes. « Si vous faites 20 expériences, l’une d’entre elle est susceptible de donner un résultat digne d’être publié » écrivent Oransky et Marcus. « Mais ne publier que ce résultat ne valide pas votre découverte, en fait c’est même plutôt l’inverse« . (9)

Oransky croit que dans toutes les incitations renforçant le biais de confirmation en science, les exigences de publication sont parmi les plus problématiques. « Pour obtenir un poste, des fonds et une reconnaissance, les scientifiques doivent publier fréquemment dans de grands journaux » dit-il. « Cela encourage les découvertes positives et révolutionnaires, puisque ce dernier critère est se qui rapporte citation et facteur d’impact. Donc il n’est pas vraiment surprenant que les scientifiques se dupent eux-même en chercher des résultats parfaits et novateurs parmi leurs données expérimentales« .

Nosek va dans ce sens, ajoutant qu’une des influences les plus « biaisantes » est le système de récompense qui confère félicitations, chaires et subventions. « Pour avancer dans ma carrière j’ai besoin d’être publié aussi fréquemment que possible dans les publications les plus prestigieuses possibles. Cela signifie que je dois produire des articles qui ont le plus de chance d’être publié« .

Ceux-là, écrit-il, sont ceux qui relatent des découvertes positives (« j’ai découvert… » et non « j’ai réfuté… »), des résultats originaux (jamais « Nous venons de confirmer les découvertes précédentes… ») et des résultats francs (« nous montrons que… » et non « l’interprétation de ces résultats n’est pas très claire… »).

Mais « la plupart de ce qui se passe en laboratoire ne ressemble pas à ça » pour Nosek, au lieu de ça c’est de la bouillie. « Comment est ce que je passe de ma bouillie à de jolis résultats ? » demande-t-il. « Je peux être patient, ou avoir de la chance – ou je peux choisir la façon simple : faire souvent des décisions inconscientes (NDT au sens psychologique du terme !) pour choisir quelles données je sélectionne et de comment je les analyse, afin qu’une histoire nette émerge. Mais dans ce cas je suis sûr que mon raisonnement sera biaisé« .

Non seulement des données de mauvaise qualité et des idées fausses survivent, mais de bonnes idées peuvent être ignorées par le raisonnement motivé et les pressions de carrière. La suggestion dans les années 40 et 50 par la généticienne Barbara McClintock que des séquences d’ADN pouvaient « sauter » d’un chromosome à l’autre ou celle du biochimiste Stanley Prusiner qui déclara dans les années 80 que des protéines appelées prion pouvaient se replier de la mauvaise façon et que cette erreur pouvait se propager aux autres protéines allaient tellement contre l’orthodoxie de l’époque que ces deux chercheurs ont été ridiculisé – jusqu’à ce qu’on découvre qu’ils avaient raison et obtiennent un Nobel.

Le scepticisme à l’encontre des affirmations audacieuses est toujours présent, mais lorsqu’on regarde en arrière on peut voir qu’il vient parfois plus d’une incapacité à s’extraire des biais de la conception prédominante de l’époque que d’un doute véritable concernant la qualité des preuves apportées.

Les exemple de McClintock et Prusiner illustrent le fait que la science s’auto-corrige lorsque la charge des preuves l’y oblige mais selon Nosek « on ne connaît pas les exemples où des percées similaires ont été faites mais ont été retoquées et plus jamais poursuivies« .

Les scientifiques ont une certaine connaissance de cela, pour être clair. Beaucoup s’accordent avec la théorie du philosophe Thomas Kuhn selon laquelle la science avance à travers de brusques changements de paradigmes où les connaissances antérieures sont sapées et une toute nouvelle image du monde émerge.

Entre ces ruptures, on ne voit que la science « normale » qui s’accorde avec le consensus existant – jusqu’à ce qu’un empilement d’anomalies crée suffisamment de pression pour franchir le pas menant à un nouveau paradigme.

L’exemple classique est l’émergence de la physique quantique au début du XXème siècle ; la notion du XVIIIème siècle du « phlogistique » (un principe de combustion) renversé par la théorie de Lavoisier sur l’oxygène rentre aussi dans cette case.

Une citation célèbre attribuée à Max Planck suggère une autre voie par laquelle la science surmonte ses idées préconçues : « la science avance d’un enterrement à la fois ». Les nouvelles idées n’émergent qu’après que l’ancienne garde se soit rendue.

Le rôle des biais en science n’est devenu clair pour Nosek qu’une fois devenu étudiant diplômé en psychologie. « Comme pour de nombreux étudiants, mon idéalisme à propos de comment la science fonctionne a été ébranlé lorsque j’ai commencé à étudier les méthodes de recherches » se souvient-il. « Dans ce cours, on a lu de nombreux articles qui dataient déjà à ce moment-là (des années 50 aux années 70) et qui parlaient de biais de publication, de recherches mal conçues, du manque de réplication, du manque de description de la méthodologie dans les articles publiés, des problèmes d’accès aux données original et du bais du résultat négatif ».

Nosek s’est depuis consacré à améliorer le fonctionnement de la science (10). Il est convaincu que les processus et progrès de la sciences seraient améliorés en mettant ces biais en lumière – ce qui veut dire rendre les recherches plus transparentes dans leurs méthodes, suppositions et interprétations. « Se battre contre ces problèmes n’est pas facile parce-que ce sont des enjeux culturels – et une seule personne ne peut pas changer une culture » affirme-t-il « donc j’ai commencé avec ce que je pouvais contrôler : la puissance de la conception de mes recherches« .

De façon surprenante, Nosek pense qu’une des solutions les plus efficace au problème des biais cognitifs en science pourrait venir de la discipline qui a subi de très fortes critiques récemment pour sa propension à l’erreur et à l’auto-aveuglement : la pharmacologie.

C’est précisément parce-que ces problèmes sont prépondérants dans l’industrie pharmaceutique que cette communauté est, de la façon dont Nosek voit les choses, très en avance sur le reste de la science pour ce qui est de les aborder.

Par exemple, du fait de la tendance connue qu’ont les compagnies pharmaceutiques et leurs collaborateurs à ne publier les résultats d’essais que quand ils sont positifs et de mettre les autres sous le tapis, il y a maintenant une loi aux États-Unis obligeant à signaler tous les essais cliniques dans un registre national avant qu’ils n’aient lieu. Cela oblige les chercheurs à rapporter leurs résultats, quels qu’ils soient.

Nosek a institué une technique de pré-enregistrement similaire pour la recherche appelé Open Science Framework (OSF). Après avoir travaillé dessus pendant quelques années, le projet a vraiment décollé lorsque l’ex-développeur de logiciels Jeff Spies a rejoint son labo en 20009-2010 et s’en est emparé dans le cadre de sa thèse de doctorat.. « Beaucoup de gens se sont impliqués et c’est devenu quelque-chose de beaucoup plus grand assez vite » raconte Nosek. « On a lancé un site web et une communauté s’est rapidement rassemblée autour, bailleurs de fondes compris ». Nosek et Spies ont cofondé le Center for Open Science à Charlottesville en 2013 qui administre désormais l’OSF et peut offrir gratuitement ses services.

L’idée, telle que Nosek la décrit est que les chercheurs « décrivent à l’avance ce sur quoi leur étude va porter et ce qu’ils pensent en tirer ». Puis, lorsqu’ils font leurs expériences, ils s’obligent à n’analyser leurs données que dans le strict cadre défini par le plan original. Cela semble vraiment élémentaire, un peu comme ce que l’on enseigne aux enfants comment faire de la Science, et effectivement ça l’est… mais c’est rarement ce qui arrive dans les faits.

Au lieu de ça, comme en témoigne Fiedler, les analyses sont généralement faites avec toutes sortes de suppositions inconscientes et non mentionnées sur ce qui devrait ou pas être pris en compte. D’après Nosek, les chercheurs qui se sont servi de l’OSF ont souvent été très étonnés des divergences qu’ils constatent lorsqu’ils viennent comparer leur projet définitif aux buts qu’ils avaient initialement fixé.

Fiedler a utilisé le service et pour lui, non seulement cela permet aux recherches de rester honnêtes mais cela rend aussi leur développement plus fluide. « Le pré-enregistrement sur l’OSF me force à examiner tous les détails initiaux et le projet – ainsi qu’une partie de la rédaction – est déjà établi avant même que j’ai commencé à récolter des données » assure-t-elle. « Avoir conscience de cet enjeu m’aide à séparer les résultats dans lesquels j’ai confiance de ceux où c’est moins le cas ». Et pas seulement elle : rendre le processus complet plus transparent « donne à tous les autres chercheurs l’occasion de juger si oui ou non ces résultats vaillent la peine qu’on y accorde du – précieux – temps de recherche ».

Préciser par écrit vos buts est aussi un un bon moyen de vérifier que vous les connaissez bien pour Hartgerink, un autre utilisateur de l’OSF. « Une fois que l’on a décidé de le faire, nous nous sommes rendu compte qu’expliquer les hypothèses était une difficulté en soi » ce qui indique qu’elles n’avaient pas été formulées suffisamment clairement. « Le pré-enregistrement est techniquement un must si vous voulez tester des hypothèses » conclut-il. Fiedler indique qu’elle et tous ses étudiants post-doc ont utilisé les services de l’OSF ces dernières années, « j’ai tellement appris que je ne peux que recommander à tout le monde cette façon de faire ».

Le distinguo entre l’OSF et la méthode habituelle est considérable pour Hartgerink : puisque la plupart des chercheurs ne rédigent leurs manuscrit qu’après avoir conduit les recherches, les hypothèses ne sont pas notées explicitement avant cette étape. « Cela conduit à une formulation plus favorable aux hypothèses une fois que les résultats sont connus ». Le psychologue Ernest O’Boyle de l’Université d’Iowa et ses collègues ont qualifié ce biais d’« effet chrysalide »  (rendre une présentation a posteriori plus belle qu’elle n’aurait du l’être).

L’une des conséquences que voit Hartgerink est qu’il est commun de présenter comme espérés des résultats pourtant inattendus. « Demandez à n’importe qui s’il est correct de faire ça et il vous répondra que non. C’est pourtant ce qui se passe en recherche depuis longtemps ».

Souvent, ce changement des buts et des hypothèses survient sans que cela soit réellement intentionnel ou même sans s’en rendre compte. « Durant le processus, parfois long, qui permet de concevoir une expérience, rassembler des données, les analyser et présenter le résultats à nos collègues scientifiques, la façon dont nous envisageons une question et les résultats correspondant évolue » ajoute Fiedler. « Durant cette période, nous pouvons oublier les premiers tests qui ont échoué et présenter nos nouvelles découvertes comme des réponses à des questions différentes mais basées sur les mêmes données ».

Cette approche de la science a beaucoup de valeur prétend-elle : il est important de découvrir des connections imprévues. Mais si cela affecte le but de la recherche, cela peut aussi mener les chercheurs à « trop faire confiance à des données fallacieuses ». L’OSF force donc les chercheurs à laisser leurs cibles là où elles sont.

Mais si vous choisissez de vous contraindre à un ensemble d’objectifs précis avant même d’avoir fait les expériences, est ce que vous ne vous fermez pas de possibles champs fertiles que vous n’avez pas pu apercevoir avant ? Peut-être suppose Nosek mais « apprendre à partir des données » n’est pas un bon moyen d’obtenir des conclusions fiables.

« Actuellement, nous mélangeons les recherches d’exploration et de confirmation, or une des bases que nous oublions tout le temps est que l’on ne peut pas générer des hypothèses ET des tests avec les mêmes données ». Si vous trouvez une nouvelle piste intéressante, vous devez l’explorer séparément et ne pas faire comme si cette dernière avait été à la base de votre travail.

Fielder récuse l’accusation que le pré-enregistrement signera la fin de la liberté et de la créativité : « ce n’est pas quelque-chose que tout le monde aura toujours à faire » rappelle-t-elle et la recherche exploratoire qui collecte des données sans partir d’un plan défini d’hypothèses à tester a toujours sa place. Mais nous devons garder à l’esprit la différence entre les deux.

Le principal obstacle que Hartgerink prévoit est l’éducation : les chercheurs n’ont tout simplement pas de formation pour prévoir les choses de cette façon. Mais ils feraient mieux de s’y mettre : «  si les jeunes chercheurs ne commencent pas à utiliser ces techniques maintenant, il se pourrait qu’ils se retrouvent à l’arrière-ban des sciences d’ici une dizaine d’années puisqu’elles commencent à devenir la norme pour concevoir des recherches d’une façon reproductible, transparente et ouvertes » affirme-t-il.

Ultimement, Nosek entrevoit une « utopie scientifique » dans laquelle la science devient un moyen bien plus efficace d’accumulation des connaissances. Mais personne ne prétend que l’OSF sera la panacée qui permettra cela. Comme le souligne Oranski « un des plus grands défi est d’amener les scientifiques à arrêter de se duper eux-même, cela requiert la fin du raisonnement motivé et du biais de confirmation et je n’ai pas encore vu de bon moyen pour ça ».

Nosek en est persuadé : en plus de l’OSF, il faudra nécessairement restructurer la façon dont la science fonctionne pour y inclure publications en accès libre et une méthode ouverte et continue de revue par les pairs. On ne peut pas se débarrasser complètement de nos biais, mais il est possible d’en limiter la portée.

Comme Nosek et son collègue, le psychologue Yoav Bar-Anan du l’Université Ben Gurion, l’ont écrit : « les barrières les plus importantes à lever ne sont pas techniques ni financières, elles sont sociétales. Même si les scientifiques sont les gardiens du statu quo, ils ont également le pouvoir de changer les choses ».

Traduit de : The Trouble With Scientists

NDT : en version courte

1 – Les chercheurs ne sont pas épargnés par les biais cognitifs et ces derniers se retrouvent au cœur même de leurs conclusions.

2 – Il est possible de minimiser certains de ces biais en fixant à l’avance un cadre strict consultable par les pairs.

3 – La publication des résultats négatifs devrait également permettre d’amoindrir le biais de publication.

4 – Le processus sera de toutes façons toujours améliorable et il est du devoir de l’ensemble des scientifiques de s’en charger.

Comme critique évidente, cet article manque un peu de source, le nombre de points de vue pris en compte est trop faible et les éventuels aspects négatifs du projet OSF gagneraient à être développés.

Mais la réflexion reste tout à fait pertinente, d’autant que ces errements de la méthode ne sont quasi jamais mis en avant, le point de vue manquait donc.

Références

1. Ioannidis, J.P.A. Why most published research findings are false. PLoS Medicine 2, e124 (2005).

2. Ioannidis, J.P.A. How to make more published research true. PLoS Medicine 11, e1001747 (2014).

3. Hartgerink, C.H.J., van Assen, M.A.L.M., & Wicherts, J. Too good to be false: Non-Significant results revisited. Open Science Framework https://osf.io. (Last update on April 7, 2015) Retrieved from https://osf.io/qpfnw/

4. Antonello, M., et al. Measurement of the neutrino velocity with the ICARUS detector at the CNGS beam. preprint arXiv:1203.3433 (2012).

5. Brumfiel, G. Neutrinos not faster than light. Nature News (2012). Retrieved from doi:10.1038/nature.2012.10249

6. Cho, A. Once Again, Physicists Debunk Faster-Than-Light Neutrinos news.sciencemag.org (2012).

7. Hayden, E.C. Open research casts doubt on arsenic life. Nature News (2011). Retrieved from doi:10.1038/news.2011.469

8. Oransky, I. Unlike a Rolling Stone: Is Science Really Better Than Journalism at Self-Correction? http://theconversation.com (2015).

9. Oransky, I. Unlike a Rolling Stone: Is Science Really Better Than Journalism at Self-Correction? www.iflscience.com (2015).

10. Ioannidis, J.P.A., Munafo, M.R., Fusar-Poli, P., Nosek, B.A., & David, S.P. Publication and other reporting biases in cognitive sciences: detection, prevalence, and prevention. Trends in Cognitive Sciences 18, 235-241 (2014).

Advertisements

6 commentaires sur “Les chercheurs ne valent pas mieux que vous…

  1. Valentin
    19 septembre 2015

    Mouai, c’est bien de mettre des sources, mais c’est mieux de les lire.
    Sur le neutrino qui dépasse la vitesse de la lumière, le papier en question est une remise en cause de la mesure, pas de la relativité restreinte :
    « the result [formula] is compatible with a neutrino propagation
    velocity in agreement with the speed of light and incompatible with the result
    reported by the OPERA Collaboration »
    D’après ce que j’ai entendu en parlant avec des physiciens, c’est le service communication d’un institut qui vendu la mèche à la presse pour faire un peu de pub, celle-ci s’est bien entendu aussitôt emparée de l’affaire.

    A quand un article sur « 99% des articles de blogs sont faux ? »

    J'aime

    • Maeelk
      19 septembre 2015

      Hello,
      est ce que la différence ne viendrait pas de la mise à jour de l’article cité en fait ?

      La V1 de septembre 2011 (http://xxx.lanl.gov/abs/1109.4897v1) est assez différente de la V4 (http://xxx.lanl.gov/abs/1109.4897) que vous citez ?

      V1 : « This anomaly corresponds to a relative difference of the muon neutrino velocity with respect to the speed of light (v-c)/c = (2.48 ± 0.28 (stat.) ± 0.30 (sys.)) ×10−5.  »

      Au plaisir de vous lire (et de corriger les 35 autres faux articles en votre compagnie 🙂 ).

      J'aime

  2. Pingback: Choix santé : qui croire quand les études contradictoires se multiplient ? ‹ Ca se saurait

  3. AlainCo (@alain_co)
    20 septembre 2015

    Juste sur la fusion froide, il semble que vos info n’aient pas été mise a jour depuis 1989.

    L’histopire courte est:
    des électrochimistes ont fait une expérience (basées sur de vielles observations étranges connues dès les années 50). Ils ont mis 5 ans a la mettre au point et leur université les forces à faire une conférence comme c’est malheureusement l’usage .

    Ils diffusent des info parcellaires, pas trop a cause d’un brevet de l’université, et le reste dans un article pas encore publié… (il sera publié dans journal of electroanalythical chemistry, complet et pas tronqué dans Nature comme requis vu la taille).
    ddans, plus tard on comprendra qu’il y a une calorimétrie très rusées, (taille adaptée, dewar, argenture du col, col alongé, mesures de la recombinaison lors des recharges, bains stabilisés et thermocouples)… du grand art qui n’avait aucune chance d’être compris par un non électrochimiste.

    Dedans il y a aussi une mesure de neutron complètement foirée… plus tard on observera qu’il y en a mille milliard de moins que ce qu’une fusion chaude fait pour la même chaleur…
    Là F&P passent pour des incompétent auprès de physiciens qui sont aussi bon en mesure de neutron que F&P en calorimétrie, et réciproquement aussi mauvais en calorimétrie que F&P en mesure de neutron.

    Là dessus, outre le scepticisme et le problème de hiérarchie (physicien>chimiste, budget physicien>>budget chimiste), les physiciens parfosi enthousiastes, comme des cowboy, cherchent les cornes de buffles sur la tête de l’oiseau… les neutrons, le tritium. Il y en a presque pas, et c’est parce que la réaction n’est pas une réaction à 2 corps comme dans le vide… logique dans un matériaux ou plutôt à sa proche surface.

    Ils tente aussi de répliquer l’expérience de calorimétrie, notament MIT et Caltech. fiasco total.
    on apprendra plus tard que non seulement leur calorimétrie était bien moins précise, mais de toute façon ils n’ont pas chargé le palladium assez, ou mit la densité de courant suffisante. en plus il y a des questions d’impureté et de contaminations, inextricables qui exigent des protocoles de nettoyage, de sélection de lot terrible.

    L’équipe du MIT observe une chaleur, que les chercheurs LENR d’aujourd’hui décrivent comme non significative (normal pas assez d’hydrogène dans le Pd), et corrige la courbe pour faire disparaître cette pente …
    Le rédacteur du MIT, Eugène Mallove, voit l’entourloupe et tire la sonnette d’alarme… ils est attaqué et finira par démissionner écoeuré .
    le Caltech lui corrige en permanence au fur et a mesure du chargement, comme ca si une chaleur apparaît elle sera recalibrée… de toute façon eux aussi vu les délais, le chargement, et la précision c’était sans espoir.
    En plus ils observent a juste titre que dans leur cellule, plus grande que F&P (ils avaient estimé la taille d’après l’émission de TV, mais c’était juste un modèle précédent… aucun n’a pensé a demander… il faut dire que vu les insultes qui circulaient F&P étaient en mode silence), qu’il y a des disparité de température, et disent que F&P ont fait cette erreur de débutant en calorimétrie…
    plus tard Hansen avancera qu’il y a un problème de recombinaison.
    c’est sur ces 3 échecs et théories de l’erreur d’étudiant que en mai 1989, 40 jours après, tout est terminé.
    la conférence de Baltimore est une exécution en règle, et ce qui y a été dit, et surtout comment, explique qu’il ne sera jamais , jamais, possible de revenir dessus.
    Plus tard des erreurs dans le papier du Caltech ont été identifié, mais Science à refusé de corriger… ni de publique quoi que ce soit depuis, comme une quarantaine de revues prestigieuses.

    En fait la théorie des variation de température dans la cellule n’avait pas de sens pour la cellule de F&P qui était très petites et agitée par les bulles associées a un courant intense, ce qui accessoirement rendait la recombinaison négligeable (<1%) et de toute façon c'était mesuré.
    Le mélange de la cellule avait été démontré théâtralement par Fleischmann a une conférence, mais la condamnation était irrévocable, aucune preuve ne pouvait changer le verdict. C'est pour cela que les livres critiques sur F&P s'arrêtent en 1989 ou presque.
    Vers 1992 F&P publient des mesure sà plusieurs thermocouples qui confirment ces points, et entre temps Michael McKubre et Oriani réalisent de très belles réplications avec pour McKubre une calorimétrie isotherme à flux, en cellule fermée à recombinaison, et pour Oriani une calorimétrie Seebeck avec séparation des gaz… Le papier d'Oriani a même passé le comité de lecture péniblement mais

    Après une bonne année de travail, pendant que pas mal de physiciens avaient publiés des résultats contradictoires, des chimistes ont commencé à publier leur résultats, parfois négatifs.
    On verra plus tard par méta analyse que c'était un manque de chargement en hydrogène, une erreur idiote de polarité, un densité de courant insuffisante, ou un problème de lot).

    Il y a aussi plus tard des expériences au LANL, au BARC et au Texas AM, où du tritium est produit, mais un auteur de romans de gare a réussi a vendre une théorie de la conspiration, basée sur un cherry-picking des visite du DoE, et des accusations sans preuves… s'en suivront des enquêtes interminables sans résultats, et un oubli des autres nombreuses réplications…

    L'histoire est mieux raconté par Charles Beaudette, un vrai sceptique tombé pour rire dans une conférence ICCF et qui a observé que c'était de la vrai science, critique et sceptique, et pas ce qu'on lui avait raconté.
    http://iccf9.global.tsinghua.edu.cn/lenr%20home%20page/acrobat/BeaudetteCexcessheat.pdf#page=35 (le livre est publié sur le site de l'université de Tsinghua mais il y a une version papier commerciale)

    Toute cette histoire confirme ce que vous dite sur la malhonnêteté de certains chercheurs, les effets de groupes, les consensus par la terreur, la manipulation du peer review…

    Je passe sur les menaces, les enquêtes de harcellement, la bouse de cheval dans la boite a lettre, la cellule irradiée dans le réacteur pour fausser les résultats, les papiers refusés faute de place ou parce que on ne peut pas dépasser les 100degré sous l'eau (les plongeurs soudeurs rigolent encore)…
    En creusant on trouve de quoi vomir. rien de neuf quand on a l'histoire de Semmelweiss et même Pasteur. C'est humain. C'est une activité humaine.

    Si le sujet vous intéresse passez chez Airbus Toulouse à la mi octobre
    http://www.iscmns.org/work11/index.htm

    Il y a mille autre choses à dire, mais mieux vaut chercher. L'erreur c'est instructif.

    J'aime

  4. AlainCo (@alain_co)
    20 septembre 2015

    En passant sur Opera, c’est souvent utilisé pour attaquer des expériences qui défient les usages.

    Opéra n’est qu’une unique et complexe expérience. sans réplications, sur un autre accélérateur, c’était peu crédible.
    En plus c’était incohérent avec les supernova.

    on ne peut pas comparer ni avec la fusion froide, répliqué des milliers de fois, ni avec l’EmDrive répliqué une poignée de fois.

    quand on fait de la critique, il faut bien comprendre comment une expérience devient une preuve.

    par exemple la réplication exacte a la manie de répliquer les artefacts, et donc répliquer avec des banc de test différents, des méthodes différentes est une bonne idée. Le risque c’est de déformer la partie active.

    Une autre erreur d’étudiant est de donner un sens à une expérience négative.
    Une expérience qui échoue, ne fait que échouer. la première hypothèse c’est que l’expérience n’a pas remplis les conditions. c’est d’autant plus vrai sur une technologie pas encore comprise, dont les critères de succès sont inconnus.
    Il faut aussi faire attention à pas confondre réfuter une théorie, et réfuter un phénomène.
    Réfuter une théorie est facile, il suffit de faire tout ce qui doit marcher (pas toujours simple, mais), et si ca marche pas (quelques essais)…

    Mais quand on n’a pas encore de théorie solide, un échec c’est comme un planeur des frères Wright qui se plante.

    On abuse souvent de la logique , du terme réfutation, de Popper, et on utilise souvent des méthodes qui viennent des tests thérapeutiques.
    les test thérapeutiques sont d’un certaine façon des test non pas scientifiques, mais industriels. On doit montrer que le produit ou la méthode marge assez souvent pour être utiles. les échecs ont une signification, comme le crash d’un Airbus.

    mais quand on fait de la science, on cherche surtout à prouver la possibilité d’un évènement. Un avion qui vole et 10 qui se crashent c’est un preuve d’existence du vol humain, et une catastrophe industrielle.

    Pour réfuter un résultat expérimental en anomalie, il faut démontrer expérimentalement la cause de la mesure, l’artefact. C’est pas un travail que l’on peut faire dans un fauteuil. Il faut trouver « le truc », ou au moins la place ou pourrait être le truc (dans ce cas c’est pas une réfutation, c’est juste lever une incertitude).

    Une autre erreur est la notion de boite noire. Si un avion vole, mais que vous ne savez pas comment il est construit, il a volé et dire le contraire c’est malhonnête. pourtant sur des test en boite noire, dont le résultat est clair, certains refuses d’admettre les faits. D’ailleurs plein de domaine scientifiques se font sur des boites noires, parfois naturelles et inaccessibles.

    Enfin un autre problème ets la notion d’équipe indépendante.
    Il est important que diverses équipes reproduisent un résultat, mais dans la vrai vie les équipes doivent communiquer pour s’échanger ce qui ne passe pas dans le papier, ou ce que la première équipe n’a pas pensé important.
    Accuser deux équipes de ne pas être indépendantes parce qu’elles communiquent c’est pas sérieux. Il faut par contre des instruments distincts, voire des protocoles distincts.
    Certains sceptiques en vienne même a traiter de non indépendant toute personne qui s’intéresse au sujet, sans cherche plus loin. Cela crée une situation ubuesque ou le simple fait de chercher fait que la recherche n’est pas crédible. et donc seuls ceux qui ne veulent pas chercher seraient donc crédibles…

    Je suis éberlué par l’apparente incompétence des scientifiques sceptiques sur ces questions de logique, a moins que ce ne soit pas une erreur mais une tactique très humaine.

    Le facteur humains est important, il ne faut pas le nier. Il touche tout le monde indistinctement, et trouve souvent sa source non pas dans la personne, mais dans le réseau d’incitations, les liens financier et surtout sociaux.

    J'aime

  5. Pingback: La science et ses financements

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

Information

Cette entrée a été publiée le 27 mai 2015 par dans Confirmé, et est taguée , , .
%d blogueurs aiment cette page :