Ici, à Greater Good, nous couvrons la recherche sur le bien-être social et émotionnel, et nous essayons d’aider les gens à appliquer les résultats dans leur vie personnelle et professionnelle. Nous sommes bien conscients que notre activité est délicate.
Sommer des études scientifiques et les appliquer à la vie des gens n’est pas seulement difficile pour des raisons évidentes, comme comprendre puis expliquer le jargon ou les méthodes scientifiques à des non-spécialistes. Il est également vrai que le contexte se perd lorsque nous traduisons les résultats en histoires, conseils et outils pour une vie plus significative, en particulier lorsque nous poussons tout cela à travers la machine à écraser les nuances qu’est Internet. De nombreuses personnes ne lisent jamais que les titres, qui visent intrinsèquement à généraliser à outrance et à susciter l’intérêt. Comme nos articles ne peuvent jamais être aussi complets que les études originales, ils omettent presque toujours certaines mises en garde cruciales, comme les limites reconnues par les chercheurs. Pour les obtenir, vous devez avoir accès aux études elles-mêmes.
Et il est très fréquent que les résultats semblent se contredire. Par exemple, nous avons récemment couvert une expérience qui suggère que le stress réduit l’empathie – après avoir précédemment discuté d’autres recherches suggérant que les personnes sujettes au stress peuvent être plus empathiques. Certains lecteurs nous ont demandé : Laquelle des deux est correcte ? (Vous trouverez ma réponse ici.)
Mais la pièce manquante la plus importante est probablement l’avenir. Cela peut sembler drôle à dire, mais, en fait, une nouvelle étude ne vaut pas le PDF sur lequel elle est imprimée tant que ses résultats ne sont pas répliqués et validés par d’autres études – des études qui n’ont pas encore eu lieu. Une expérience est simplement intéressante jusqu’à ce que le temps et les tests transforment ses résultats en un fait.
Les scientifiques le savent, et ils sont formés pour réagir de manière très sceptique à chaque nouvel article. Ils s’attendent également à être accueillis avec scepticisme lorsqu’ils présentent des résultats. La confiance est une bonne chose, mais la science n’est pas une question de confiance. C’est une question de vérification.
Cependant, les journalistes comme moi, et les membres du grand public, sont souvent enclins à traiter chaque nouvelle étude comme si elle représentait le dernier mot sur la question abordée. Ce problème particulier a été mis en évidence la semaine dernière par – attendez de voir – une nouvelle étude qui a tenté de reproduire 100 études psychologiques antérieures pour voir si leurs conclusions tenaient la route. Le résultat de cette initiative de trois ans fait froid dans le dos : L’équipe, dirigée par le psychologue Brian Nosek de l’université de Virginie, a obtenu les mêmes résultats dans seulement 36 % des expériences qu’elle a reproduites. Cela a donné lieu à des titres provocateurs et généralisateurs prévisibles, impliquant que nous ne devrions pas prendre la psychologie au sérieux.
Je ne suis pas d’accord.
Malgré toutes les erreurs et les affirmations exagérées, les critiques, les contradictions et les arguments – ou peut-être à cause d’eux – notre connaissance du cerveau et de l’esprit humains s’est considérablement développée au cours du siècle dernier. La psychologie et les neurosciences ont documenté des phénomènes comme la dissonance cognitive, identifié de nombreuses structures cérébrales qui soutiennent nos émotions, et prouvé l’effet placebo et d’autres dimensions de la connexion corps-esprit, parmi d’autres découvertes qui ont été testées maintes et maintes fois.
Ces découvertes nous ont aidés à comprendre et à traiter les véritables causes de nombreuses maladies. J’ai entendu dire que l’augmentation des taux de diagnostics de maladies mentales constituait une preuve de l’échec de la psychologie, mais en fait, c’est le contraire : Nous constatons une augmentation et une amélioration des diagnostics de problèmes qui auraient poussé les générations précédentes à rejeter les gens comme étant “stupides” ou “fous” ou “hyper” ou “bleus”. Ce qu’il faut garder à l’esprit, c’est qu’il a fallu très, très longtemps à la science pour parvenir à ces connaissances et à ces traitements, après de nombreux essais et erreurs.
La science n’est pas une foi, mais plutôt une méthode qui prend du temps à se déployer. C’est pourquoi il est également erroné d’embrasser sans critique tout ce que vous lisez, y compris ce que vous lisez sur cette page.
Compte tenu des complexités et des ambiguïtés de la démarche scientifique, est-il possible pour un non-scientifique de trouver un équilibre entre le rejet en bloc et la croyance sans critique ? Y a-t-il des signaux d’alarme à rechercher lorsque vous lisez une étude sur un site comme Greater Good ou dans un livre de développement personnel populaire ? Si vous lisez l’une des études réelles, comment devez-vous, en tant que non-scientifique, évaluer sa crédibilité ?
J’ai puisé dans ma propre expérience de journaliste scientifique, et j’ai interrogé mes collègues ici au Greater Good Science Center de l’UC Berkeley. Nous avons trouvé 10 questions que vous pourriez vous poser lorsque vous lisez les dernières découvertes scientifiques. Ce sont aussi des questions que nous nous posons, avant de couvrir une étude.
- 1. L’étude a-t-elle été publiée dans une revue à comité de lecture ?
- 2. qui a été étudié, où ?
- 3. Quelle était la taille de l’échantillon ?
- 4. Les chercheurs ont-ils contrôlé les différences clés ?
- 5. Y avait-il un groupe de contrôle ?
- 6. Les chercheurs ont-ils établi une causalité, une corrélation, une dépendance ou un autre type de relation ?
- 7. Le journaliste, ou même le scientifique, exagère-t-il le résultat ?
- 8. Y a-t-il un conflit d’intérêts suggéré par le financement ou les affiliations des chercheurs ?
- 9. Le chercheur semble-t-il avoir un ordre du jour ?
- 10. Les chercheurs reconnaissent-ils les limites et envisagent-ils des explications alternatives ?
1. L’étude a-t-elle été publiée dans une revue à comité de lecture ?
L’examen par les pairs – soumettre des articles à d’autres experts pour un examen indépendant avant acceptation – reste l’un des meilleurs moyens dont nous disposons pour vérifier le sérieux fondamental de l’étude, et de nombreux scientifiques décrivent l’examen par les pairs comme un creuset véritablement humiliant. Si une étude n’est pas passée par ce processus, pour quelque raison que ce soit, elle doit être prise avec un grain de sel beaucoup plus important.
2. qui a été étudié, où ?
Les expériences sur les animaux en disent long aux scientifiques, mais leur applicabilité à notre vie humaine quotidienne sera limitée. De même, si les chercheurs n’ont étudié que des hommes, les conclusions pourraient ne pas être pertinentes pour les femmes, et vice versa.
C’était en fait un énorme problème avec l’effort de Nosek pour répliquer les expériences d’autres personnes. En essayant de reproduire une étude allemande, par exemple, ils ont dû utiliser des cartes différentes (celles qui seraient familières aux étudiants de l’Université de Virginie) et changer une échelle mesurant l’agressivité pour refléter les normes américaines. Ce type de variance pourrait expliquer les différents résultats. Il peut également suggérer les limites de la généralisation des résultats d’une étude à d’autres populations non incluses dans cette étude.
En guise d’approche, les lecteurs doivent se rappeler que de nombreuses études psychologiques s’appuient sur des échantillons WEIRD (occidentaux, éduqués, industrialisés, riches et démocratiques), principalement des étudiants universitaires, ce qui crée un biais intégré dans les conclusions de la discipline. Cela signifie-t-il que vous devez rejeter la psychologie occidentale ? Bien sûr que non. C’est juste l’équivalent d’un panneau “Attention” ou “Cédez le passage” sur la route de la compréhension.
3. Quelle était la taille de l’échantillon ?
En général, plus le nombre de participants à une étude est élevé, plus ses résultats sont valides. Cela dit, un grand échantillon est parfois impossible, voire indésirable, pour certains types d’études. C’est notamment le cas des expériences coûteuses en neurosciences impliquant des scans d’imagerie par résonance magnétique fonctionnelle, ou IRMf.
Et de nombreuses études sur la pleine conscience ont scanné les cerveaux de personnes ayant plusieurs milliers d’heures d’expérience de méditation – un groupe relativement restreint. Cependant, même dans ces cas, une étude qui porte sur 30 méditants expérimentés est probablement plus solide qu’une étude similaire qui a scanné le cerveau de seulement 15 personnes.
4. Les chercheurs ont-ils contrôlé les différences clés ?
La diversité ou l’équilibre entre les sexes ne sont pas nécessairement des vertus dans une étude de recherche ; c’est en fait une bonne chose lorsqu’une population étudiée est aussi homogène que possible, car cela permet aux chercheurs de limiter le nombre de différences qui pourraient affecter le résultat. Un bon chercheur essaie de comparer des pommes avec des pommes, et de contrôler autant de différences que possible dans son analyse.
5. Y avait-il un groupe de contrôle ?
L’une des premières choses à rechercher dans la méthodologie est de savoir si l’échantillon est randomisé et comportait un groupe de contrôle ; ceci est particulièrement important si une étude doit suggérer qu’une certaine variable pourrait effectivement causer un résultat spécifique, plutôt que d’être simplement corrélée avec lui (voir le point suivant).
Par exemple, certains membres de l’échantillon ont-ils été assignés au hasard à une pratique de méditation spécifique alors que d’autres ne l’ont pas été ? Si l’échantillon est suffisamment grand, les essais randomisés peuvent produire des conclusions solides. Mais, parfois, une étude n’aura pas de groupe de contrôle parce que c’est éthiquement impossible. (Les gens détourneraient-ils encore un chariot pour tuer une personne afin de sauver cinq vies, si leur décision tuait une personne réelle, au lieu d’être une simple expérience de pensée ? Nous ne le saurons jamais avec certitude).
Les conclusions peuvent tout de même apporter un certain éclairage, mais il faut les relativiser.
6. Les chercheurs ont-ils établi une causalité, une corrélation, une dépendance ou un autre type de relation ?
J’entends souvent crier “Corrélation n’est pas causalité” comme une sorte de cri de guerre, pour tenter de discréditer une étude. Mais la corrélation – le degré auquel deux mesures ou plus semblent changer en même temps – est importante, et constitue une étape pour éventuellement trouver la causalité – c’est-à-dire établir qu’un changement dans une variable déclenche directement un changement dans une autre.
L’important est d’identifier correctement la relation.
7. Le journaliste, ou même le scientifique, exagère-t-il le résultat ?
Un langage qui suggère qu’un fait est “prouvé” par une étude ou qui promeut une solution unique pour tous est très probablement exagéré. Les généralisations à l’emporte-pièce, quelles qu’elles soient, indiquent souvent un manque d’humilité qui devrait être un signal d’alarme pour les lecteurs. Une étude peut très bien “suggérer” une certaine conclusion mais elle la “prouve” rarement, voire jamais.
C’est pourquoi nous utilisons beaucoup de langage prudent et de couverture dans Greater Good, comme “pourrait” ou “implique”.
8. Y a-t-il un conflit d’intérêts suggéré par le financement ou les affiliations des chercheurs ?
Une étude récente a révélé que vous pouviez boire beaucoup de boissons sucrées sans craindre de grossir, à condition de faire de l’exercice. Le bailleur de fonds ? Coca Cola, qui s’est empressé de promouvoir ces résultats. Cela ne signifie pas que les résultats sont faux. Mais cela suggère que vous devriez demander un deuxième avis.
9. Le chercheur semble-t-il avoir un ordre du jour ?
On peut comprendre que les lecteurs soient sceptiques face aux études sur la méditation de pleine conscience promues par des bouddhistes pratiquants ou aux expériences sur la valeur de la prière menées par des chrétiens. Encore une fois, cela ne signifie pas automatiquement que les conclusions sont fausses. Toutefois, cela place la barre plus haut en ce qui concerne l’examen par les pairs et la reproduction des résultats. Par exemple, il a fallu des centaines d’expériences avant que nous puissions commencer à dire avec confiance que la pleine conscience peut effectivement réduire le stress.
10. Les chercheurs reconnaissent-ils les limites et envisagent-ils des explications alternatives ?
L’étude se concentre-t-elle sur un seul côté de l’histoire ou une seule interprétation des données ? A-t-elle omis d’envisager ou de réfuter des explications alternatives ? Montrent-ils qu’ils sont conscients des questions auxquelles leurs méthodes répondent et de celles auxquelles elles ne répondent pas ?
Je résume ma position personnelle en tant que non-scientifique envers les résultats scientifiques comme ceci : Curieux, mais sceptique. Je prends tout au sérieux et je prends tout avec un grain de sel. Je les juge à l’aune de mon expérience, tout en sachant que mon expérience crée un biais. J’essaie de cultiver l’humilité, le doute et la patience. Je ne réussis pas toujours ; lorsque j’échoue, j’essaie de reconnaître ma faute et de me pardonner. Ma propre compréhension est imparfaite, et je me rappelle qu’une étude n’est qu’un pas vers la compréhension. Par-dessus tout, j’essaie de garder à l’esprit que la science est un processus, et que les conclusions soulèvent toujours plus de questions auxquelles nous devons répondre.