Je dirai même que c'est plus nuancé que cela encore. C'est carrément dans le phrasé ou la présentation des données qu'une nuance est mise. Ce qui fait que les remise en question, du moins les officielles et ouvertes, sont rares je trouve...'fin c'est un poil plus compliqué (tartine incoming)
Certains scientifiques vont de fait douter et peuvent carrément suspecter que les données présentée par un groupe ne représentent pas une réalité biologique. Cela peut prendre plusieurs formes:
- La fraude directe. Excessivement rare (car synonyme d'arrêt de carrière immédiat), elle consiste à volontairement manipuler les données, modifier une mesure, etc. D'ailleurs elle émane quasi systématiquement des PhD student ou autres étudiants/post-doc et jamais du chef de groupe (c'est sa tâche de vérifier les données qui sortent de son labo).
- La fraude "indirecte". Toujours volontaire, elle n'est pas une modification "directe" des données mais consiste à design/construire ton expérience pour amener un résultat voulu. En bref, tu acceptes volontairement d'induire un biais dans ton expérience et/ou tu omets d'ajouter certaines infos/données qui pourraient nuire à ta conclusion. C'est un peu ce que A. Wakefield a fait avec son papier "vaccin = autism". Il a ""oublié"" de rajouter un groupe contrôle, il a "involontairement" sélectionné des sujets déjà prédisposé à faire de l'autisme pour son étude, et il a élargi les critères de caractérisation des formes sévères d'autisme "sans faire exprès". La vérité c'est que c'est méga biaisé et complètement éloigné de la réalité (pour cette raison qu'après plusieurs milliers d'études, ces résultats n'ont jamais été reproduit).
- Le biais involontaire: enfin, parfois t'as beau design au mieux ton expérience, penser un maximum aux contrôles, etc...certaines expérience marche à un endroit A et pas à un B. Ca peut être du à des variations génétiques dans les populations étudiée, le climat qui joue sur la stabilité des réactifs, les machines utilisées plus ou moins performantes, le talent de l'expérimentateur, etc.
C'est donc souvent ce dernier point (et de l'omission d'info dans le second) qui font qu'un scientifique peut douter des travaux d'un autre. Ca arrive malheureusement plus souvent qu'on ne le croit et c'est l'exact raison qui fait que le peer-reviewing existe. C'est une barrière de sécurité pour éviter que tout et n'importe quoi soit publié (et elle reste imparfaite, cfr A. Wakefield).
Après faut également insister que la forme de la communication scientifique tempère ce problème. En effet, tu vas rarement trouver des affirmations martelée à coup de poing sur la table en mode "nous avons prouvé que". Les articles scientifiques détaillent (à fond) ce que les données montrent (rien de plus) puis, il y a une partie discussion dans laquelle on remet ces observations en contexte/perspective.
Si on montre sans contestation qu'une molécule X agit avec un récepteur Y et permet de réduire les symptômes d'une maladie, tu verra rarement qqun écrire "on a trouvé le traitement pour la maladie machin, emballé c'est pesé". Non. Ils tourneront ça sous "nous avons montré un effet bénéfique de cette molécule sur X patients entre tel et tel âge. Nous avons également montré que le récepteur Y était impliqué dans ce processus bénéfique. En conclusion, la molécule X pourrait être un médicament potentiel pour traiter la maladie machin. D'autre cible du récepteur Y pourraient également être étudiée pour élargir le pannel. Tout ceci mériterait davantage de recherche sur blablablabla".
Difficile de "contester" cette tournure de phrase. Les données sont là, les mecs ne font que répéter ce qu'ils observent en disant "Hm, c'est franchement très intéressant". Même Didier Raoult tourne la phrase de cette manière sur son article avec l'hydroxychloroquine en parlant de médicament potentiellement intéressant.
C'est d'ailleurs à ça que tu reconnais un bon intervenant scientifique sur un plateau: celui qui nuance (Marius Gilbert, E. André, Y. Coppieters, Sophie Luca, Murielle Moser, etc) d'un à chier (Alexandra Henrio Caunne)