Photo : Matthieu Gafsou / MAPS 

Méconduite scientifique : pourquoi certains chercheurs s'arrangent avec la vérité

Plusieurs cas de « méconduite scientifique » ont été révélés ces dernières semaines. Mais qu’est-ce qui pousse des scientifiques à publier des articles qu’ils savent en partie faux ?

|
oct. 25 2018, 8:09am

Photo : Matthieu Gafsou / MAPS 

C’est un communiqué de presse qui pourrait sembler anodin. Début octobre, le CNRS a annoncé avoir pris des sanctions contre de deux directeurs de recherche pour « méconduite scientifique ». Ce terme de « méconduite scientifique » est en réalité un euphémisme, quand on comprend ce qui s’est passé.

Retour en 2015 : à l’époque, Olivier Voinnet et Patrice Dunoyer font l’objet d’une procédure disciplinaire et doivent publier des correctifs dans des articles publiés par le passé. Au total, résume Le Monde, cette première affaire a déjà abouti à la rétractation de huit articles et à une vingtaine de corrections par les publications scientifiques. Problème, ces corrections ne sont pas toutes bonnes. Et de nouvelles erreurs ont été trouvées, ce qui signifie une nouvelle enquête et une nouvelle procédure disciplinaire.

« L'enquête a établi qu'avaient été envoyés aux revues scientifiques plusieurs correctifs incomplets dans lesquels n'étaient pas corrigées des images précédemment manipulées et qui contenaient au moins une nouvelle manipulation d'image », explique le CNRS dans son communiqué, sans être plus précis. Le Monde, qui a pu avoir accès au rapport d’enquête raconte que celui-ci « identifie plusieurs images fabriquées dans plusieurs articles, y compris dans des corrections acceptées par les journaux. La “fabrication” consiste à “créer artificiellement des données expérimentales”. Elle est plus grave que la falsification, laquelle vise à “embellir” des images ou à effectuer des copier-coller de résultats provenant d’autres expériences ».

Mais ce cas de « méconduite scientifique » est loin d’être isolé. Rien qu’au CNRS, on parle d’une dizaine de cas par an (sans parler des cas non détectés). Parfois, ces erreurs sont involontaires. Souvent, elles sont intentionnelles. Créateur de Retraction Watch, site qui surveille les retraits d’articles dans le monde scientifique, Ivan Oransky estime que sur les presque 1 400 qui ont lieu chaque année (sur trois millions de publications), les deux-tiers le sont pour « méconduite scientifique ».

C’est le cas des deux chercheurs français du CNRS donc, mais aussi d’Eric Poehlman, premier chercheur américain à avoir fini en prison pour cela, de Michael LaCour, auteur d’une étude particulièrement remarquée avant de tomber de très haut, et plus récemment, de Piero Anversa cardiologue à l’université de Harvard et rattrapé par la patrouille pour avoir fabriqué ou falsifié des données dans 31 articles publiés. Piero Anversa était notamment connu pour avoir affirmé qu’en prenant des cellules souches issues de la moelle épinière et en les injectant dans le cœur, on pouvait régénérer ce dernier, ce qu’aucune autre étude n’a pu répliquer par la suite.

On estime aujourd’hui que 2% des chercheurs mentent (à plus ou moins grande échelle) dans leurs publications. Si ce chiffre est exact, cela signifie également que des milliers d’articles frauduleux passent entre les mailles du filet chaque année, notamment parce que le système d’évaluation par les pairs (peer-review) « marche à peine », assure Boris Barbour, chercheur au CNRS, et organisateur de PubPeer, un site sur lequel on peut commenter des travaux scientifiques.

Comme le notait Pacific Standard, il n’y a pas forcément besoin d’avoir l’âme d’un « tricheur » pour se comporter ainsi. Le site américain explique à quel point il peut être difficile pour certains chercheurs d’accepter que de bonnes idées ne donnent finalement pas les résultats attendus, et que la tentation peut être grande de s’arranger avec la réalité.

« À partir d’une idée convaincante, un scientifique peut avoir investi des mois ou des années de travail, avoir présenté des conférences devant des collègues ou le public, et avoir publié des résultats prometteurs. Mais parfois, les expériences suivantes ne se passent pas comme prévu, et il devient clair que l’idée chérie était trop belle pour être vraie, et qu’il faut l’abandonner. [...] Reconnaître ses erreurs est l’une des compétences les plus importantes à apprendre pour un scientifique. »

Mais tout le monde ne possède pas la force de caractère (ou l’éducation) suffisante pour agir ainsi. Boris Barbour explique qu’il existe « un continuum de problèmes, qui va jusqu’à un extrême de fraude avérée, mais qui passe par des petits aménagements, des incompétences, des raccourcis, qui font qu’une partie de la recherche publiée aujourd’hui n’est pas très fiable, réplicable et pas très robuste ».

Le CNRS et Harvard ne donnent pas les raisons qui ont poussé Patrice Dunoyer ou Piero Anversa à avoir manipulé leurs données. « Même quand ils se font coincer, les tricheurs ne se livrent quasiment jamais », résume Boris Barbour.

« On ne peut pas tout le temps publier des découvertes géniales et intéressantes à chaque fois. »

L’un des rares à s’être exprimé publiquement est Eric Poehlman, le chercheur américain condamné à un an de prison en 2006. Lors de son procès, il avait avancé plusieurs raisons à ses mensonges et fabrications multiples dans le cadre de sa défense. « Je m’étais placé dans une situation, dans une position académique où le les bourses que l’on reçoit permettent de déterminer la valeur de quelqu’un. Tout dérivait de cela. Avec cette bourse, je pouvais payer des salaires, ce qui m’a toujours tenu très à cœur. Mais cela a créé un comportement inapproprié. J’étais sur un tapis de course et je ne pouvais plus en descendre. » Comme le soulignait alors le New York Times Magazine, tout cela n’était pas qu’un fardeau pour le scientifique, « c’était la preuve de son succès. C’était un homme de prestige au sein de sa communauté ».

Reste que c’est la logique contre laquelle mettait en garde l’ancien président du CNRS, Alain Fuchs, dans Libération en 2015 : « Dans cette compétition exacerbée, chaque équipe s’organise pour être la première à publier selon le principe non écrit mais intégré qu’il vaut mieux être le premier, même si les résultats ne sont pas encore très solides. Ce sont des pratiques contre lesquelles il est très difficile de lutter car nous en sommes collectivement tous complices, même si, il faut le relever, certaines instances mettent en garde régulièrement le monde scientifique contre ces déviances. » C’est également ce que retenait Pierre Corvol, auteur d’un rapport visant à renforcer l’intégrité scientifique dans le monde de la recherche, en 2016, alors qu’il était interviewé par La Croix : « Depuis plusieurs années, la pression est grandissante sur les chercheurs, notamment les jeunes et les post-doctorants qui veulent se présenter aux concours d’entrée dans les établissements de recherche et les universités. Pour avoir des chances de réussir, ils doivent disposer d’un minimum de publications dans les meilleures revues internationales comme Cell, Science ou Nature. Ce que les Anglo-saxons résument par l’adage “publish or perish”. »

Mais cette pression ne concerne pas que les jeunes et les post-doctorants. « Les chercheurs sont des êtres humains, et ils sont sous une pression énorme pour publier » poursuit Ivan Oransky de Retraction Watch. « C’est la seule façon dont on mesure leur travail. C’est la seule façon d’obtenir une promotion ou une titularisation, des bourses ou des prix. La pression est donc de publier en permanence. Mais on ne peut pas tout le temps publier des découvertes géniales et intéressantes à chaque fois. »

C’est ce que confirme Boris Barbour : « On est incité à publier pour survivre à chaque étape de notre carrière. Et dans la nature de ce qu’on produit, les publications “réussies” sont celles que l’on arrive à placer dans les “bons journaux”, et il y a tendance à penser que pour être publié dans ces journaux, il faut des histoires assez complexes, ambitieuses, et en fait, souvent irréalistes. »

« Ce n’est pas la science qui a un problème, mais la publication scientifique », argue Ivan Oransky. Un système que beaucoup dénoncent, mais pour lequel aucune solution simple ne semble émerger. Et ceci pourrait bien jeter le discrédit sur le reste de la profession. Comme l’écrivait le New York Times Magazine en 2006 déjà, une fois que la confiance entre chercheurs et grand public a été brisée, les conséquences peuvent être considérables. « Nous avons déjà une grande partie de la population qui ne croit pas en la science par principe », expliquait alors l’un des enquêteurs du Bureau de l’intégrité de la recherche lors de l’affaire Poehlman. « Ça ne nous aide pas du tout. »

Motherboard est aussi sur Facebook, Twitter et Flipboard.