Articles online onlyS'inscrire à la newsletterRechercher un article
Se connecter
image de couverture

La fraude et l'incitation à la publication dans la recherche : Recherche et publication #1

Chroniques soci(ét)ales d'une future ingénieureArgumentatifDécouverteEcrit par Léo__
La fraude et l'incitation à la publication dans la recherche

Bien. J'avais prévu d'écrire ce premier épisode de chronique et de le publier tranquillement comme si de rien n'était un beau jour, mais les récents évènements ont accaparé l'espace de communication publique autour d'un seul et même insistant sujet : le coronavirus. Dans ma grande magnanimité, je vous propose un tout autre sujet de discussion, non moins sympathique : l'injonction à la recherche que subissent nos professeurs actuellement en désarroi informatique, et tant d'autres.

Commençons par quelques éléments de contexte. La recherche en France et plus généralement dans le monde - mais pour ne pas dire de bêtises, on va se cantonner à la France - fonctionne sur le principe d'évaluation par les pairs. Vous êtes reconnu si des chercheurs déjà reconnus valident vos résultats, et estiment qu'ils méritent d'être publiés. C'est aussi le principe de l'argument d'autorité, les lecteurs ayant fait un peu de rhétorique connaissent peut-être : votre argument a plus de poids si quelqu'un de reconnu l'a validé ou lui-même défendu. Jusque là pas de problème.

Le XXIème siècle change la donne en permettant le développement exponentiel des technologies du numérique. Les données de tout genre sont désormais très nombreuses et relativement accessibles. La recherche s'est alors vue dotée de nouveaux moyens d'évaluer les travaux de ses équipes : des indicateurs objectifs. Et là - vous avez bien remarqué l'italique impromptu - un petit problème se pose : quelle objectivité peut-on accorder à des indicateurs censés évaluer la qualité d'une recherche ?

Dans un article[1] présentant la situation de quelques universités françaises au sein d'un classement communiqué par notre administration, on trouve lesdits indicateurs :

Les deux derniers indicateurs m'intéressent particulièrement. Les citations par article correspondent au nombre de fois qu'un article de votre laboratoire (ou en l'occurrence, votre université) est cité. J'espère donc pour vous que votre sujet de recherche est tendance, parce que si vous faites des travaux exceptionnels, mais que c'est un sujet très pointu auquel peu de gens s'intéresse... vous n'avez qu'un petit brin de chance d'être reconnu.

Deuxième indicateur, et là on rentre dans le vif du sujet : l'indice H, c'est-à-dire, je cite « le nombre d’articles de recherche produits par le corps enseignant d’un établissement. » Si je sais bien lire, on classe donc les enseignants, et les universités, selon le nombre d'articles qu'ils produisent. Vous avez donc davantage intérêt à produire nombre d'articles moins intéressants ou inaboutis dans diverses revues qu'à produire un travail de qualité qui prend nécessairement - et c'est le principe même de la recherche : chercher - plus de temps. Sans entrer dans une critique superficielle, les universités les mieux classées sont (visiblement) celles qui produisent le plus, et qui en ont donc les moyens : humains, en nombre d'équipes de chercheurs, financiers, pour tout le matériel extrêmement couteux que nécessitent certains domaines d'étude. Quid des petites universités sans moyens aussi considérables ? Voilà donc nos indicateurs "objectifs"... de richesse et de taille, pas intrinsèquement corrélés à une qualité de recherche. Laissons cependant à nos professeurs et chercheurs le soin de se charger de cet équilibre délicat, notons tout de même qu'ils doivent nécessairement composer avec.

L'excellent bouquin de Nicolas Chevassus-au-Louis : Malscience. De la fraude dans les labos[2], permet de se rendre compte de cette injonction très forte à la publication. Obtenir des résultats n'est plus suffisant. Il faut qu'ils soient pertinents, qu'ils valident absolument l'hypothèse de départ, quitte à transgresser un peu les éthiques personnelles. Quelques points effacés de la courbe pour la lisser, multiplication fictive d'expériences, la fraude peut également prendre des formes plus variées : poussés par la recherche de moyens ou de satisfaire les exigences de leurs supérieurs, certains chercheurs se laissent tenter à publier les mêmes résultats dans plusieurs revues, plagient, falsifient. Les exemples sont pléthoriques : Yoshiki Sasai (biologiste japonais), Woo-Suk Hwang (biologiste et vétérinaire sud coréen), Diederik Stapel (psychologue néerlandais), les frères Bogdanov (physiciens français)[3].

Bien évidemment, il ne s'agit pas simplement de chercheurs mal famés à la morale douteuse à lapider sans sentiments… Certes, certains sont guidés par une ambition trop grande, mais d'autres subissent l'impératif à publier (au point que certains se suicident, prenons la mesure des choses).

Il est difficile d'évaluer concrètement la fraude ; si certains ont effectivement eu la volonté de maquiller leurs résultats, l'erreur fait aussi partie de la recherche, de sorte qu'une erreur d'interprétation peut avoir été commise et l'auteur peut choisir de rétracter son article d'une revue. D'après M. Chevassus-au-Louis (nom définitivement trop long, faites quelque chose) citant une étude du Einstein College of Medicine de New York associé à Grant Steen, le taux de rétractation d'articles pour fraude ne cesse d'augmenter et aurait « été multiplié par dix depuis 1975 »[4] . Si l'on en croit par ailleurs certaines études sociologiques rassemblées par Daniele Fanelli (sociologue des sciences), « 2% des scientifiques admettent avoir une fois dans leur carrière fabriqué ou falsifié des résultats… soit cent fois plus que le taux de rétractation d'articles pour fraude. »[5] 2%, c'est beaucoup quand-même. Dans un monde où l'on confie à la science une valeur de vérité, sur laquelle on s'appuie généralement pour nos arguments d'autorité, il est inquiétant de constater que les créateurs de cette vérité falsifient - pour certains - leurs données.

Relativisons cependant. Tous les domaines de la recherche ne sont pas égaux devant cette fraude scandalisante. Les secteurs les plus touchés sont ceux de la biologie, de la médecine et de la chimie, largement soumis à des impératifs d'efficacité et de rentabilité. Quand des vies sont en jeux, on a nécessairement envie d'avoir des résultats probants. Mais les résultats non probants sont tout aussi importants ! Éliminant un champ qui n'est plus à explorer, les "mauvais" résultats permettent également de faire avancer les recherches. C'est donc sur cette injonction à l'erreur que j'aimerai vous quitter.

J'ai encore beaucoup de choses à vous raconter, mais pour l'heure j'ai peur de vous ennuyer. De plus amples développements sur le fonctionnement des revues de publication sont sûrement à venir dans cette chronique. En attendant soyez indulgents avec vos profs qui galèrent à publier et à être des bons enseignants confinés en même temps, après tout on est humain.

[1] https://www.letudiant.fr/educpros/actualite/le-classement-qs-2020-par-discipline-les-universites-francaises-se-distinguent.html

[2] Chevassus-au-Louis, Nicolas. Malscience. De la fraude dans les labos, Editions du Seuil. Clamecy, 2016. Disponible à la BU dès que je l'aurai rendu.

[3] Ibid., premier chapitre. (Pour les non-connaisseurs, Ibid ça veut dire "même livre qu'au-dessus, je vais pas tout réécrire à chaque fois".)

[4] Ibid., p.37.

[5] Ibid., p.38.