[La Team du Captain'] Article rédigé par Michaël Bon pour Captain Economics. Michaël est docteur en physique et fondateur du "Self-Journal of Science", une plate-forme alternative de publication et dâévaluation de la recherche scientifique. Il est l'auteur de l'article "Principles of the Self Journal of Science: bringing ethics and freedom to scientific publishing?".
Crédit Photo : David Parkins - "Robust research: Institutions must do their part for reproducibility" [Nature]
La science et son évaluation
La force de la science vient de lâexigence de son processus de vérification. A la suite de leurs recherches, les scientifiques écrivent un article quâils rendent public, y font des propositions réfutables que le reste de la communauté travaille à réfuter, par le débat, la contre-expérience et la recherche du consensus. Ceci assure que les connaissances scientifiques sont solides et dépassent les préjugés de chacun des membres de la communauté. La science sâest développée ainsi, avec nombre de succès remarquables, jusque dans les années 60, période à laquelle les institutions en ont indirectement mais profondément changé les règles. En effet, désireuses de mieux manager leurs chercheurs, elles se sont mises en quête de critères quantitatifs pour en estimer la qualité productive. Un critère unique, aberrant, a été inventé, et progressivement adopté par toutes : le facteur dâimpact.
Le facteur dâimpact est le nombre moyen de citations engendré par les articles parus dans un journal donné dans les deux ans suivant leur publication[1]. Il est pensé plus ou moins comme le "prestige" dâun journal et les institutions estiment que leurs chercheurs ont bien travaillé sâils arrivent à faire publier un article dans les journaux les mieux cotés de leur discipline. Cette manière dâestimer la qualité scientifique dâun article est en soi absurde, bourrée de défauts[2] et dâeffets pervers quant à la manière de devenir un scientifique à succès. Mais là nâest pas le pire: cette manière dâévaluer détruit fondamentalement le processus scientifique en annihilant la communauté scientifique elle-même: le but du scientifique, pour faire carrière, être reconnu et obtenir des financements, nâest en effet plus de convaincre ses semblables mais dâobtenir la faveur dâun éditeur. Tous les scientifiques deviennent alors de fait des concurrents pour obtenir cette faveur qui ne pourra pas être accordée à tout le monde. Le fonctionnement horizontal, communautaire, impliquant critique constructive et recherche du consensus, nâest plus possible. Tout se polarise autour de journaux nouvellement promus comme les faiseurs de rois monopolistiques de leur discipline. Le processus scientifique se retrouve lui-même entièrement privatisé.
Le processus de publication actuel
Lorsquâun chercheur veut "publier", câest-à -dire faire connaître le résultat de ses recherches à ses pairs, il envoie son manuscrit à lâéditeur du journal de son choix. En général, il commence par le journal thématique ayant le plus gros facteur dâimpact. Lâéditeur décide si lâarticle est éligible pour son journal. Le cas échéant, il organise un tribunal en recrutant une, deux (le plus souvent) ou trois personnes anonymes qui vont, en un temps limité et bénévolement, rendre autant de rapports préconisant le rejet ou lâacceptation de lâarticle et, dans ce dernier cas, en exigeant certaines modifications. Ces rapports peuvent être contradictoires, mais lâauteur fait ensuite toutes les modifications nécessaires pour recevoir lâimprimatur de ses juges anonymes. Quand il a donné satisfaction, lâarticle est mis en forme selon la maquette du journal, lâauteur signe un transfert de copyright donnant tous les droits dâexploitation de son article à lâéditeur et ce dernier met le .pdf en vente en ligne sur son site. Dans dâautres nouveaux modèles, lors de cette dernière étape câest lâauteur qui en plus paye lâéditeur pour que lâarticle soit accessible au plus grand nombre. Si lâarticle est refusé, lâauteur recommence autant de fois quâil le faut auprès dâautres journaux, un par un, ce qui peut durer très longtemps. Si le journal qui accepte lâarticle a un gros facteur dâimpact, le scientifique sabre le champagne car il va pouvoir cocher les bonnes cases dans les rapports dâactivité de son institution (ex CNRS : "revues de rang A") et peut-être obtenir bourses européennes et promotion. Jusquâà la mise en ligne de lâarticle, lâentièreté du processus est invérifiable et se déroule dans la boîte mail dâun éditeur[3].
Ce système a une valeur essentiellement rituelle, sans doute intellectuelle, mais certainement plus scientifique. Pointons rapidement quelques-unes de ses nombreuses faillites:
1) La vérité scientifique est déterminée par deux personnes anonymes en un temps court. Evidemment, cela ne peut pas marcher et la science est majoritairement fausse, à un point où le contribuable peut légitimement douter de lâintérêt de continuer à financer la recherche. Par exemple, 90% des travaux les plus cités dans la recherche sur le cancer ne sont pas reproductibles, câest-à -dire sans valeur scientifique. Plus généralement, on estime que 50% de la recherche biomédicale ne lâest pas non plus. Imaginons comment lâabsence de contrôle sérieux se combinerait avec le volontarisme de lâindustrie pharmaceutique à défendre ses intérêts... Aucun domaine nâest épargné, voici un exemple en économie Le but dâun scientifique est de convaincre un éditeur en un temps court, et le storytelling dâun article est souvent plus important que son exactitude ou sa réelle profondeur. Les scientifiques sâastreignant à une éthique impeccable prennent le risque de se faire doubler par dâautres moins regardants.
2) Un système où le but est de satisfaire les attentes de quelques éditeurs a un conservatisme inné qui empêche lâémergence de nouvelles idées. La science ne se renouvelle pas au rythme de sa dynamique propre mais à celui des départs à la retraite ou du décès des éditeurs puissants ou des leaders que ces derniers ont consacré.
3) Le système a un coût exorbitant. Les éditeurs sâarrogent les droits dâexploitation des articles (très majoritairement financés par la recherche publique) et les revendent à la communauté scientifique. Il nây a pas de pression à la baisse des prix car il nây a pas de concurrence entre journaux: chaque article scientifique est unique ("biens non-substituables") et le chercheur a besoin de tous les acheter. Des milliers de journaux sont la propriété de multinationales (la plus emblématique étant Elsevier) aux marges souvent aberrantes (1,16 milliard de profit et 36% de marge pour Elsevier). Au final, la communauté scientifique paye globalement 23 milliards dâeuros chaque année pour retrouver lâaccès à sa propre production. Le contribuable doit lui aussi payer de son côté sâil veut savoir ce quâont fait les chercheurs de son argent (le droit de lecture dâun article est en général facturé 35 euros aux particuliers).
Initiatives actuelles
Depuis 20 ans, les efforts institutionnels se concentrent simplement sur la dernière phrase du paragraphe précédent, la question de "lâOpen Access"[4]. On voudrait que toute lâhumanité puisse avoir accès gratuitement à la science conservatrice et pleine dâerreurs quâelle a financée, ce qui est moralement irréprochable mais sans doute moins urgent que la résolution des autres problèmes. Les passions se déchaînent : on signe des pétitions, des tribunes enflammées, on nâhésite pas à dénoncer les multinationales, on en appelle au législateur. On investit même des millions dans des projets nationaux menés par des leaders aux vision et discours limpides.
En pratique, une analyse macroscopique ne laisse aucune place au suspense. Dans la mesure où ce sont les journaux qui contrôlent la science, lâopen access nâadviendra que selon leurs modalités, déjà bien connues des analystes financiers via la généralisation dâun modèle de prélèvement à la source ("gold open access") où le chercheur paye pour donner son article au journal. Ceci coûtera naturellement encore plus cher que le système actuel, et les futures dérives de ce nouveau modèle économique sont évidentes.
Il nây a actuellement pas de discours audible sur lâéléphant dans le couloir, câest à dire sur le fait quâen premier lieu un journal n'a ni la capacité ni la légitimité à évaluer la science (seule la communauté dans son ensemble peut le faire), et quâelle est devenue obsolète pour en assurer la diffusion à lâheure dâInternet. Le seul mode dâévaluation alternatif qui a réussi à faire parler un peu de lui dernièrement est les "altmetrics", qui proposent de compléter le facteur dâimpact par le buzz généré par les articles sur Facebook, Twitter et les médias de masse...
Solution
La solution de fond consiste bien évidemment à revenir à une évaluation scientifique rigoureuse, communautaire et horizontale, après quoi tout se réorganisera mécaniquement. Internet a résolu les problèmes dâespace et de temps de sorte que ce processus peut marcher encore mieux que par le passé. C'est sur ce pillier du "peer-to-peer" que s'est construite la plate-forme "The Self-Journal of Science" (SJS, www.sjscience.org). Il sâagit dâun site de dépôt dâarticles où tous les processus associés à la publication (le contrôle qualité, la construction dâune vision collective, la classification) sont pratiqués en autogestion et de manière auto-régulée en toute transparence. Des solutions nouvelles sont trouvées pour résoudre les deux problèmes fondamentaux que sont (1) faire en sorte que la contradiction et le désaccord ne soient pas anti-sociaux (2) faire en sorte que la liberté redonnée individuellement à tous les scientifiques soit toujours utilisée dans le sens de lâexcellence scientifique. Le détail de cette solution est expliqué ici et il serait trop long dâen expliquer le principe dans cette colonne (sauf si demande populaire!).
Action
Je voudrais conclure en mâadressant en particulier aux (jeunes?) chercheurs qui lisent ces lignes. Le système actuel est insupportable pour qui aime la science. De plus, dans un contexte de réduction de budgets, il sera toujours plus dur et injuste envers le "bas de lâéchelle" sociale scientifique que sont les doctorants et les post-docs, surtout ceux qui ne sont pas dans des labos stars. Il faut absolument retrouver un système dâévaluation dont tous les scientifiques sont partie prenante, ainsi que je le propose. Cependant, il est évident quâune telle redistribution du pouvoir ne peut pas se produire de haut en bas. Ni les politiques étrangement conciliants avec les intérêts des multinationales ni l'infime minorité de scientifiques en vue ayant atteint le sommet de ce système et y ayant trouvé leur compte ne vous y encourageront. Il faut sâemparer des outils offerts par SJS et commencer à donner son avis alors que personne ne vous le demande, afin de lancer la dynamique communautaire qui à un moment fera la démonstration évidente que la science quâelle produit est meilleure que celle du système actuel. Alors, lâargument décisif qui fera que ce système pourra être adopté (et inéluctablement remplacer lâancien pour gérer les attributions de financement et promotions) sera quâil est gratuit : la solution scientifique dont nous chercheurs avons besoin coïncide avec la solution économique que recherchent activement les institutions.
Lisez cet article, débattons, rassemblons-nous et passons à lâaction ! Je ne vois personnellement aucun autre scénario par lequel le système actuel évoluerait dans le sens de l'intérêt de la science et de la majorité des scientifiques.
[1] La définition d'une « citation scientifique » étant laissée à la discrétion dâune entreprise privée, Thomson Reuters, via son service "the Web of Science" qui en fait le décompte. Tout est invérifiable, mais on peut déjà remarquer que ne sont pas comptabilisés les travaux rédigés dans une autre langue que l'anglais...
[2] Pêle-mêle : le facteur d'impact ne se rapporte pas à un article mais à un journal, citer un article ne signifie pas qu'il est bon (au contraire je peux le citer pour le réfuter), il est très facile de manipuler le nombre de citations d'un article avec quelques complices, la moyenne des citations n'a statistiquement aucune pertinence car la distribution des citations n'est pas gaussienne, il ne tient pas compte de la taille des communautés, il privilégie le court terme et les effets d'annonce, etc.
[3] Dans certaines disciplines, comme la physique, il est à noter que sâest développée la pratique du "pre-print", à savoir que des sites comme arXiv.org permettent aux scientifiques dâau moins déposer leur manuscrit initial pour que tout le monde y ait immédiatement accès et pour se protéger dans une certaine mesure des divers abus pouvant avoir lieu au sein du tribunal (ex: le vol des idées de lâarticle par les juges anonymes, qui peuvent ralentir au maximum le processus et publier ces idées en leur nom avant).
[4] Le lecteur pourra constater lui-même l'abondance d'information et d'initiatives associées à ce mot-clé