Non classé Politique de publication Recherche

Des éditeurs et de leur influence

2008 s’est terminée sur une « affaire » révélée dans le Monde et sur le blog de Sylvestre Huet. Des éditeurs français, proches de Claude Allègre, ministre pressenti, auraient abusé de leur pouvoir pour faire « passer » des articles de leurs petits copains. L’affaire embarrasserait en haut lieu; Elsevier, groupe responsable de la publication scientifique, a choisi d’exclure tous les éditeurs impliqués du comité éditorial. Alors, à qui faut-il jeter la pierre ?


C’est quoi un éditeur ?

Pour comprendre les dessous de cette affaire, il faut d’abord comprendre comment marche le système de publication scientifique. Lorsqu’une découverte est faite ou qu’un résultat original est trouvé, les scientifiques souhaitent publier leurs résultats. Aujourd’hui, s’il est très simple de mettre un article en ligne ou sur un serveur d’articles dédiés, l’approche « traditionnelle », consistant à passer par une revue spécialisée lue par tous vos collègues, est toujours favorisée.

Les revues scientifiques ont ce qu’on appelle un « editorial board » (comité éditorial), composé d’éditeurs, spécialistes du domaine scientifique et responsables de la publication. La décision de publication d’un article ou non sera prise in fine par un éditeur au nom de cet editorial board. Lorsque l’on soumet un article à une revue, on contacte d’abord un de ces éditeurs représentant le comité éditorial. On lui envoie l’article, en lui expliquant pourquoi il est le meilleur de la Terre et doit absolument être publié. Cet éditeur le lit alors rapidement et jauge sa qualité scientifique et sa pertinence pour la revue. S’il pense que votre article n’a pas l’air très intéressant, c’est fini pour vous et il vous le renvoie en disant que la revue ne le publiera pas. S’il pense que votre article a l’air potentiellement intéressant, la deuxième phase du processus commence. L’éditeur choisit des « referees » (arbitres) qui sont des spécialistes de votre domaine (des collègues quoi). Ces arbitres, en général anonymes, sont chargés de lire en détail l’article et de le décortiquer, pour donner un avis sur sa pertinence à l’éditeur. Libre à vous bien sûr de suggérer des noms d’arbitres à l’éditeur (ou d’exclure votre pire ennemi de la liste des arbitres potentiels). Finalement, les arbitres rendent un avis sur l’article. Si leur avis est favorable, pas de problème, votre article sera normalement publié. Sinon, différents cas sont possibles. Si les rapports des arbitres sont plutôt défavorables, votre article sera probablement rejeté. Si les rapports sont mitigés ou très différents des uns des autres, cela dépend un peu de l’éditeur ou de la politique éditoriale de la revue, on peut solliciter un autre arbitre par exemple …

Editeurs de complaisance ?

Revenons donc maintenant au cas présenté dans la presse. Si je comprends bien, il s’agit de mettre en accusation des éditeurs français de l’institut de physique du globe de Paris (IPGP), pour une revue publié par Elsevier, grand groupe dans l’édition scientifique. Ceux-ci auraient édité des articles d’autres membres de l’IPGP. On reproche donc un conflit d’intérêt aux chercheurs français. La question est donc la suivante : y a-t-il un problème éthique pour un éditeur à éditer des papiers de scientifiques membres de la même institution ?

Pour ma part, je pense que non. D’abord il faut être clair : si on pense qu’il y a un problème, il faut clairement interdire cette pratique. Or, lorsqu’un article est publié, le nom de l’éditeur apparaît, donc le processus éditorial est de facto public, et la situation était connue de tous depuis très longtemps, y compris par l’editorial board de la revue et par Elsevier. Si c’était un problème, il fallait réagir dès le premier article, pas cinquante articles plus tard.

Ensuite, il ne faut pas non plus idéaliser le monde de la recherche et être plus royaliste que le roi. La communauté scientifique est une petite communauté. Tout le monde se connaît plus ou moins dans un même domaine. D’un point de vue pratique, il est bien évident que tout scientifique lorsqu’il soumet un article « cible » son éditeur, et choisira un collègue qu’il soupçonne d’être bienveillant sur son travail, voire carrément un copain (indépendamment de son institution). Certaines revues (comme PNAS) ont même des voies de soumission « spécial copinage », où un éditeur peut choisir de publier un article de son choix par an dans la revue sans passer par des arbitres. C’est pour toutes ces raisons que certaines personnes n’ont aucun problème pour faire « passer » des articles dans des revues (y compris les plus prestigieuses) là où d’autres galèrent à qualité scientifique égale. Si j’étais un scientifique français, dans un domaine où une revue internationale relativement prestigieuse a des éditeurs français que je connais, je n’hésiterais pas à leur envoyer mon article à éditer.

Car en réalité, il faut bien voir que la décision réelle de publication dépend surtout des rapports des arbitres. L’éditeur ne peut pas sauver un mauvais article si le rapport des arbitres est mauvais. Pour qu’un article soit publié, il faut que les arbitres soient favorables et convaincus. Dans le cas présent, il manque une information cruciale : quels étaient les arbitres choisis par les éditeurs français ? Y a-t-il eu des « arbitres de complaisance », eux-mêmes issus de l’IPGP par exemple ? Le problème est que les arbitres sont en général anonymes. Seul Elsevier possède les noms des arbitres choisis par nos éditeurs français; y voit-on quelque chose d’anormal ? Là est le problème éthique potentiel à mon avis. Elsevier n’évoque rien de ce point de vue-là et je les soupçonne de ne pas avoir vu grand chose; ils préfèrent s’appuyer sur une pseudo étude bibliométrique affirmant que les articles édités par ces éditeurs français seraient moins cités, ce qui me paraît être un argument bien faible, le nombre de citations dépendant de trop nombreuses variables autres que la pure qualité scientifique intrinsèque …

Elsevier, géant en danger

Il faut voir que cette affaire intervient dans un contexte précis : d’abord la réputation d’Elsevier a été ternie récemment par une affaire totalement incroyable, l’affaire El-Naschie (via un commentaire de b chez l’énervé). Un éditeur d’une revue mathématique a ainsi pu publier plusieurs dizaines de ses propres articles dans sa propre revue, dont certains semblaient être … de la numérologie ! Je soupçonne Elsevier d’avoir craint une nouvelle affaire de ce type, d’où la suspension immédiate des éditeurs français.
Ensuite, il faut bien voir que la plupart des gros éditeurs scientifiques sont, à terme, condamnés. Tout le monde le sait, y compris Elsevier. La raison est que les institutions universitaires en ont marre de payer des fortunes des articles téléchargeables sur internet; de plus sont récemment apparus des concurrents sur Internet gratuits comme Plos. Les gros groupes cherchent maintenant constamment à défendre leur pré carré et ne sont pas sereins (est-ce pour cela qu’Elsevier a investi … dans le commerce d’armes ?).

Pour conclure, les éditeurs français mis en cause ne me semblent pas avoir forcément fauté (en l’absence d’informations supplémentaires), et leur suspension de l’editorial board me paraît surtout être une (sur)réaction d’Elsevier intervenant dans un contexte difficile pour la revue. Si vous voulez jeter la pierre sur Courtillot et al., il me paraît plus raisonnable de se consacrer à la critique de certains de leurs articles scientifiques

About the author

Tom Roud

Nanoblogger scientifique, associate professor incognito (ou presque). Suivi par @mixlamalice

24 Comments

  • C’est vrai que c’est un peu pousser un cri d’orfraie, comme je comprends l’histoire a partir du blog libé. Assez rapidement, à moins de taper dans le plus prestigieux, on va être reviewé par des collègues – à titre personnel, je refuse systématiquement une review si je connais personellement la personne, parce que je me sens pas super expérimenté et ne me sens pas capable de ne pas être trop influencé. C’est aussi pour ca que la review en « double » anonyme ne marche pas vraiment – on sait assez vite qui fait quoi, dans son propre domaine.

    Maintenant, le role précis de l’éditeur peut avoir son importance: par exemple, dans les revues de mon propre domaine, il me semble que l’on ne passe pas par l’éditeur, mais directement à la review – l’éditeur n’intervient qu’en arbitre. Peut être que dans ce cas précis, l’éditeur a un role plus important que dans le cas que tu décris ?

  • Oui, les problèmes sont plus dans le système de revue par les pairs lui-même. Je n’ai encore jamais reviewé des papiers de connaissances, mais je pense que cela ne va pas tarder; j’ai par exemple clairement déjà reviewé des papiers de gens qui m’ont eux-mêmes reviewés et sur lesquels je finirai bien par tomber en conférence. Je ne vois pas comment on peut faire autrement à dire vrai : n’oublions pas que l’activité de revue est bénévole et que les revues manquent en réalité d’arbitres et ne peuvent donc se permettre de trop faire la fine bouche.

    Si j’en crois le site de ESPL, la revue concernée, le processus de revue m’a l’air tout à fait standard. Il est détaillé sur la page suivante :
    http://www.elsevier.com/wps/find/journaldescription.cws_home/503328/authorinstructions

    Il y a l’avertissement en gras dont parle Sylvestre Huet.

    Plus généralement, un truc qui m’a frappé dans le post de S. Huet est qu’il insiste lourdement sur le fait que le nombre de publications influent sur la carrière, ce qui est vrai. Mais c’est cela le véritable problème, pas que des papiers plus ou moins mauvais soient édités. Si les gens lisaient les papiers avant de recruter les gens, publier dans une revue X plutôt que Y n’aurait pas beaucoup d’importance, et on n’aurait pas de suspicions ou de problèmes de ce type.

  • Un élément marrant quand même est que cette petite histoire vient confirmer des choses que « tout le monde sait » dans le milieu des geosciences Françaises :

    – D’une part, que bien que EPSL soit sensé être une des revues de plus haut niveau en geosciences, elle a servi à publier un certain nombre d’articles de DEA d’étudiants de l’IPG (autrement dit, alors que le reste du monde aurait fait un CRAS, les étudiants de l’IPG passent leur premier papier dans EPSL);

    – D’autre part, que c’est assez représentatif d’un état d’esprit de certaines personnes de l’IPG : en gros, dans la mesure ou ils sont « les meilleurs de France » (sic), les règles de fonctionnement normal (des appels d’offre, des recrutements, etc.) ne sont pas assez bopnnes pour eux et ne s’appliquent pas à leur cas.

  • Ah, donc en fait tu confirmes bien qu’il y a bien un truc anormal ? Parce que sur ce qu’on lit ici ou là, c’est loin d’être clair (et je pense que la vraie question reste : y a-t-il eu des referees de complaisance ?).

  • Meme les referee de complaisance, ca m’etonnerait que ce ne soit pas assez repandu. Recemment core, D. Monniaux parlait d’un cas qui m’est tout de suite venu en tete lorsque j’ai lu ton article:

    http://david.monniaux.free.fr/dotclear/index.php/2008/12/21/344-grandes-signatures

    Certains ne s’en cachent d’ailleurs pas: j’ai deja entendu dire qu’evidemment, tel chercheur sera publie dans telle conference, car c’est une pointure. C’est d’ailleurs pas forcement du copinage: personellement, etant thesard, je suis encore naif et prend beaucoup de temps a faire mes reviews (je lis plusieurs fois l’article, et si je ne comprends pas, je vais voir les precedents articles de l’auteur cite, par exemple) – si l’auteur est repute et que je comprends pas trop l’interet ou la nouveaute, je me remets en question, et si c’est qqn de pas tres connu, je me pose moins de questions. Je me force d’ailleurs a ne jamais me renseigner sur l’auteur en premiere lecture, pour eviter de m’influencer trop.

    En fait, je me dis que le probleme, c’est peut etre aussi que beaucoup de gens ne savent pas reviewer; on a tous eu des mauvaises reviews (dans le sens completement a cote de la plaque, pas dans le sense negative). Alors bien sur il y a le probleme du temps, et tout ca, mais je trouve un peu surprenant finalement que l’on ne soit jamais forme a la review. Un des trucs qu’on apprend un these, c’est ecrire un article, mais ecrire une review ? Sur le machine learning blog, le probleme de mauvaise review a ete aborde plusieurs fois (dans le domaine du machine learning, evidemment, mais je pense que ca reste applicable a d’autres domaines):

    http://hunch.net/

    Comme tu le remarques, il ne faut pas etre plus royaliste que le roi: il y aura toujours des jeux d’influence – bien avant le plublish or perish, ce type de conflit et l’influence que ca a eu sur les carrieres a ete preponderant.

  •  » Ah, donc en fait tu confirmes bien qu’il y a bien un truc anormal ? Parce que sur ce qu’on lit ici ou là, c’est loin d’être clair (et je pense que la vraie question reste : y a-t-il eu des referees de complaisance ?).  »

    Des trucs anormaux, je sais pas. Parmi les gens nommés dans cette histoire, il y en a qui sont probablement de solides magouilleurs; d’autres que je crois parfaitement honnêtes. Et comme tu le dis, ça dépend d’abord et surtout des reviews — même si l’éditeur, via le choix des reviewers ou la façon dont il interpréte un commentaire mitigé, voire la possibilité de solliciter des papiers que l’auteur ne pensait peut etre pas publier la à l’origine, peut avoir un certain poids. Disons que « la femme de César ne doit pas être soupçonnée » : même si il n’y a pas eu d’abus, c’est quand même une situation assez propice aux dérapages.

    Donc plutot que « confirmer qu’il y a un truc anormal », on va dire ça autrement : certains des papiers en question, j’ai été supris de les voir dans EPSL. Moi, j’aurais pas tenté EPSL avec ce genre de choses, j’aurais visé un cran en dessous. Maintenant, c’est peut etre moi qui aurait eu tort et qui aurait perdu une occasion de passer un EPSL.

    Mais franchement, cette histoire ne m’a pas surpris. Tout le monde en France (dans la communauté, je veux dire) était au courant depuis toujours qu’il est facile de passer un papier dans EPSL quand on est à l’IPG, parce que les éditeurs sont X ou Y. Bon, « tout le monde est au courant » ca veut dire que c’est une de ces rumeurs plus ou moins fondée qui court sous le manteau. N’empêche que Elsevier semble trouver que c’est « plus » plutot que « moins »….

  • Salut
    Tout celà n’arriverait pas si l’édition scientifique faisait preuve de beaucoup plus de transparence dans toutes leurs procédures. J’ai jamais compris pourquoi les rapports des revieweurs sont anonymes, pourquoi ces rapports ne sont pas public a quelques rares exeptions pret, pourquoi in fine les éditeurs ont un droit presqu’absolu pour refuser ou accepter un article sans jamais avoir de compte a rendre ? Ce système, c’est la porte ouverte a tout les arbitraires et tout les abus et l’on est otage de tout ça, car pas de publi => pas de blé => pas de recherche. Et ce qui me rend encore plus malade c’est le prix qu’on paie pour publier alors qu’on fait TOUT le boulot. Quand je dis TOUT c’est presque leur fournir le PDF complet avec les images quivontbien et tout au bon format. Y a quasiment plus aucun travail d’édition…

    C’est vraiment un bussness de rêve : t’a rien a faire, t’a aucune charge salariale, pire, les contributeurs se battent pour te payer, tu fait en plus payer le lecteur bien sur et t’a aucun compte rendu a rendre ! Ah si, de temps en temps, un communiqué de presse contrit et désolé quand le système dérape (mais on y change surtout rien…).

    Bonne année a tous quand même :-))))

    A+
    J

  • @ marteau et John :

    Tout le monde en France (dans la communauté, je veux dire) était au courant depuis toujours qu’il est facile de passer un papier dans EPSL quand on est à l’IPG, parce que les éditeurs sont X ou Y.

    Comme l’explique david plus haut, c’est une pratique je pense beaucoup plus répandue dans toute la communauté internationale que les journalistes français ne le croient. Cela vient-il d’un manque de transparence ? Je ne suis pas sûr; si les reviews étaient publiques, elles risqueraient d’être encore plus consensuelles qu’elles ne le sont déjà (sachant que de toutes façons un referee est rarement complètement anonyme, on a toujours une petite idée de son arbitre). En réalité, j’ai le sentiment que le « débat » scientifique a deserté la sphère publique pour être remplacé par un consensus mou. Les gens règlent leur compte en conférences ou en privé, mais dans les revues, là où le débat devrait avoir lieu, jamais les choses ne sont dites clairement, si bien d’ailleurs que des papiers « sloppy » sont toujours lus et cités (j’ai le sentiment que c’est le cas dans mon domaine). La raison est justement le « publish or perish » : comme il faut publier pour survivre, chacun baisse son exigence scientifique pour ne pas se mettre à dos la communauté . Qui imaginerait aujourd’hui un simple post-doc attaquer publiquement le travail scientifique d’un « ponte » sans mettre sa carrière en danger ?

    Et ce qui me rend encore plus malade c’est le prix qu’on paie pour publier alors qu’on fait TOUT le boulot. Quand je dis TOUT c’est presque leur fournir le PDF complet avec les images quivontbien et tout au bon format. Y a quasiment plus aucun travail d’édition…

    Oh je suis bien d’accord, c’est pour ça aussi que je dis que les éditeurs scientifiques sont condamnés car les gens acceptent de moins en moins ce système.

  • Salut Tom,
    si je lis attentivement l’article du Monde, le responsable de la revue a reçu un dossier gentiment compilé contenant les articles, et pointant pour chacun l’auteur et l’éditeur qui partageaient un institut en commun. Visiblement, les gens de l’IPGP ne se sont pas fait que des amis dans la profession…

    Mais le généreux compilateur du dossier a pris la peine de rassembler une troisième information, qui enfonce bien le clou : ces articles sont moins cités que les autres articles d’EPSL, et également moins cités que des articles dont les auteurs sont de l’IPGP et qui ne sont pas passé par un éditeur de l’IPGP. De là à en conclure qu’ils n’auraient pas dû être publiés, il y a un pas (que je me garderai bien de franchir…)

  • Salut Nicolas,
    apparemment, c’est vrai que les gens de l’IPGP n’ont effectivement pas que des amis; cela dit, les haines recuites ne sont pas le privilège des scientifiques français.

    Pour moi ces histoires de citations sont assez irrelevantes : je ne pense pas qu’on puisse jauger la qualité d’un article sur son nombre de citations. Le nombre de citations est un indicateur quantitatif, pas qualitatif; c’est peut-être bon pour le pouvoir politique ou pour un businessman éditeur qui n’y connaît rien et a besoin de chiffres « objectivés », mais pas pour des scientifiques qui doivent juger sur pièce (comme « mon marteau et moi » l’a fait). Un article peut être plus ou moins cité en fonction de plein de choses qui n’ont rien à voir avec la science proprement dite; par exemple de la publicité faite par les auteurs en conférence. Je parle d’expérience, mon dernier article que j’estime assez bon n’a pas encore été cité car nous n’avons pas assez communiqué dessus je pense. Et typiquement, les français communiquent mal sur leur travail.

    Quand bien même l’article ne plairait pas à la communauté, cela ne veut même pas dire qu’il est nécessairement mauvais; je crois de moins en moins à la sagesse de la « communauté scientifique » dans son ensemble pour jauger de la pertinence d’un travail (c’est peut-être une jugement un peu extrême, mais je suis effaré devant certains trucs dans ma discipline).

  • J’imagine que ca a deja ete fait, mais je pense qu’il y aurait des choses interessantes a voir en faisant des etudes statistiques un peu poussees sur les citations/impact dans un domaine. En fait, je pense que les citations, c’est plus utile dans les extremes (si un papier est cite des milliers de fois, il est rare que ce soit ininteressant – pareil s’il n’est jamais cite) que le milieu. Ca depend des milieux qui ont des ‘constantes de temps’ differentes, mais le timing joue enormement de toute facon.

    A. Connes (le mathematicien), avait un argument que je trouvais delicieux: un article peu cite ne l’est peut etre que parce qu’il est complique et demande du temps a comprendre – les papiers tres cites sont ceux qui sont simples et pas novateurs. Ceci dit, ca suppose que les gens lisent les papiers qu’ils citent.

  • Techniquement (je ne suis pas sûr que ça soit toujours vrai mais ç’a été en tout cas l’argument d’Elsevier pour suspendre les gars, si j’ai bien compris), un éditeur qui reçoit un article provenant de son labo (ou de son équipe) est censé l’envoyer à l’un des autres éditeurs (il y a toujours plusieurs éditeurs dans une revue). Alors je ne suis pas complètement naïf mais j’imagine que ça ne circonscrit pas le risque de magouilles, mais la ils ont apparemment un peu abusé. D’autre part, Courtillot (un des gars de l’IPG) a déjà été melé a une histoire pas très claire quand l’un de ses papiers récents s’est fait démonter par l’ensemble de la communauté scientifique (les commentaires étant du genre: « soit il a falsifié intentionnellement ses résultats, et c’est grave, soit il n’a vraiment rien compris à ce qu’il faisait, et finalement c’est grave aussi »).

  • @ david : il y a quelques années (gasp déjà !), j’avais parlé des « sleeping beauties », ces papiers cités peu au début, mais qui ensuite sont très cités quand des domaines s’ouvrent.

    http://tomroud.cafe-sciences.org/2006/10/21/citations-une-approche-physique/

    Preuve que le nombre de citations n’est pas nécessairement corrélé à la valeur scientifique, mais est aussi le reflet de son époque… Il n’est pas bon d’être trop en avance sur son temps par exemple; Mendel avait ainsi failli être oublié.

    @ mixlamalice : je ne sais pas trop, soit on interdit une pratique, soit on l’autorise. C’est un peu étrange cette semi tolérance. Sinon, à choisir entre l’incompétence et la malhonnêteté (scientifiquement parlant), je crois que je préfère personnellement l’incompétence 😉

  • « Soit on interdit une pratique, soit on l’autorise, c’est un peu étrange cette semi-tolérance » »: je me dis exactement la même chose en ce qui concerne les recrutements locaux en France… (faut dire que mon labo de thèse a pour politique de ne PAS recruter ses anciens thésards, et que 2-3 labos qui potentiellement pourraient m’intéresser recrutent très majoritairement leurs anciens thésards: comme je n’ai pas 50 labos en ligne de mire, ça a tendance à m’interpeller). C’est vrai qu’aux US, la règle est claire, on ne recrute pas ses anciens thésards, sauf cas vraiment très très exceptionnel. Même les meilleures facs comme Harvard respectent la règles alors qu’a priori ils pourraient se sentir lésés vu qu’ils forment les meilleurs (bon ok ils recrutent dans les autres facs de l’Ivy League). Cette règle, comme toute règle, a ses défauts (notamment elle suppose des erreurs possibles de recrutement). La règle inverse, qui consisterait à ne recruter que des locaux, conduirait a mieux maitriser son recrutement (a priori on sait à quoi s’attendre avec le mec qu’on recrute), mais a l’inverse, ça diminue de beaucoup l’apport d’idées nouvelles dans le labo: si on ne recrute que des locaux, on finit bien vite par faire tout le temps la même chose. Mais bref, ce qui fait surtout ch… en France, c’est l’absence de règle claire. S’il y avait une règle, même pas terrible, au moins on pourrait s’y adapter.

    Sinon, désolé d’avoir parlé de l’autre histoire de Courtillot, ta conclusion avec le lien de l’article Libé m’avait échappé.

    Sinon d’accord avec toi sur les citations: un papier cité 1000 fois est rarement mauvais, mais parfois il faut se méfier avec les papiers jamais cités. Dans ma partie, un mec a fait beaucoup de papiers dans les années 60 dans des revues tchèques tombées dans l’oubli. Il a été pas mal cité quand même, mais bon, pas mal de gars ont refait purement et simplement ses manipes 30 ans plus tard et ont sans doute plus connu la gloire que lui.
    Dans mon école, il y avait aussi une légende urbaine sur un chercheur en Physique Quantique, dont la thèse aurait consisté a apprendre le russe pour traduire en anglais plusieurs papiers publiés du temps des Soviets (ils sont pas mauvais en calculs, ces russes).

  • Ce qui est marrant -et pas très surprenant 😉 – c’est que les blogueurs scientifiques ont beaucoup d’indulgence pour les travers… des scientifiques. Tom Roud dit que ce n’est pas très grave d’être édité par quelqu’un de la même institution et dit qu’il vaut mieux porter la critique sur le plan des (mauvais) travaux des intéressés… mais c’est le même problème !

    Un point qui n’est pas « sorti » dans la presse ou sur le blog de Libé est que précisément, ces mauvais travaux sur de prétendues influences solaires dans les changements climatiques du XXe siècle ont été publiés dans une grande revue (EPSL) et édités par… Robert van der Hilst, qui n’est pas salarié à plein temps de l’IPGP mais qui y est quand même professeur associé. Et c’est lui qui édite tous les papiers un peu controversés (genre théorie des trapps du Deccan et extinction du K-T) qui sortent de l’IPGP. Donc oui, trois fois oui, quand on constate de telles situations, on peut penser que c’est pas bien, pas bien du tout, de se faire éditer par des gens de la même affiliation.

  • @ armando :

    Tom Roud dit que ce n’est pas très grave d’être édité par quelqu’un de la même institution et dit qu’il vaut mieux porter la critique sur le plan des (mauvais) travaux des intéressés… mais c’est le même problème !

    Non ce n’est pas le même problème. Ce n’est pas parce qu’on édite un papier de quelqu’un de son institution qu’il est mauvais. Et ce n’est pas parce qu’une théorie est controversée que le papier est mauvais. Sans compter que ce n’est pas parce que des gens sont dans des institutions différentes qu’ils ne peuvent pas être copains comme cochon.

    Des papiers effectivement mauvais, il y en a partout, dans toutes les revues, même les plus prestigieuses. La raison majeure est que les referees ne font pas correctement leur boulot, la responsabilité de l’éditeur est à mon avis secondaire. Et dans cette affaire, c’est la question que je me pose : quid des referees ? S’il y a eu des referees de complaisance, ils méritent d’être tout autant blacklistés que les éditeurs mis en cause.

    Pour finir, cela pose la question de la publication scientifique en général. Cette affaire provoque pas mal de réactions à cause de l’obsession collective face aux publications, son nombre, l’endroit de publication, etc… Encore une fois, si les gens étaient jugés sur la qualité de leur papier et non pas d’autres facteurs fumeux, le problème ne se poserait pas. Le processus de publication devrait être un processus banal et normal, dans lequel les gens exposent leur résultat le plus clairement possible, et retournent travailler le plus vite possible. En réalité, la publication est devenue une espèce de parcours du combattant, dans lequel il s’agit d’être à la fois le plus convaincant possible quitte à mettre des résultats négatifs sous le panier, le plus innovant mais aussi le plus consensuel possible pour ne pas froisser certains, et dans lequel on se focalise de plus en plus sur des c*nneries soit éditoriales, soit politiques, soit pseudo-scientifique (pour satisfaire des mauvais referees par exemple) plutôt que sur ce qu’on fait vraiment. Des fois, en lisant des vieux papiers, on se dit que ceux-ci ne pourraient pas être publiés aujourd’hui, avec leurs 4 références, leur courte introduction, leur focalisation sur le problème sans chichi ni mots flashy et ronflants, et parfois leur description honnête des limites de ce qu’ils font.

  • Le fait qu’une part importante des articles est tout simplement inutile n’est pas nouveau. En fait, un article ne sert plus a grand chose scientifiquement parlant; un truc qui m’a marque quand j’etais encore en ecole d’inge, c’etait la phrase de D. Donoho dans un papier sur le « reproducible science »: « An article about computational science in a scientific publication is not the scholarship itself, it is merely advertising of the scholarship. The actual scholarship is the complete software development environment and the complete set of instructions which generated the figures. » Je pense que ca s’applique a d’autres sciences .

    Comme tu le dis, l’article est devenu cette espece de course souvent penible – finalement, son interet dans le monde d’aujourd’hui ou la communication peut se faire rapidement n’est plus tres clair.

  • Salut a tous

    Mais justement David, c’est pour éviter tout et n’importe quoi en terme de communication scientifique que se trouve la raison d’etre des revues, des éditeurs et du processus de validation par ses pairs. Et se n’est pas parcequ’il y a des dérives, relativement marginale je pense, évoquées dans le billet initial, qu’il faut jetter le système. D’abord parcequ’on en a pas d’autres (bah oui) et ensuite parcequ’avec un minimum d’évolution vers plus de transparences on éliminerais une grande partie des défauts.

    Ensuite j’ai une question pour Tom 😉

    Comment juger de la qualité d’un papier indépendement de l’aspect bibliographique (IF du journal, nbre de citation ) ?
    Ca mériterait un nouveau billet, non ??? Hé hé hé :-))))

    A+
    J

  • Oui, malheureusement, comme John, même si tout cela est bien pénible, j’ai du mal à imaginer un système alternatif. Je crois moyennement par exemple à la « peer-review » sur forum qui serait un modèle alternatif. Avoir deux referees face à soi a un avantage : on peut batailler point par point s’ils sont de mauvaise foi par exemple. Le rôle de l’éditeur est plus embêtant lorsqu’il bloque les papiers. Pour moi, il me paraît assez sain que les éditeurs filtrent les papiers a minima et envoient le maximum de papiers aux arbitres, c’est pour ça que l’affaire présente ne me choque pas tellement a priori au stade de l’édition.

    Comment juger de la qualité d’un papier indépendement de l’aspect bibliographique (IF du journal, nbre de citation ) ?

    Déjà, il faut le lire 😉 . Après, il y a en réalité des critères objectifs. J’ai un cas d’école récent de papier publié dans une très grosse revue qui n’aurait pas dû passer à mon avis, sur des critères objectifs que n’ont pas vu les referees (et dont je ne peux malheureusement pas parler).

  • Malheureusement: 1- les referees sont souvent mal choisis (i.e. ils ne connaissent pas grand chose au sujet du papier)
    2- Meme s’ils s’y connaissent, ils ont 43 papiers à référer en même temps, donc parfois ils se contentent de corriger les fautes d’orthographe ou de dire que le papier est mal écrit. Bref, les papiers acceptés ou rejetés le sont quand meme malheureusement trop rarement sur des critères scientifiques, surtout dans les revues bimensuelles (meme prestigieuses) ou il faut publier plus de 100 papiers par mois.
    Bref, j’ai pas une énorme liste de publis à mon actif mais pour l’instant je considère que seuls deux referees sur mes 4 papiers ont fait un travail constructif (et je sais que c’était des connaissances de mon chef, ce qui explique pourquoi ils ont visiblement passé beaucoup de temps a nous suggérer des manipes complémentaires intéressantes et des conseils productifs pour améliorer le contenu).

  • @John78: attention, je fais la difference entre le processus de review et celui de publier dans des revues plus ou moins prestigieuses. Je pense que le processus de review est important – mais la transparence, j’y crois pas forcement dans le contexte actuel des grosses societes (elsevier, IEEE, etc…). Peut etre que le systeme type arxiv est appele a se developer en dehors des champs ou il est utilise actuellement – peut etre autre chose, je sais pas.

  • @John78: Les rapports des referees sont anonymes pour éviter les représailles.

    Pour information, il y a au moins un chercheur qui me voue (enfin, me vouait il y a quelques années) une haine tenace parce que j’ai jeté plusieurs de ses articles (nuls et répétitifs) et qu’il a appris d’une façon ou d’une autre que c’était moi. Il a même un jour fait un scandale auprès d’un éditeur en croyant qu’un autre rapport négatif venait de moi, alors que ce n’était pas le cas.

    Encore cette personne ne jouit-elle pas d’une grande réputation, mais quel jeune chercheur osera écrire un rapport négatif et signé sur un article co-signé par un « ponte » ?

Leave a Comment