Qu'est-ce qu'un un bon papier ?

John m’interpelait l’autre jour en commentaires en me posant cette question sur les publications scientifiques. Vaste question à laquelle je vous invite à répondre en commentaires ici ou sur vos blogs respectifs. Voilà quelques réflexions en vrac, essentiellement sous forme d’une critique de la tendance actuelle…

Je pense qu’un bon papier est la synthèse de deux éléments complémentaires :

  • d’abord une bonne idée, un bon concept
  • ensuite une bonne preuve ou une bonne réalisation de l’idée ou du concept

Plus le concept et la réalisation sont de qualité, plus le papier devrait être publié dans une grosse revue.

Dit comme ça, cela paraît évident. Mais regardons attentivement ce qui se passe en réalité. ICE a donné il y a quelques jours un exemple de   papier récent qui  n’aurait pas dû être publié dans Science selon lui. Si je comprends bien, il lui reproche d’être faible sur mon deuxième point : l’idée est bonne, mais la preuve faible. Et l’autre problème est que l’idée, toute bonne qu’elle soit, ne semble pas si « novatrice » que ça. Pourtant le papier est passé dans Science, car l’idée « faisait bien ».

On touche là  à ce qui me semble être l’un des problèmes des grosses revues actuellement :  la communication est mieux récompensée que l’effort; une idée un peu sexy supportée par des mauvaises données peut-être publiée dans une grosse revue. C’est pour cela qu’on a des tas de problèmes de papiers qui s’avèrent inexacts des années après  : l’idée, toute originale qu’elle soit, peut être au bout du compte fausse . Un exemple récent est le génome de Néanderthal, où manifestement la volonté de sortir un résultat spectaculaire a été plus forte que la nécessité de bien vérifier que les échantillons n’avaient pas été contaminés. Des papiers un peu « sloppy » qui sortent dans de grosses revues, il y en a à mon goût de plus en plus.

Pourquoi est-ce ainsi ? Plusieurs raisons, et je vais surtout parler des papiers de mon domaine dans la suite. D’abord, la logique interne du monde scientifique en général, qui doit donner des gages d’efficacité et « produire » du résultat. Si on passe trop de temps à vérifier certaines choses, on n’a pas le temps de publier d’autres choses. Donc on publie même des choses pas forcément très « nettoyées ». Ensuite, une meilleure reconnaissance de « l’idée » par rapport au travail laborieux de laboratoire ou de démonstration. Les scientifiques en général aiment les choses de l’esprit, d’ailleurs ce n’est pas un hasard si le fonctionnement même de la recherche aux US délègue le travail manuel aux thésards et post-doc. Aux petites-mains le cambouis, au professeur la gloire de l’intellect.

On pourrait dire : et alors ? Une belle idée, n’est-ce pas ce qu’on demande aux chercheurs de produire ? Non; d’abord parce que le but de la recherche n’est pas d’être jolie, mais d’être vraie, ensuite parce que la recherche ne peut avancer sans le laborieux travail de laboratoire. Enfin et surtout, parce que les idées sont rarement si originales que ça (voir encore une fois l’exemple du papier cité par ICE). Les scientifiques sont en fait très conservateurs; une idée trop sexy va les rebuter même si elle est bien démontrée expérimentalement. Un cas intéressant est le premier papier de Shinya Yamanaka sur la reprogrammation des cellules souches iPS. Excellent concept : l’idée que quelques gènes suffisent à reprogrammer les cellules souches. Excellente réalisation : juste ce qu’il faut d’expérience pour montrer que l’idée marche. Mais publié « seulement » dans Cell en 2006.  Cell est une très bonne revue, bien sûr, mais pourquoi ce papier n’a pas été publié par Nature et Science, qui ont en revanche publié des tonnes de papiers similaires  par la suite -et notamment plein de papiers de Yamanaka ? Je pense que c’est parce que l’idée était en fait assez mal acceptée par les referees à ce moment là. Les idées publiées dans les grosses revues sont juste assez consensuelles pour passer en réalité. Et le cocktail très efficace pour publier est donc une idée un peu sexy mais confirmant les préjugés ou les idées générales de la communauté, avec des manips pas trop fouillées. Science ou Nature assuré, et certains scientifiques sont spécialistes de ce procédé.

Evidemment, je simplifie beaucoup et suis un peu caricatural, mais c’est la pente du moment à mon avis, même si :

  • l’excès inverse existe (les données sans idées par exemple).
  • il est normal qu’on puisse aussi publier des idées « en l’air »

Simplement, dans ces deux derniers cas, il faut viser des revues adéquates.

Parlons juste des citations pour finir. Quelle est la nature des corrélations entre citations et qualité ? Encore une fois, mon sentiment est qu’on crédite davantage les idées sexy but mainstream qu’autre chose. D’abord parce qu’une belle idée publiée dans une grosse revue a toutes les chances d’être populaire (voir mon point sur les scientifiques conservateurs), ensuite parce que personne ne peut se permettre de critiquer publiquement vos manips ou votre démonstration, et donc cela « oblige » à la citation si une idée consensuelle est émise dans le domaine. Et pour contrer une idée, une autre idée ne suffit pas : il faut des manips solides, parfois d’ailleurs beaucoup plus solides et beaucoup plus rigoureuses que celles du papier original. Des papiers faux peuvent accumuler ainsi des citations pendant des années. Des papiers trop novateurs peuvent être oubliés malgré leur qualité. Des papiers utiles à la science pour détruire une idée sexy mais fausse peuvent réduire des pans entiers de la recherche à néant et donc n’être quasiment jamais cités.  Tout cela pose évidemment problème sur l’évaluation de la recherche et le recrutement, et c’est pour cela qu’il est anormal d’évaluer les recherches au poids, ce qui ne consiste en réalité qu’à favoriser la mode et le consensuel aux dépens du reste (comme l’originalité par exemple).

12 réflexions au sujet de « Qu'est-ce qu'un un bon papier ? »

  1. Sur les critères d’un bon article, je me permets de reproduire ce commentaire que tu avais laissé chez moi et que je garde toujours en tête :

    « un article devrait être jugé sur ce qu’il apporte au sujet, et non sur certaines faiblesses (d’écriture, méthodologique ou « lacunes » plus ou moins graves dans les citations ou les discussions). Autrement dit, récompenser ce qui est bien mais ne pas pénaliser ce qui est mal. »

    Laisse-moi un peu de temps par contre pour revenir sur le sujet des citations et du lien avec la « qualité »…

  2. « verba volant scripta manent », le blog, ça peut-être piégeux pour ça… Je suis relativement consistant avec moi-même sur le rapport entre chance de publication et orthodoxie scientifique, mais comme tout le monde j’évolue sur la question…

  3. Pour les citations, je pense qu’il faut savoir etre patient: un papier cite 50 fois en deux ans n’est pas necessairement bon mais il peut etre sexy dans le hot topic du moment. Par contre un papier qui est cite sans discontinuer pendant 10 ans ou plus est probablement vraiment porteur d’infos utiles ou d’un resultat interessant.
    Quant a « avoir un Nature » c’est bien sympa mais il faut bien comprendre que 80% de l’impact factore de Nature vient de 20% de papiers… bref qu’il y a 80% de papiers plutot pas tops… Pour ma recherche j’ai toujours prefere lire des journaux avec des full papers bien detailles plutot que des journaux sexy qui ne publient que des lettres de deux pages ou on ne comprend rien des qu’il faut se plonger un peu dans les details experimentaux.

  4. Quant a “avoir un Nature” c’est bien sympa mais il faut bien comprendre que 80% de l’impact factore de Nature vient de 20% de papiers… bref qu’il y a 80% de papiers plutot pas tops…

    Certes, mais dans les faits, l’obtention d’un job peut être très facilité si on a un Nature, même si le papier est dans les 80% pas top comme tu dis. Le chercheur dit qu’il vaut mieux lire des papiers plus fouillés ailleurs, mais le même chercheur en comité va valoriser le Nature pour la sélection des candidats.

  5. Je suis toujours un peu agacé par ce discours sur le thème « c’est pas parce qu’il est bcp cité qu’il est bon », ou « oui il est pas cité mais il est très bon quand même ». C’est finalement très Français comme discours et comme façon de vouloir à tout prix se prendre la tête et théoriser les choses; parce que au final, ce qui compte concrètement (pour des recrutements, des promotions, etc.) ce n’est pas tant la qualité intrinsèque, absolue d’un travail mais plutôt de définir une mesure, un « proxy » qui soit utilisable dans la vie de tout les jours. En plus le problème n’est pas tellement d’estimer la qualité d’un papier, mais plus souvent d’une carrière… donc d’un effort moyenné sur de nombreux papiers.

    Dans le reste du Monde (en France, on aime bien dire « le monde anglo-saxon », sans doute pour insister sur le fait que c’est chez les fourbes anglais et les vilains américains), on se pose nettement moins ce genre de questions sur ce qu’est un « bon » papier — et du coup la question complémentaire, comment l’évaluer et par qui ? Evidemment en France on nomme une comission, qui examine le dossier et qui décide de la qualité d’un dossier, le cas échéant de son interclassement avec d’autres. Mais je ne vois pas en quoi ce serait une mesure meilleure, ou plus objective, que celle d’un citation index, d’un h-factor, ou ce que tu veux d’autre. Les deux ont des biais de mesure, c’est une évidence. Mais un nombre de citation est quand même quelque part l’opinion moyennée de la communauté, et donc à mon avis un classement sur la base du citation index ne serait pas très éloigné de ce que tu obtiendrais si tu demandais à toute la communauté d’interclasser les gens dans un champ disciplinaire. Bon, il ne faut pas être fétichiste du nombre, il faut se souvenir que cette mesure comme toute autre a une erreur intrinsèque. N’empêche que entre 25 citations et 1200, on ne parle pas du même niveau scientifique. N’empêche que par exemple dans mon labo, les nombres de citations reflètent assez bien le « standing » relatif des gens (non, je ne dis pas ça parce que je suis le deuxième…).

    Je ne vois pas en quoi la méthode qualitative (commission…) aurait moins de biais que la quantification (ni plus, d’ailleurs !). Alors, tant qu’à avoir une mesure avec une erreur intrinsèque (comme toute mesure physique !), autant utiliser celle qui est la moins coûteuse à utiliser. A choisir entre nommer une commission (20 personnes, 1 jour, des billets de train et des hôtels…) ou utiliser les chiffres gentiment fournis par ISI et qu’on a déjà payé avec notre abonnement Web of Science, il y a une méthode d’évaluation qui est nettement moins chère, prend bien moins de temps et n’est pas franchement moins précise (pas plus non plus, d’ailleurs !).

    Alors, qu’est ce que c’est qu’un bon papier ? Je n’en sais rien, je ne suis d’ailleurs pas en désaccord avec ta définition. Mais au bout du compte, je m’en moque, parce que ça ne me sert pas à grand chose de réfléchir à ce genre de questions… Pour toute application concrète, je peux tout aussi bien me fier à des bêtes nombres. Ca me renseignera autant, et plus vite.

  6. @ Jf : je comprends bien ce que tu dis, mais je ne suis juste pas d’accord. Je ne veux désigner personne à la vindicte populaire, mais dans mon domaine, on a un vrai problème de mauvais papiers qui sont passés dans de grosses revues et sont ou vont être cités bien que faux, c’est tout. Le pire, c’est que certains de ces papiers étaient mauvais sur des critères objectifs et n’auraient jamais dus être publiés. L’une des raisons majeures du problème, c’est que quand tu fais de l’interdisciplinaire, la communauté n’est justement pas compétente à évaluer ton travail : typiquement, les physiciens ont du mal à évaluer la biologie, les biologistes ont du mal à évaluer les physiciens. C’est une grosse faille que les revues n’ont jamais bien pris en compte. Par contre, les gens de tous les domaines citent à tour de bras, pas de problèmes. Le moyennage sur les citations n’est pas une mesure de la qualité du scientifique, mais une mesure de sa propension à communiquer et surtout à faire passer ses idées auprès de la communauté (en particulier la communauté biologiste dans le cas de la systems biology, au contraire de la communauté réelle de la systems biology).

    Je ne sais pas si c’est français; toute cette série de billets vient aussi d’un ras-le-bol général et d’une inquiétude dans mon propre labo face à la façon dont tourne mon domaine. Tu es en géologie qui est un domaine vénérable et balisé, avec une histoire et des critères objectifs; les trucs un peu interdisciplinaires ont une histoire et des critères à construire, et je ne crois pas qu’on fasse les choses correctement.

  7. Ah.. Je veux bien admettre qu’il y a des différences de fonctionnement entre différents domaines. En fait, je veux même bien être d’accord avec toi — il y a des papiers pas bons qui n’auraient pas du être publiés, et en tout cas pas là où ilssont passés (ça rappelle cette histoire d’EPSL que tu évoquais la semaine dernière d’ailleurs, ça…).

    Mais tout ça ne nous donne pas un moyen fiable d’évaluer un papier (ou un dossier, puisque c’est plutôt de ça qu’on parle). Si tu veux échapper au coté « citations », ta seule solution est de le donner à lire à des « experts ». Sauf que ça ne te garantit pas que la mesure sera plus fiable : ton « expert » peut être biaisé, de mauvaise humeur, ou tout simplement pas compétent pour discuter de ce travail en particulier (je ne suis pas capable d’expertiser n’importe quoi en géologie, ni même en pétrologie ou en géochimie, qui sont pourtant les deux domaines où j’émarge !). Après tout, ce sont déjà les mêmes experts (ou leurs voisins de bureau) qui ont laissé publier le papier en question, pourquoi veux-tu que d’autres experts donnent un avis plus fiable ? Alors, évidemment, tu peux rajouter plus d’experts pour avoir plus d’avis : au bout du compte, n’es-tu pas en train de faire la même chose que de regarder combien de fois un papier a été cité ? Chaque personne qui cite un papier donne un avis (sous la forme « oui » ou « non ») sur l’article en question, finalement : un nombre de citations, c’est un vote de la communauté sous la forme « oui, cet article est intéressant/non, il ne l’est pas ». Le plus beau c’est qu’il y a même pas besoin de l’organiser, il se fait spontanément.

    En définitive, ce que je veux dire c’est que comme toute mesure, celle de la qualité d’un travail a une incertitude intrinsèque, et il est illusoire de croire qu’on peut avoir une mesure über-précise de ce genre de choses. Il faut vivre avec, et ce n’est pas en changeant de méthode qu’on va grandement améliorer les choses : il y a sans doute des champs disciplinaires où on aura de meilleurs résultats, et puis d’autres où ils seront moins bons, mais si tu regarde les effets « system-wide », je pense que c’est globalement neutre. Bon, ça veut aussi dire qu’il faut savoir quelles différences sont significatives. Un h-facteur de 8 ou de 10 c’est pareil; un h de 25 c’est plus. 1200 ou 1400 citations c’est le même chose; 500, c’est clairement un cran en dessous (valeurs étalonnées sur les références de géol, bien sûr).

    Dans les exemples que tu cites, je serais surpris que au final, ça distorde grandement les choses. Ok, un type a eu 80 citations « en trop » sur un mauvais papier. So what? Si il a écrit un papier de ce genre, je suis prêt à parier qu’il a déjà 800 ou 1000 citations en stock, donc ça le fait passer de 800 à 880, ou même de 600 à 800 dans le pire des cas. Within error, ça ne change rien à son standing scientifique.

    Et oui, le nombre de citations indique la cpacité à convaincre la communauté de l’intérêt de son travail. Ce qui à mon avis est le coeur du métier de chercheur, parce que trouver un truc génial mais ne pas être capable d’expliquer en quoi c’est génial, ben c’est … inutile. Au risque d’être provocant : un type qui ne serait pas capable d’expliquer pourquoi il a trouvé des choses intéressantes n’est sans doute pas un très bon chercheur.

  8. Oui, oui, c’est effectivement la même histoire qu’ESPL.
    Pour l’évaluation, je dois dire que je ne crois pas non plus trop à la collégialité. La démocratie n’a rien à voir avec la science. On peut avoir raison contre le reste du monde.

    Ce qui à mon avis est le coeur du métier de chercheur, parce que trouver un truc génial mais ne pas être capable d’expliquer en quoi c’est génial, ben c’est … inutile. Au risque d’être provocant : un type qui ne serait pas capable d’expliquer pourquoi il a trouvé des choses intéressantes n’est sans doute pas un très bon chercheur.

    Je ne te suis pas du tout. D’abord parce qu’il y a en fait des tas d’exemples de gens qui ont fait des découvertes fondamentales qui ont été oubliées, juste par manque de communication, puis redécouvertes par la suite dans leur intrégralité (comme Mendel). La postérité les a retenus, preuve que ce qui compte vraiment, c’est la nature de la recherche et pas le reste.

    Ensuite les aspects sociaux ont tellement d’influence qu’ils peuvent permettre en réalité l’émergence de mauvaise science. David Monniaux parlait sur son blog du fait que les mandarins publient beaucoup plus facilement et communiquent plus facilement, même s’ils font des trucs merdiques. Le milieu scientifique n’est pas un monstre d’objectivité froide capable de dégager ses anciennes stars : au contraire, un type qui a été beaucoup cité sera toujours cité, parce qu’il « faut » le citer, parce qu’il a fondé une école qui défendra ses intérêts, etc… Le processus est largement autocatalytique. Un jeune qui part de rien galérera comme un malade indépendamment de ses qualités scientifiques et pédagogiques s’il ne prend pas le bon wagon de la communication (et de la lèche aux aînés). Je trouve que dans ma discipline, les choses ne sont vraiment pas clean de ce point de vue : il y a clairement des écoles, des gens qui ne se citent pas en toute connaissance de cause pour justement ne pas faire monter les concurrents, des gens qui survendent leurs résultats… et des choses bien pires en réalité que cette histoire d’éditeur d’ESPL qui te choquait plus que moi ! Ces histoires de citations, c’est bien trop déformé par les côtés sociaux de la science à mon goût.

    Au final, à choisir entre des modes d’évaluation pas objectifs, je préfère discuter et défendre le contenu de mes papiers plutôt que mon nombre de citations. Si les gens qui m’évaluent/me recrutent trouvent mes papiers nuls, tant pis pour eux, je n’aurai pas envie de bosser avec eux de toutes façons, et tout le monde sera content (c’est manifestement ce qui m’est arrivé pour une de mes candidatures où des gens voulaient faire de la systems biology sans biology). Surtout qu’à moins d’avoir énormément de papiers (et donc avoir travaillé très très longtemps), on a du mal à faire de la statistique sur un petit nombre…

  9. Ton exemple de Mendel est un peu biaisé, quand même. Il y a 200 ans on ne faisait pas de la science de la même façon que maintenant… Même il y a 50 ans, d’ailleurs. L’accès à l’information était plus difficile, et oui il était possible d’avoi des travaux totalement ignorés.

    Sur le fait de citer les mandarins ou des anciens — des fois, c’est un palliatif : tu te souviens vaguement que « Machin a travaillé sur ces choses là »; et tu cites le premier papier de Machin qui te tombe sous la main, même si ce n’est pas exactement le bon. Et si c’est vraiment un Grand Ancien, il « faut » en effet le citer, tout simplement parce que avant et après lui les idées n’étaient pas les mêmes. Tu ne parlerais pas de relativité sans citer Einstein, ni de génétique sans citer Mendel… Mais je maintiens que ça ne change pas grand chose, là encore : Ok, Bidule est cité « à tort » (disons, par habitude ou par reconnaissance) 200 ou même 500 fois de trop. Bien sûr pour toi ou moi, 500 citations de plus ce serait … pas mal. Mais sur les 3000 citations de ton grand ponte, c’est pas grand chose.

    Bien sûr aussi, la communauté n’est pas à l’abri des effets de mode ou des comportements bêtement humains, rivalités, haines, écoles ou basses maneuvres. Mais c’est encore pire pour une évaluation qualitative ! Si tu tombes sur un évaluateur qui n’est pas « de ton clan », c’est marre. La seule parade à ce genre de dérive, c’est d’avoir un panel plus large. Et c’est toute la beauté des approches bibliométriques : ça te donne le panel le plus large possible, toute la communauté dans son ensemble, à l’échelle mondiale. A cette échelle, les effets d’école se lissent pas mal. Ok, en RSA Untel de l’université de Vandermerwesdorp ne supporte pas Telautre, de Soutie Town. Et en effet, si le pays fonctionnait seul au monde, les citations ne représenteraient rien, puisque les potes de Untel ne citeraient que lui, les amis de Telautre ne citeraient que leur bos, et au final les citations ne représenteraient que le poids démographique des deux groupes. Des panels d’expert auraient, d’ailleurs, le même effet : ils ne montreraient qu’une seule chose, qui a éé le plus fin maneuvrier pour se placer dans les commissions. Mais quand on regarde de la bibliométrie, on regarde les citations pas uniquement des locaux — mais aussi celles des Français, des Australiens, des Russes ou des Chinois, qui ne sont pas partie prenante de ces histoires locales, qui ne conaissent pas les tenants et les aboutissants et qui « votent », je veux dire citent des papiers uniquement en fonction de ce que eux en pensent.

    Ce que je veux dire in fine, c’est que compter le nombre de citations c’est la même chose que demander l’avis d’un panel d’expert. Simplement au lieu d’avoir 3 experts qui y passent la journée, tu en as 3000 qui passent 5 mn chacun. Ca te fait à peu près le même nombre de minutes passées sur les papiers en question… Le tout de façon nettement plus robuste, car moins sensible aux aigreurs d’estomac d’une personne donnée! Toi qui est modélisateur, je te laisse calculer la chose suivante : soit un panel de 3 examineurs, qui sont spécialistes et donc très bons et donnent la « bonne » réponse 75% du temps. Et soit un « panel » de 3000 lecteurs, qui ne sont pas spécialistes du tout, ont des intérêts divers, etc., et ne donnent la bonne réponse que 60% du temps. J’ai un peu oublié mes stats, mais quelles sont les chances que l’un et l’autre groupe aient juste au final?

  10. Pour Mendel, faut voir. Il y a des tas de papiers russes qui sont oubliés parce qu’ils ont été écrits en Russe. Un truc un peu nouveau peut aussi être oublié parce que le domaine n’est pas prêt.

    Simplement au lieu d’avoir 3 experts qui y passent la journée, tu en as 3000 qui passent 5 mn chacun

    Ta communauté compte peut-être 3000 pairs, pas la mienne. Pour que les gens te citent, encore faut-il qu’ils travaillent sur à peu près le même sujet que toi. Moi, dans mon sous-sujet particulier, je ne suis pas « tout seul », mais on n’est certainement pas si nombreux. Donc ton nombre de citations, il est aussi une mesure de la taille de ta communauté; encore une fois, ce qui est valable pour la géologie n’est pas forcément valable pour d’autres sciences beaucoup plus jeunes. Beaucoup de points que tu abordes ne sont valables que pour les grosses disciplines, bien établies.
    (bon c’est pas tout ça mais il faut que j’aille au labo 😉 )

  11. Je n’ai jamais non plus dit que la bibliométrie est une mesure absolue, interdisciplinaire : il est évident qu’elle ne peut servir que d’outil de comparaison à l’intérieur d’une même communauté ! Comparer des disciplines différents, c’est évidemment pas possible.

    En revanche (et tu devrais y être particulièrment sensible, avec ton goût pour les frontières disciplinaires !) il me semble que justement, c’est aussi une mesure qui permet de se « sortir » de sa communauté, et de voir l’influence qu’a un papier non seulement pour ls micro-spécialistes, mais aussi pour un public plus large : autrement dit de voir si tu as réussi à intéresser au-delà des frontières de ta micro-discipline : sur mes thèmes de prédilection par exemple (Archéen et granites), on est peut être une vingtaine au monde. Je suis donc certain que tous mes papiers auront au moins 20 citations (à terme). Bon. Mais ce qui est intéressant, c’est de voir lesquels sortent de cette limite et arrivent à intéresser plus de monde !

  12. Mais ce qui est intéressant, c’est de voir lesquels sortent de cette limite et arrivent à intéresser plus de monde !

    Mais tu vois, c’est là où justement est le problème et que la communication est importante. Car je vois bien ce qui se passe pour moi : les physiciens n’y connaissent vraiment pas grand chose en biologie, et les biologistes n’y connaissent vraiment pas grand chose en physique. Quand tu t’adresses à l’une ou l’autre des communautés, en réalité, tu ne peux pas les convaincre simplement sur le contenu objectif de tes travaux. Donc l’enrobage va être crucial.

    Il y a des gens qui non seulement enrobent très bien, mais encore font dire beaucoup plus à leurs travaux que ce qu’ils disent en réalité. Ces gens ont toutes les chances d’être bien cités car ils auront suscité question et intérêt (plus que les autres) par leur « survente » habile de leurs résultats. Ces gens draîneront aussi postes et argent pour les mêmes raisons. Est-ce cela être un bon scientifique ? Dans le monde de la recherche « évaluée » et quantifiée, c’est exactement cela qu’on attend des gens. Dans le monde de la science telle que je la conçois, faire dire à ses résultats des choses inexactes ou fausses, c’est en réalité ralentir la science, car rien n’est plus difficile que de « contrer » un résultat déjà publié comme je dis plus haut.

    On arrive à un moment où les biologistes commencent à se rendre compte de cela aujourd’hui dans mon domaine. Comme par ailleurs le niveau moyen en maths n’a pas augmenté chez les biologistes (ce qui est aussi quelque part anormal, mais passons), il commence aussi à se dire que la systems biology n’a jamais rien apporté à la biologie et que la théorie est inutile, voire est un outil de charlatan. J’apprends en ce moment à mes dépends lors de mes recherches d’emploi que la théorie quasi-pure n’a aucun attrait pour la plupart des gens et aucun avenir dans ce domaine à court terme, car elle suscite manifestement incompréhension voire hostilité. Je suis certainement biaisé par mes propres soucis et mon propre domaine, mais c’est pour toutes ces raisons que je prends cette position dans ce billet.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *