Non classé Physique Sciences

Pourquoi modéliser (mathématiquement) ?

Séquence autodérision pour commencer, offerte par xkcd http://xkcd.com/793/


L’une des caractéristiques communes à toutes les sciences naturelles est la construction de ce qu’on appelle des « modèles ». Il y a probablement une définition épistémologique précise de ce qu’est un modèle et beaucoup de recherche là-dessus, mais, en tant que pratiquant, pour moi, un modèle est avant tout un outil conceptuel, réfutable par l’expérience, servant à décrire et prédire un phénomène donné. Les exemples abondent, tout texte de vulgarisation scientifique présente, en général, un modèle décrit dans la littérature (on peut parler aussi de mécanisme). L’existence de modèle est aussi vieux que la science, en fait, on pourrait même probablement dire que tout ce qui est réfutable au sens popperien est construit sur un modèle. Par exemple, le créationnisme est un modèle de création du monde . Le phlogistique est un modèle de combustion, la « lutte des classes », un modèle de structuration économique et sociale, le « dogme central de la biologie », un modèle de transmission de l’information génétique.

Tous les modèles que je décris plus haut ont une caractéristique commune : je les qualifierais de modèles « qualitatifs » ou « conceptuels ». Enoncés dans leur forme la plus simple, on peut comprendre, expliquer et utiliser ces modèles pour faire de la science sans faire de mesures très fines. Revenons sur le créationnisme : c’est une théorie scientifique, réfutable et réfutée car elle prédit le fixisme des espèces, autre concept ne demandant pas une quantification précise. Le dogme central de la biologie ne dit rien sur la quantité d’ADN ou d’ARN dans une cellule, ou sur la prévalence du mécanisme dans la cellule : il propose simplement un sens « majoritaire » de transmission de l’information et les supports associés. Du coup, lorsque l’on découvre d’autres mécanismes (e.g épigénétiques), les articles scientifiques titrent régulièrement sur la remise en cause du dogme central de la biologie. Ce dernier exemple est particulièrement intéressant pour l’objet de cette série de billets : dans quel mesure le fait de découvrir des exceptions à un mécanisme le remet-il fondamentalement en cause ? On sent bien qu’il manque du coup une dimension pour discuter ces modèles qualitatifs : c’est bien sûr les aspects quantitatifs, qui ne peuvent être appréhendés qu’avec l’aide d’outils et de langages adaptés, i.e. mathématiques.

Jusqu’aux Lumières, il me semble qu’il n’y avait pour ainsi dire pas d’autres modèles que qualitatifs. La distinction entre sciences et philosophie par exemple était floue, ces deux domaines étant très conceptuels, et c’était l’ère des savants « universels ». Au même moment, cependant, les savants commencent à véritablement mesurer plus précisément le monde, notamment parce que les outils disponibles et les mathématiques progressent. On pense par exemple immédiatement à Galilée et à sa lunette astronomique. Evidemment, les mesures des mouvements dans le ciel sont bien antérieures à Galilée, mais il faut attendre Kepler pour voir énoncées les premières lois quantitatives sous leur forme moderne et correcte. L’utilisation des mathématiques pour démontrer ces lois à l’aide du calcul différentiel représente peut-être LA révolution scientifique entre toutes, sonnant l’entrée dans la modernité scientifique, avec les Principia de Newton en 1687.

Afin de mieux comprendre l’apport des mathématiques dans les modèles newtoniens, tentons une expérience de pensée. Essayons d’expliquer la théorie centrale des Principia de Newton, la gravité universelle, SANS mathématiques. On le verra, si l’exercice n’est pas totalement impossible, il n’en reste pas moins limité et perilleux scientifiquement.

Supposons donc que nous soyons ignorants mathématiquement, et interrogeons-nous : quel serait l’apport conceptuel de la théorie de la gravité non mathématisée ? Le voici selon moi : Newton a compris que deux phénomènes apparemment indépendants, voire contradictoires, avaient en réalité une explication commune. La chute des objets terrestres (dont la fameuse pomme) d’une part et les mouvements réguliers des objets célestes d’autre part sont la manifestation d’un même phénomène, le fait que les masses s’attirent à distance. Pour illustrer ce progrès conceptuel, considérons le problème de l’archer (illustré ici grâce à xkcd). Une fois sa flèche décochée, où va-t-elle se ficher ? Le raisonnement « réaliste » consisterait à dire répondre que cette flèche va simplement terminer sa course quelque part devant l’archer, en fonction de la topographie des lieux, de la force du vent, etc..

Mais imaginons maintenant que notre archer ait bu de la potion magique. Imaginons que sa flèche ne rencontre aucun obstacle sur sa route avant le sol, que le vent se calme, que le temps soit clair, et imaginons une flèche idéalisée se comportant comme un solide ponctuel. Et bien, très clairement, la flèche ira d’autant plus loin que l’archer l’aura lancée forte. Et, si la flèche est vraiment très très rapide, un deuxième effet entre en jeu : on ne peut exclure que la flèche parcourt une distance telle qu’elle ne ne soit plus négligeable devant la courbure de la Terre même au moment où elle retombe.

En d’autres termes, la distance parcourue par la flèche devient la combinaison de 3 effets : la vitesse initiale de celle-ci, la force de la gravité et la courbure de la Terre. Si la vitesse initiale de la flèche est très importante, elle acquiert beaucoup d’ inertie et elle peut parcourir une distance si grande que la courbure de la Terre éloigne le sol de la flèche du même ordre que la flèche se rapproche de la Terre du fait de la gravité . En termes modernes, la flèche est alors rentrée en orbite de la Terre [1] . On le voit sur cette exemple donc : la flèche ne cesse en réalité jamais de tomber sur le sol, mais c’est sa vitesse initiale et son inertie qui décide de son comportement final. Les différents comportements face à la gravité se retrouvent alors unifiés dans ce modèle conceptuel.

On peut même aller plus loin et envisager de faire de nombreuses mesures quantitatives, des diagrammes résumant les influences des différents paramètres sur la distance parcourue par la flêche, un peu comme on le voit dans les revues de biologie moléculaire. Un tel modèle de la gravité, après des milliers d’expériences, pourrait ainsi ressembler à cela :

Modèle qualitatif de la gravité. Les flèches normales sont des influences positives, les flèches en T des influences négatives

A la lumière de cet exemple, nous sommes maintenant prêts à répondre à la question servant de titre à ce billet. Ce diagramme et le raisonnement qui l’ont précédé, aussi élégants soient-ils, pêchent manifestement sur de nombreux points. D’abord, ce modèle est très peu concis. Il faut de nombreuses phrases pour le décrire et le comprendre, il y a quelque chose de fondamentalement insatisfaisant à cela. Ensuite, et c’est une conséquence du fait précédent, la hiérarchie des causes est très imprécise dans ce modèle. Imaginez un débat à l’académie des sciences sur cette théorie qualitative de la gravité. On invoquerait la complexité des phénomènes impliqués, depuis la force de l’archer jusqu’à la température de l’air, il y aurait des arguties sans fin sur l’impossibilité de tout prendre en cause et donc sur l’identification des causes premières. Immanquablement, un polémiste sur le sujet pourrait alors nous expliquer que cela entraîne in fine l’impossibilité absolue de dire quoi que ce soit de simple sur le système ! Les lois de Képler ne sont pas contenues de façon évidente dans ce diagramme et il nous faudrait faire une sorte de gigantesque « data fitting » pour les retrouver ou les expliquer. Enfin, il n’y aucune prédiction quantitative réelle, et donc bien peu d’utilité pratique à ce modèle. Imaginez par exemple que vous souhaitiez envoyer une fusée sur la Lune : vous en seriez réduits, avec cette théorie qualitative de la gravité, à vous baser largement sur une succession d’essais/erreurs pour trouver une bonne méthode pour mettre une fusée en orbite. Bien sûr, ces essais ne seraient pas complètement aveugles, mais les paramètres précis seraient inaccessibles sans de très nombreuses expériences préalables.

Les points faibles décrits précédemment sont en fait communs à de nombreux (si ce n’est tous) modèles qualitatifs : songez aux discussions de modèles économiques à la télévision, ou aux divers modèles sous-jacents aux essais cliniques pour soigner une maladie. De fait, la biologie moléculaire est encore très très largement non mathématisée à ce stade, même si les quantifications sont de plus en plus nombreuses.

C’est à ce stade que les maths peuvent, et en réalité doivent, entrer en jeu pour que la science progresse. La nature est écrite en langage mathématique, et tout le blabla précédent se résume à :

\vec{a}=-\frac{\mathcal{G}M_T}{r^3}\vec{r}

où il suffit de définir chacun des termes dans l’équation de façon tout à fait standard. Cette petite formule résume tout ce qu’on a dit précédemment de façon extrêmement précise et concise (maximisant le ratio information contenue dans le modèle sur l’encre utilisée). Elle hiérarchise et quantifie très bien les causes : on néglige ici les causes secondaires du second ordre pour se concentrer sur ce qu’il y a de plus important, la gravité même. La formule ci-dessus peut-être utilisée pour retrouver et démontrer des observations quantitatives comme les lois de Képler. Enfin, elle est d’un fort intérêt pratique : avec cette formule, vous pouvez calculer exactement la vitesse à imprimer à une fusée pour sortir de l’orbite terrestre par exemple. Si l’homme a marché sur la Lune en moins de 8 ans , c’est parce qu’à chaque étape du programme Apollo, des petits modèles mathématiques prédictifs similaires ont permis des simplifications et un gain de temps crucial.

Le lecteur parvenu au bout de ce billet m’objectera peut-être que c’est bien joli tout ça, mais qu’en réalité, on ne peut pas tout modéliser, que les gravitons, les fluctuations du vide quantique et la déformation de l’espace temps expliquant ces lois proposées par Newton sont des trucs infiniment moins complexes qu’un gène ou que l’esprit humain. Ce billet étant déjà bien trop long, nous poursuivrons cette discussion dans un autre billet plus focalisé sur les « vaches sphériques ».

Ajout 4 Décembre :
à noter que le blog Uncertain Principles se livre cette année à un calendrier de l’avent de la physique, pas inintéressant pour avoir une idée des modèles mathématiques en physique (voici la première entrée)

[1] un gag d’ailleurs utilisé par ailleurs dans le film les 12 Travaux d’Astérix

[Post scriptum: Ce billet, et ceux qui le suivront, est en réaction à un échange vigoureux sur twitter entre moi-même et les brillants Moktarama, Ls01 et Me_Fantomette, entre autres, dont on peut trouver un extrait ici. L’échange a été lancé par ce tweet, dans lequel je déplorais qu’il n’y ait pas de débats économiques à coup d’équations vulgarisées, et a embrayé sur le pourquoi/comment modéliser. Du coup, en tant que croyant et fervent pratiquant de la modélisation mathématique, je me sens obligé de donner mon opinion sur le sujet.

Je tente une approche « chronologique » du sujet, probablement marquée par ma formation physicienne et mon manque de connaissance de l’histoire des sciences en général. N’hésitez pas à me corriger; je précise cependant que je ne pense pas que cela changera quoi que ce soit à la distinction entre différents types de modèles que je fais ici car cette distinction est très claire aujourd’hui !
]

About the author

Tom Roud

Nanoblogger scientifique, associate professor incognito (ou presque). Suivi par @mixlamalice

32 Comments

  • Je dirais même qu’un des principaux problèmes est que le terme « modèle » est utilisé à tort et à travers pour de nombreux concepts. Et, dans mon domaine en particulier, j’ai l’impression qu’avec le développement de modèles en biologie, ça ne s’arrange pas vraiment parce qu’il existe autant de classification de modèles mathématiques qu’il y a de chercheurs !

    • …Et encore tu ne parles de la classification que des modèles mathématiques, alors qu’il y a en plus, en biologie, plein de modèles non mathématiques (que je ne dirai pas qualitatifs avec des fléches + et des flèches -, mais des espèces-modèles et des systèmes-modèles, par exemple)

    • Vrai, je pense qu’il y a quasiment autant de notions de modèles que de modélisateurs. Mais mon point de vue est qu’un modèle est d’autant plus utile et mature qu’il est proche de cet idéal que je décris (inspiré de la physique, il est vrai). Un modèle doit être non seulement prédictif, mais il doit permettre d’élargir la vision, de résoudre des problèmes conceptuels, d’unifier des comportements apparemment différents, etc … Les pires modèles sont ceux qui se contentent de grossièrement fitter les data sans proposer de nouvelles explications.

    • T^2=k a^3 + forme elliptique des orbites. C’est ça que j’ appelle une loi quantitative, dans le sens d’une loi générale pour une sous-classe d’objets célestes. Faire des mesures décorrélées, c’est ce que j’ appellerai plutôt du data fitting (i.e. on ne cherche pas de loi générale, il n’y a pas de prédiction, on ne cherche qu’ à rendre compte).

      • Le cycle de Méton sert à prédire les éclipses. Plus généralement « les anciens » savaient calculer les positions des planètes, avec un modèle géocentrique et des épicycle (Hipparque, 2e siècle avant JC).

        • Encore une fois, c’est du pur data fitting. Les Anciens ont observé les planètes et extrapolent les trajectoires sur la base des régularités observées. Mais ce n’est pas prédictif au sens où, si je demandais à un Ancien où irait un satellite artificiel, il lui serait impossible de répondre à cette question. Ce n’est pas concis non plus dans la mesure où il faut une épicycle par planète, définie de façon ad hoc sur la base des observations.
          Cela étant dit, je peux témoigner que de nombreux modèles dits quantitatifs en biologie sont très proches des épicycles dans l’esprit. C’ est d’ ailleurs un problème de sociologie des sciences à mon avis.

          • J’ai l’impression que la différence est dans le niveau de modélisation, ou même d’abstraction du modèle, pas dans la nature de la démarche.

            On pouvait avant Kepler énoncer une loi générale, du type : les planètes suivent des trajectoires circulaires sur un épicycle dont le centre suit une trajectoire circulaire sur un déférent. Le pouvoir de prédiction était très satisfaisant pour les problèmes qui se posaient concrètement à l’époque.

            Enfin, l’exemple de Kepler est particulièrement mal choisi pour reprocher à ceux qui l’ont précédé de n’avoir fait « que du data fitting » : il est bien connu que les lois de Kepler sont justement issues d’un gigantesque travail de data mining (plutôt que fitting) sur les données recueillies par Tycho Brahé !…

            Peut-être faut-il rappeler que Kepler avait énoncé d’autres lois, en particulier des histoires obscures sur un emboîtement de solides platoniciens qui déterminaient les positions des planètes… Les lois de Kepler sont à mi-chemin entre les lois plus phénoménologiques qui existaient avant lui, et la loi de Newton, moins phénoménologique, plus fondamentale.

  • Hello Tom Roud, et merci pour ce billet fort intéressant (comme pour le renvoi à notre échange sur twitter).

    Je vais avoir besoin de le « mûrir » un peu, car je ne suis pas scientifique, mais juriste, et – même mon bac – pauvre de moi! – est littéraire.

    (Les seules lois que ma profession m’ont fait connaitre sont donc à l’opposé de celles qui vous sont familières: obscures, incertaines, instables, changeantes, toujours à interpréter, et absolument bardées d’exceptions)

    Un premier mot, cependant, pour expliciter un peu les interrogations qui étaient les miennes lors de notre discussion sur twitter.

    J’envisage le travail de modélisation comme un travail qui part du terrain de l’expérience (au sens très large, j’y inclus notamment tout le travail d’observations préalables que l’on peut y faire) pour en tirer ensuite une description abstraite et synthétisée, et je retombe dès lors sur la définition que vous proposez, ou pas très loin, me semble-t-il.

    D’où ma première question, si simple qu’elle tenait en moins de 140 caractères, qui était, de mémoire: a-t-on jamais découvert quelque chose de nouveau à partir d’un modèle?

    La question était d’ailleurs peut-être un peu trop simple: l’élaboration d’un modèle est en soi quelque chose de nouveau, et pourra s’agir d’un outil conceptuel d’analyse, voire de prédiction, dont l’utilisation – également nouvelle – enrichira la matière de nouvelles pratiques. J’en suis bien consciente, et je ne nie pas que l’action de modéliser (un fait de la pensée, d’ailleurs, peut-être « consubstanciellement » scientifique) soit légitime et productive.

    Mais l’idée que j’avais était que, puisqu’un modèle est élaboré à partir d’un existant (appelons-le « l’état des savoirs » pour simplifier), j’ai l’impression qu’il ne saurait nous en faire sortir.

    Il permet de le brasser différemment, peut-être de le décrire mieux, de manière plus pertinente, mais permet-il de le faire évoluer au sens où il y apporterait une découverte?

    La modélisation produit une *façon* de savoir, mais produit-elle du savoir? Voilà un peu la question que je me posais…

    J’attends en tout cas avec impatience vos prochains billets sur le sujet (et me réserve de (re-)venir préciser ma pensée ultérieurement, lorsque j’aurai un peu plus de temps 😉

    • Oui Fantomette, en physique on a découvert plein de choses comme conséquences inattendues des modèles mathématiques ; on a prédit des phénomènes extrêmement complexes des années avant de réussir à les observer…

      Mais c’est en physique, c’est somme toute très étonnant, pour ne pas dire très mystérieux (cf le célèbre papier de Wigner, The Unreasonable Effectiveness of Mathematics in the Natural Sciences https://dtrinkle.matse.illinois.edu/_media/unreasonable-effectiveness-cpam1960.pdf ). Pour le reste… il est beaucoup moins évident que ce genre de phénomène se soit produit ou soit appelé à se produire.

    • Vous dites qu’un modèle peut effectivement apporter des prédictions. Mais c’est bien ça qui peut permettre dans certains cas des découvertes. Lorsque Mendeleiev a proposé son modèle de classification des éléments en laissant des trous dans son tableau, cela a bien permis de chercher dans des directions précises pour trouver de nouveaux atomes.

      De même dans toute la physique des particules du XXème siècle il y a eu un mouvement dialectique entre modèles et expériences. Les nouveaux appareilles ont permis la création et la détection de tous un ensemble d’objet que les modèles de l’époque ne permettait pas d’expliquer et en retour l’élaboration des modèles pour décrire ces nouvelles particules nécessitait pour que cela fonctionne l’existence d’autres particules jamais détectées ou même imaginées auparavant.

      D’une manière générale tout comme le modèle nécessite des données pour s’élaborer, l’expérimentateur dénuée d’un minimum de modèle est incapable de produire ces données. Il faut savoir quoi et où chercher.

      Par ailleurs, à partir de modèles peuvent émerger d’autres modèles

      La relativité restreinte portant sur une modélisation des lois de l’électromagnétisme a débouché sur un nouveau concept de relation entre l’espace et le temps et c’est pour rendre la gravitié compatible avec ces nouvelles idées qu’a été élaboré le modèle de relativité générale. La relativité générale a en outre ouvert le champ par exemple à toute la cosmologie moderne (les trous noirs, le big bang …).

      L’électrodynamisme quantique a aussi été l’aboutissement de la conciliation du modèle de la relativité restreinte et de la mécanique quantique.

      Ce qui me semble important est je pense que la force d’un modèle n’est pas que son apport quantitatif avec une formule. Il s’agit de la partie émergée de l’iceberg (qui permet il est vrai de faire basculer le modèle dans la catégorie boîte à outil utilisable) A la base d’une modélisation il a des concepts qui sont une manière de se représenter quelque chose : un gène, une particule, la notion de force ou d’énergie ; puis l’usage de concept mathématiques pour les manipuler (des vecteurs, un champ, des fonctions d’ondes, des opérateurs …) et établir des relations entre ces objets. Et enfin les relations numériques entre ces quantités : c’est cette partie quantitive qui permet de valider tout le travail de conceptualisation préalable.

      Et des concepts développés dans un modèle servent ensuite pour créer d’autres modèles et ouvrent ainsi de nouveaux horizons au delà du simple enrichissement de la pratique. La mécanique quantique a par exemple abandonné les conceptes de trajectoires ou de vecteurs mais s’est appuyé sur les concepts d’hamiltonien ou de Lagrangien. Elle a elle même popularisé les concepts de fonction d’onde ou d’opérateurs repris par les théories quantiques des champs qui lui ont fait suite.

      Ainsi sans basculer dans un débat sur ce qu’est le réel, produire des concepts n’est pas que brasser la réalité existante mais bien en produire une nouvelle. On peut effectivement considérer que décrire les lois de l’électromagnétisme avec l’aide des concepts de champs électromagnétiques et des équations de Maxwell ou bien à l’aide de l’électrodynamique quantique revient à brasser de différentes manières l’existant ou bien considérer qu’il y a bien une différence profonde de nature entre ces deux modèles. Car si il veulent décrirent le même phénomène, ils ne font absolument pas intervenir les mêmes objets.

    • Comme dit plus haut, on a découvert des choses à partir des modèles, en physique effectivement. Un exemple qui me vient en tête : de nouveaux états de la matière comme le condensat de Bose Einstein, qui mène directement au laser.

      Maintenant, peut-on faire ça en dehors de la physique ? Je suis convaincu que oui; le problème étant qu’il y a assez peu de sciences autant mathématisées que la physique et donc qu’il y a forcément moins d’occasions d’appliquer ces modèles ( typiquement en ce moment je travaille sur un modèle mathématique qui unifie différents aspects biologiques d’un système et fait des prédictions, pour l’instant bien vérifiées expérimentalement)

      Tout à fait d’accord avec Duncan sinon.

    • Merci à tous trois pour vos réponses, très instructives!

      J’avais une petite question, du coup: depuis quand (à peu près) parle-t-on de « modèle » en science, dans le sens que vous en donnez (et je rejoins tout à fait duncan dans la description précise qu’il en donne, disons, un schéma explicatif mettant en scène des invariants et leurs interactions: c’est à peu près la définition, en très résumée, du modèle en politique criminelle par exemple)?

      Si l’on parle de Newton, lui-même ne parlait-il pas de « lois » -peut-être de « systèmes » ? Parlait-il de modèles, ou s’agit-il d’une façon plus récente de voir (et/ou peut-être de dire)?

      • Bonne question. A mon avis, la notion de modèle est assez récente en tant que telle, mais tous les gens qui ont fait de la science historiquement faisaient des modèles sans le savoir. Il faudrait que j’y réfléchisse…

  • Billet assez convainquant sur la nécessité de mathématiser la théorie de la gravité, et plein d’autres questions physiques, sans doute. Quid des autres types de problèmes ? Les problèmes de biologie (moléculaire ou non), par exemple, pour ne rester que dans les sciences naturelles ?

    Les insuffisances des modèles qualitatifs sont bien indiqués…Et les insuffisances des modèles quantitatifs ?

    Je pense que la distinction et la classification des modèles est encore très insuffisante dans ce billet, mais je vois pas bien comment ça pourrait se faire en un billet de blog…Dès ta définition, tu en mets certains de côté, je crois (les espèces modèles en biologie, par exemple).

    Penser que tout progrès scientifique viendra de la modélisation mathématique me pousse à penser que tu ne parlais que de certaines sciences, et non pas la science (C’est à ce stade que les maths peuvent, et en réalité doivent, entrer en jeu pour que la science progresse). D’ailleurs, c’est quoi LA science ? Qu’est-ce qui en est, qu’est-ce qui n’en est pas, je veux dire…

    • Je suis d’accord qu’il y a par exemple un continuum entre les deux types de modèles… Et oui, je suis convaincu qu’on va pouvoir maintenant mathématiser la biologie moléculaire, c’est ça la révolution scientifique du domaine dans les années qui vient ! (je prêche pour ma paroisse bien sûr, mais j’y crois très fort et j’essaie modestement d’y contribuer; les bonnes data exploitables pour faire de la vraie théorie se multiplient)

      « Penser que tout progrès scientifique viendra de la modélisation mathématique me pousse à penser que tu ne parlais que de certaines sciences »

      Disons que je pense que c’est une étape naturelle dans toutes les sciences, même si en dehors de la physique et de la chimie, il n’y a pas encore eu cette transition. L’économie n’est pas loin, la biologie va je pense rattrapper et dépasser l’économie en terme de mathématisation dans les décennies qui viennent, et pour les autres sciences humaines, peut-être que lorsqu’on comprendra mieux le cerveau humain, on verra des révolutions scientifiques (une psychohistoire ?).

      • Je trouve que « je suis convaincu qu’on va pouvoir maintenant mathématiser la biologie moléculaire » est à mi-chemin entre l’idéologie et la pensée magique ;-).

        Et comme je n’ai pas beaucoup d’intérêt personnellement dans la biologie moléculaire, l’imaginer mathématisée me laisse pensive (mais c’est sans doute la meilleure partie de la bio où se forger des outils mathématiques).

        Wait & see, alors, je me dis 😉

        Sinon rien à dire sur tout ce qui concerne la physique, et tous les apports de la modélisation, même si ce côté militant me gêne un peu…

        J’aime bien l’exemple donné par Duncan de ce modèle non-mathématique et pourtant si beau et si utile de classification de Mendeleïev = joli contre-exemple 🙂

        • Oui, enfin bon, je ne suis pas non plus exactement un observateur extérieur du domaine de la modélisation de la biologie, je suis plutôt un fort pratiquant (et je connais à la fois mon domaine et ce que je fais). En réalité, il y a déjà des travaux qu’on pourrait rapprocher de modèles bio-mol, mais simplement ils sont moins frappants comme exemples que la gravité de Newton, j’attends encore avant de le crier sur les toits !

  • Excellent billet, comme d’hab.

    Cela me fait penser à ce que vous aviez dit l’année dernière, lorsque vous prédisiez pour cette année la découverte du premier théorème en biologie. Sur le coup, je m’étais demandé s’il n’existait pas déjà une sorte de théorie des allèles et donc, si une formule du type « si ((x est dominant ) et (y est récessif)), alors expression de x » ne pouvait pas être considérée comme un théorème.

    • Merci 😉

      Pour les théorèmes de la biologie, je pensais vraiment à quelque chose du genre de la formule plus haut. Certains disent que ça existe déjà (par exemple en génétique des populations) mais je voudrais quelque chose plus proche de la biologie moléculaire. Ou alors une espèce de constante universelle qu’on pourrait démontrer mathématiquement, un principe de conservation illuminant une multitude d’expériences par exemple (type conservation de l’énergie)

      • Tu me le retires de la bouche !

        L’exemple de Pli ne va pas car la conclusion est contenue dans la définition de dominant et récessif, c’est quand-même trop tautologique pour un théorème. Les autres lois de Mendel sont plus des postulats (de portée limitée) que des théorèmes.

        Mais la dynamique des populations et la génétique des populations ont donné lieu à de beaux modèles, qui ont contribué à la naissance de pans entiers des mathématiques (modèle logistique : systèmes dynamiques ; processus de Galton Watson : processus stochastiques…).

        Pour la biologie moléculaire, je ne crois pas beaucoup que ce que tu espères soit possible, et je tâcherai de m’expliquer dans un prochain billet du Journal des Chouettes…

        • C’est vrai, et c’est la réflexion que je me suis faite une fois cette remarque postée : si on se demande sur quoi cette formule repose, on remarque qu’elle tient plutôt de l’axiome (puisqu’elle découle immédiatement de la définition des termes primitifs) mais, du coup, on se demande aussi quel théorème elle (et les autres formules avec lequelles celle-ci fait système) pourrait bien permettre de démontrer.

          Bon, il ne s’agissait ni d’un théorème, ni d’un énoncé quantitatif, donc je sors !

  • Hello Tom,

    Merci tout d’abord de me faire partager la très bonne compagnie de Moktarama et Fantômette. A la lecture de ton texte, j’en suis venu à me demander en quoi j’avais bien pu avoir un avis divergent. Je pense que cela apparaîtra dans les articles suivants, et donc je n’anticiperai pas (trop). Je résume donc ma position, telle que j’ai maladroitement tenté de l’exprimer en fragments de 140 caractères (avec une « charge utile » encore moindre vu le nombre d’intervenants qu’il convenait de mentionner) :

    1. Les particules constitutives de ta « flèche » n’ont pas la possibilité de se soustraire à la loi de la gravitation universelle. Mieux encore, il faudrait faire preuve d’un anthropomorphisme ridicule et hors de propos en physique pour leur prêter le souhait de le faire, ou imaginer qu’elles puissent y trouver un quelconque intérêt.

    2. Dans le domaine de l’économie qui faisait l’objet de ton tweet initial, les « particules » sont des agents économiques dont on peut constater tous les jours l’intérêt qu’ils peuvent trouver à ne pas respecter les lois, ou à en respecter la lettre tout en en méprisant l’esprit, à tenter de faire changer lesdites lois pour la défense de leurs intérêts,… Pour adapter ce que je disais dans un autre tweet, la flèche de ton exemple ne peut pas « préférer » rester en orbite plutôt que de retomber, et quand bien même elle le voudrait, aucun lobbying (auprès de qui, d’ailleurs… 🙂 ne lui permettrait d’espérer que la nature adapte les constantes physiques pour lui permettre de le faire

    3. Tu m’objecteras à ce stade que la physique est un mauvais exemple, trop « déterministe » (nous parlons là d’un niveau où elle est strictement déterministe, je laisse les matous de Schrödinger se « plancker » pour le moment). Et j’imagine que tu as en tête les méthodologies de ton propre domaine pour « modéliser » les comportements des acteurs de la finance. La difficulté me semble plus subtile mais pas plus facile à contourner : dès que tu auras su modéliser un comportement, cette connaissance nouvelle sera prise en compte par les agents, qui chercheront comment modifier leurs pratiques pour atténuer la capacité prédictive de ton modèle, et ce pour la simple raison que leur intérêt pécuniaire implique de pouvoir faire des prédictions que les autres n’auront pas faites (la finance consiste à gérer du risque et du temps mieux que ses petits camarades).

    4. J’ai été trop long, et je laisse pour les prochains épisodes la suite de mes réflexions sur le sujet. (Mon propre modèle me souffle que j’en viendrai probablement à parler clinamen et René-Thomisme 🙂

    • Merci pour le commentaire. Je pense effectivement qu’il faut garder cela pour les prochains billets (j’ai la pression maintenant pour m’y mettre !).
      Une observation : pour l’économie, je pense qu’il y a probablement des lois qui resteront valables indépendamment du fait qu’on les connaisse ou pas. Je suis assez intéressé par les approches éconophysiques pour la finance par exemple, dont l’idée est quand même que des comportements analogues à la physique des transitions de phase apparaissent . Certains paramètres comme les exposants critiques sont universels et ne sont pas si facilement modifiables que cela, surtout pas de façon consciente et calculée, car le détail du niveau sous-jacent ne compte pas tellement en fait.

  • Merci Tom pour ce billet fort intéressant. Mon métier étant la modélisation (en physique), je me devais donc de mettre mon grain de sel à cette salière géante qu’est cet article.

    Je voulais rappeler qu’une des sciences qui a pour objet (entre autre) la modélisation des systèmes dynamiques est l’automatique. En automatique, on distingue souvent 2 grands types de modèle:
    – Les boites blanches: modèles de connaissances basés sur les équations de la physique.
    – Les boites noires: modèles identifiés (ce que tu appelles dans ton billet « data fitting »). cette méthode de modélisation constitue une branche entière de l’automatique, l’identification paramétrique, et peut être très puissante.

    Je ne dirai pas qu’il y en a une méthode meilleure que l’autre, les 2 permettant des prédictions (même si je préfère la première) mais il y a un 3ème type hybride très souvent employé:
    – Les boites grises: modèles ayant une structure physique avec des paramètres inconnus qui peuvent être approchés par identification à partir d’observations. Cette solution est souvent très puissante lorsqu’un systèmes complexe doit être modélisé.

    Ce qui est intéressant c’est que l’automatique s’intéresse aux systèmes dynamiques en général, ce qui inclut la physique, la biologie, l’économie, etc.

    Bref, tout ça pour attirer votre attention sur l’automatique :).

  • […] En réalité, comme on l’enseigne au lycée, la force de gravité exercée par la petite boule sur la grosse est la même que celle exercée par la grosse sur la petite. C’est un principe plus fondamental que la loi de la gravité: le principe d’action-réaction ou troisième loi de Newton. Et oui, Sarkozy attire autant la Terre que la Terre attire Sarkozy. Etonnant, non ? Par contre, dans le référentiel du centre de masse, la grosse boule « bouge » beaucoup moins que la petite boule. Mais ce n’est pas pour autant que la petite boule va finir par rejoindre la grosse: tout le génie de Newton a été de comprendre pourquoi le même effet explique que la pomme tombe alors que la Lune tourne autour de la Terre, comme expliqué dans ce vieux billet. […]

Leave a Comment