Enseignement Non classé Physique

3 démonstrations de la loi des gaz parfaits (et digressions)

Mon enseignement, qui comme l’an dernier à la même époque m’a tenu éloigné de ce blog, se termine d’ici 3 semaines. Tant que je suis encore chaud, une petite note qui me sera bien utile l’an prochain pour réorganiser mes cours et penser un petit peu à l’enseignement de la physique, voire à sa vulgarisation en général.

Il se trouve que dans mon cours d’introduction à la mécanique statistique, j’ai démontré 3 fois la loi des gaz parfaits. Les trois façons de faire ne sont pas inintéressantes à comparer.

  • La première démonstration, c’est celle qu’on faisait de mon temps en tout début de prépa. On considère un gaz comme des petites sphères dures, qui n’interagissent pas, mais viennent cogner régulièrement contre la paroi. Le raisonnement est que chaque molécule transfère une quantité de mouvement de 2mv en rebondissant sur la paroi. On montre alors avec les mains en intégrant spatialement et en divisant par unité de temps qu’elles excercent le fameux terme de pression cinétique P=\frac{1}{3}\frac{N}{V}m\bar{v^2}

    N/V est la densité, m la masse des particules et \bar{v^2} la vitesse quadratique moyenne. Ensuite, pour relier à la température, il faut invoquer le théorème de l’équipartition de l’énergie, disant que chaque degré de liberté quadratique contribue pour \frac{kT}{2} à l’énergie moyenne d’une molécule. On en déduit alors que l’énergie cinétique moyenne d’une molécule est \frac{3}{2}kT= \frac{1}{2} m\bar{v^2} , et donc en substituant dans l’expression de la pression cinétique, on a immédiatement

    P=\frac{NkT}{V}

    qui est la loi des gaz parfaits.

    Cette démonstration commence bien dans le sens où elle donne une interprétation très physique de la pression (des petites billes qui cogent sur les parois), en revanche, on sort un espèce de théorème ex machina sans vrai justification, l’équipartition de l’énergie, que je n’ai personnellement jamais trouvé si intuitif, même si on peut s’en sortir encore une fois avec les mains en expliquant que la température n’est au fond qu’une mesure de l’énergie.

  • La deuxième démonstration est ma préférée car elle fleure bon la pré-mécanique quantique tout en étant mathématisée juste comme il faut. La base, c’est Boltzmann et la fameuse formule reliant entropie S et multiplicité d’un macroétat \Omega :  S=k \ln \Omega

    On peut facilement estimer la multiplicité d’une molécule de gaz : c’est le nombre de configurations totale qu’elle peut prendre pour une énergie cinétique donnée. Si une molécule de gaz évolue dans une boîte de taille V , elle peut occuper a priori n’importe quelle position dans cette boîte de façon équiprobable, donc on s’attend à ce qu’\Omega soit proportionnel à V. C’est la seule contribution dans \Omega venant du volume car une fois qu’on a décidé où placer la molécule, son nombre de configuration va être une pure fonction de son impulsion p qui est indépendente de sa position a priori.

    Donc on a pour une molécule

     S=k \ln V +f(p)

    Les entropies s’ajoutent car il n’y a pas d’interaction, donc pour N molécules, on s’attend à

     S=Nk \ln V +f(p)

    On y est presque car l’impulsion p dépend en fait uniquement de la température pour les mêmes raisons que dans le premier point (c’est la pure contribution énergétique). Une fois qu’on a l’entropie, on invoque le second principe de la thermodynamique qui dit que l’entropie d’un système isolé est maximum. On peut montrer (en classe !) que cela implique notamment pour un système à l’équilibre thermique la relation

     P=T\left(\frac{\partial S}{\partial V}\right)_{T,N}

    soit, en utilisant l’équation ci-dessus :

     P=\frac{NkT}{V}

    Pour se rappeler le second principe, il n’est pas inutile de se remémorer l’identité thermodynaique

    dU=TdS-PdV

    qui implique que

    dS= \frac{1}{T}(dU+PdV)

    ce qui implique en particulier les fameuses relations

     P=T\left(\frac{\partial S}{\partial V}\right)_{T}, \frac{1}{T}= \left(\frac{\partial S}{\partial U}\right)_{V}

    J’aime bien cette démonstration car elle utilise purement la thermo « classique » et passe par la notion d’entropie. On voit bien comment les contributions du volume et de l’énergie se séparent, et comment sur l’identité thermodynamique cela implique respectivement que les pressions et la température s’équilibrent.

  • La troisième démonstration est une version élaborée de la seconde, passant cette fois par la fonction de partition de Boltzmann. On peut très facilement écrire une expression de la fonction de partition d’une molécule de gaz : c’est la somme des facteurs de Boltzmann, chacun d’entre eux étant une pure fonction de la température et de l’énergie. Comme on s’attend encore une fois à ce que l’énergie soit indépendante de la position, la fonction de partition Z d’une molécule de gaz doit bien se séparer en position d’un côté et température de l’autre et être proportionnelle à

     Z \propto V f(T)

    Pour N molécules sans interaction, on multiplie. Ensuite, on utilise la relation entre énergie libre et fonction de partition et on obtient

     F=-NkT \ln Z=-NkT \ln V -g(T)

    Puis on utilise encore une fois une identité thermodynamique classique (quasiment la même), en l’occurrence

     P=-\frac{\partial F}{\partial V}=\frac{NkT}{V}

  • En fait, quand on regarde ces démonstrations, on s’aperçoit de la difficulté de la physique moderne, en particulier pour la vulgariser. La première démonstration est la plus « intuitive », mais demande déjà en fait pas mal de maths pour faire l’intégrale des mouvements, et demande aussi le théorème de l’équipartition de l’énergie qui devait être purement empirique au moment de son énoncé. D’ailleurs, les pères fondateurs de la méca quantique ne croyaient pas à ce théorème (à raison, voir plus bas). Les deuxièmes et troisièmes démonstrations reposent sur des axiomes plus précis et plus généraux, mais immédiatement on est obligé d’utiliser des outils mathématiques qui, s’ils ne sont pas plus compliqués, sont conceptuellement beaucoup moins intuitifs (entropie, fonctions de partition, identités thermodynamiques). En plus, en toute rigueur, pour calculer la multiplicité et la fonction de partition complète, on a besoin de la mécanique quantique (sans ça, on a par exemple une multiplicité infinie, un peu comme dans la catastrophe ultraviolette ).
    Mes étudiants se plaignent parfois que tout cela manque d’interprétation physique directe et est « trop » mathématique. Mais tout le talent du physicien théoricien moderne est de développer son intuition sur ce genre d’outils – comme les fonctions de partitions- qui ne correspondent pas de façon évidente à une image d’Epinal physique (du type « petites billes qui cognent sur une paroi »). Une partie du malentendu entre la physique réelle et sa vulgarisation me paraît venir de cette difficulté à accepter/faire comprendre que des objets mathématiques compliqués sont plus rigoureux à manier que des « intuitions » physiques qui ne mènent pas forcément loin quantitativement. C’est alors d’autant plus énervant d’entendre des gens critiquer les « modèles » mathématiques ou numériques, comme s’ils étaient sans substances ou complètement déconnectés de la réalité – je pense notamment aux débats sur le réchauffement climatique.

    Une remarque physique pour terminer : le lecteur attentif ou curieux pourra se demander où est passé le « théorème de l’équipartition de l’énergie » dans les démonstrations 2 et 3. En fait, il est implicitement dans la séparation entre d’un côté les termes de volume et de l’autre les termes d’énergie; pour écrire la fonction de partition réelle d’une molécule de gas, il faut invoquer la mécanique quantique, et les facteurs de Boltzmann dépendent alors à la fois du volume et de la température, le découplage entre les deux ne se produit que dans la limite des hautes températures qui est le cadre d’application où l’on peut démontrer rigoureusement le théorème d’équipartition de l’énergie à l’aide du formalisme des fonctions de partition. Encore une fois, c’est une supériorité de la formalisation mathématique de pouvoir toucher du doigt les limites d’application de lois empiriques telles que le théorème d’équipartition et de permettre de voir par quoi on peut alors le remplacer dans la limite des températures basses.

    Référence :

    Introduction to Thermal Physics, Daniel V Schroeder, un excellent textbook sur le sujet que je recommande très vivement.

About the author

Tom Roud

Nanoblogger scientifique, associate professor incognito (ou presque). Suivi par @mixlamalice

9 Comments

  • […] Mon enseignement, qui comme l’an dernier à la même époque m’a tenu éloigné de se blog, se termine d’ici 3 semaines. Tant que je suis encore chaud, une petite note qui me sera bien utile l’an prochain pour réorganiser mes cours et penser un petit peu à l’enseignement de la physique, voire à sa vulgarisation en général. Il se trouve que dans mon cours d’introduction à la mécanique statistique, j’ai démontré 3 fois la loi des gaz parfaits. Les trois façons de faire ne sont pas inintéressantes à comparer. 3 démonstrations de la loi des gaz parfaits (et digressions) | Matières Vivantes […]

  • Argh j’avais rien compris alors. Je croyais que l’hypothèse d’équipartition de l’énergie était une formulation « avec les mains » du second principe. A savoir que les molécules et leur vitesse sont, à l’équilibre, statistiquement réparties de façon homogène et isotrope dans le système (=occupation des macro-états les plus probables), d’où l’égalité à un facteur de proportionnalité près entre l’énergie cinétique du gaz (PV) et son énergie thermique (T * le nombre de molécules). C’était pas ça?

    • Si, c’est un peu ça, mais :
      – ça n’explique pas pourquoi la dépendance est en 1/2 kT par degré de liberté
      – ça n’explique pas pourquoi à haute température, pour un gaz diatomique, tu ajoutes les degrés vibrationnels alors que tu n’as que les degrés translationnels ou rotationnels à room temperature
      – ça n’explique pas le « troisième principe » qui veut que la capacité calorifique tende vers 0 à température 0 (i.e. tes degrés de liberté disparaissent effectivement)

      En plus, la formule est valable quelle que soit la caractéristique du gaz, donc dans ton interprétation ce ne serait que l’énergie cinétique translationnelle (i.e. pas rotationnelle).

      Pour résoudre tous ces paradoxes, il faut passer par la fonction de partition. Tu démontres alors assez facilement l’équipartition : en gros, si les niveaux d’énergie sont quantifiés, ça vient du fait que tous ces degrés de liberté contribuent multiplicativement avec des termes du type sum_k e^{-a k^2/kT} où a est une constante (dépendant du degré de liberté, dans la limite des hautes T, tu peux approximer par une intégrale et tu as des termes en kT^{-1/2} qui tombent. Quand tu prends la dérivée du ln pour avoir l’énergie, ça donne des 1/2kT.

  • Oui, super; c’est vraiment très profond.
    Comment justifie-t-on l’argument de l’équiprobabilité des positions dans une boite? A priori, on penserait que ça dépend de la taille et de la forme de la boite.
    Est-ce que c’est par des billards quantiques etc? ou par de la dynamique du point? Ou est-ce que c’est seulement à la limite des grandes boites?

    • Bonne question, mais a priori je dirais non. Tout ça vient fondamentalement de l’axiome de la méca stat disant que tous les microétats sont équiprobables. On retrouve la proportion à V aussi quand on intègre comme un gaz de sphères dures aussi (int dˆ3 r d^3 p donne un terme proportionnel au volume qui ne dépend clairement pas de la forme de la boîte). Maintenant mon cours n’est peut-être pas assez avancé; j’enseigne aussi un cours de mécanique hamiltonienne et je ne me suis toujours pas convaincu de l’ergodicité du truc, faudrait que je regarde si quelqu’un a étudié ça.
      (en fait, si tu y penses, si une particule fait du pig pong entre les deux parois, clairement elle n’explore pas toutes les configs, donc implicitement ça veut dire que ce sont bien les interactions qui « mélangent » un peu tout ça, ce qui est paradoxal pour un gaz parfait !)

  • Il est très intéressant de comparer les explications que tu donnes et qui
    semblent s’adresser à un public de « futurs physiciens », à celles qui sont
    couramment données à de « futurs ingénieurs ». Pour m’adresser à ces derniers, je
    commence généralement par une combinaison des lois empiriques de Boyle-Mariotte
    et de Charles dans laquelle j’introduis (un peu maladroitement) la constante de
    Boltzmann afin d’obtenir la loi d’état des gaz parfaits (GP). J’ai ensuite une
    deuxième démonstration qui correspond à peu près à la première des tiennes, à
    ceci près que j’obtiens le lien entre le produit « pression x vitesse » et
    l’énergie cinétique moyenne des particules à l’aide d’un joli raisonnement
    géométrique basé sur des triangles semblables (démonstration trouvée dans un
    vieux livre de vulgarisation russe). Etant donnée la culture plus technique que
    scientifique de mes étudiants, je ne peux pas aborder ce problème par la
    physique statistique et même si je le pouvais, je ne suis pas sûr que c’est ce
    que je ferais. Dans le cadre d’un problème d’ingénierie, la vraie question qui
    se pose est : quand doit-on utiliser le modèle du GP, et quand doit-on envisager
    d’en utiliser un autre ? Il me semble que ce type de choix est beaucoup plus
    basé sur une compréhension physique « avec les mains » de ce qu’est un GP (pas
    d’interactions à distance, volume des particules négligeables) que sur une
    maîtrise d’un formalisme mathématique spécifique. C’est peut-être là que réside
    toute la différence entre un ingénieur et un physicien.

    • Merci pour la perspective.
      Un truc dont je me suis aperçu à l’occasion de ce cours est à quel point cette recherche est historiquement très française (jusque Kelvin en tous cas), je soupçonne que ça change aussi la façon d’enseigner !
      Sur la différence entre ingénieur et physicien, je ne sais pas. Je passe beaucoup de temps à expliquer la différence entre gaz parfait et réel; par exemple j’explique comment une équation type Van der Waals tenant compte des interactions est nécessaire pour faire des transitions de phase. Pour la statistique quantique (i.e. condensat de Bose Einstein ou gaz de Fermi) on est aussi obligé d’expliquer les limites du gax parfait (limites à température 0 où on voit les effets quantiques, qui ne sont probablement pas souvent rencontrés en pur génie !)
      Je serais très intéressé par la démonstration de la loi des gaz parfaits à la russe si tu l’avais sous forme scannée !

Leave a Comment