Non classé Physique Sciences

Vous êtes un cerveau de Boltzmann

Connaissez-vous le Second Principe de la Thermodynamique ? Cette loi de la physique décrit en quelque sorte l’irréversibilité de la flèche du temps. Elle explique par exemple pourquoi votre thé infuse dans l’eau chaude et ne revient jamais se concentrer dans le sachet, ou encore pourquoi les molécules de dioxygène tout autour de vous se répartissent uniformément dans la pièce où vous êtes plutôt que de se concentrer dans un de ses coins.

D’un point de vue plus théorique, ce principe est associé à une quantité physique appelée l’entropie. L’entropie est une fonction de l’état d’un système physique, elle mesure en quelque sorte son état de désordre. Plus un système physique est désordonné, plus son entropie est grande; plus un système physique est ordonné, plus son entropie est petite. Le point important est qu’en thermodynamique, l’entropie croît toujours avec le temps. Autrement dit, tout système physique sombre dans le désordre : c’est ce qui explique la flèche du temps.

L’un des grands physiciens du XIXième siècle, Ludwig Boltzmann, a précisé l’origine de l’entropie. Il a en particulier interprêté l’entropie comme statistique; l’entropie est une mesure du nombre d’états possibles du système physique (j’en avais parlé dans le contexte de l’écologie (!) dans un billet précédent). Du coup, comme tout phénomène statistique, l’entropie est sujette à des fluctuations (un peu pour la même raison que comme Nicolas Sarkozy a été élu avec 53% des voix, les fluctuations statistiques sur les sondages auraient dû donner parfois Ségolène Royal vainqueur, comme montré dans ce billet). Si l’entropie est sujette à des fluctuations, cela signifie donc que très ponctuellement et très rarement, l’entropie, au lieu d’augmenter, peut diminuer. La flèche du temps est alors une notion également statistique : si en moyenne, un système physique tend vers le désordre, quelques fluctutations peuvent ponctuellement ramener un système vers un état plus ordonné (vers le « passé »).

Boltzmann était intrigué par l’ordre apparent de notre univers. Si tout système tend vers le désordre, comment les galaxies, les étoiles, les planètes ont pu apparaître, comment des êtres vivants aussi complexes que nous ont pu émerger du chaos ? Pour résoudre ce paradoxe, Boltzmann a utilisé cette notion d’entropie statistique : notre univers tout entier est peut-être en fait issu d’une fluctuation statistique ayant spontanément diminué l’entropie et créé l’ordre Evolution de l'entropie de l'universcéleste. L’évolution de l’entropie de l’univers dans cette interprétation est représentée sur la figure ci-contre – adaptée du site de cosmologie donné plus bas en référence. L’unité sur l’axe du temps est en gros la centaine de milliards d’années. La flèche du temps implique que l’univers aille vers un état de désordre maximal : par exemple, une soupe d’Hydrogène bien homogène. C’est l’état d’entropie maximale, le bordel absolu, toujours atteint après un temps fini (c’est pour cela que je l’ai représenté comme « point de départ »). Mais extrêmement rarement, l’univers peut s’ordonner à cause des fluctuations statistiques. Boltzmann a proposé que l’ordre apparent de notre univers ne pouvait s’expliquer que de cette façon : un moment pendant lequel l’univers diminue violemment son entropie. Dans ce cadre, l’ordre du monde n’est que temporaire, et s’explique par le principe anthropique faible (que j’avais déjà évoqué dans un contexte similaire dans ce billet) : l’univers est tel que nous le voyons parce que nous ne pouvions apparaître que dans un univers favorablement ordonné.

Un point important est qu’un événement donnant lieu à une augmentation de l’ordre et d’autant plus rare que le gain d’ordre est important. Sur la figure, les petites baisses d’entropie sont beaucoup plus fréquentes que les grosses baisses. Par exemple, une fluctuation amenant l’apparition d’un univers entier ordonné est tellement rare que forcément, il faut attendre beaucoup de temps avant de voir cette fluctuation, et l’âge réel de l’univers se compte peut-être en Asamkhyeya de milliards d’années. Arrive alors ce qu’on appelle le paradoxe des cerveaux de Boltzmann. Avec tout le respect que je vous dois, cher lecteur, votre cerveau est infiniment moins « ordonné » (i.e. en fait complexe) qu’un univers tout entier, dans lequel, en particulier, gravite une planète sur laquelle vivent plusieurs centaines de milliards d’êtres vivants, dont au moins 9 milliards ont un cerveau aussi complexe que le vôtre. Donc, si l’univers a une chance infime d’apparaître par fluctuation statistique, il est beaucoup plus probable que, par une autre fluctuation statistique, un seul cerveau surgisse spontanément hors du vide, avec tout un tas de faux souvenirs incluant une heureuse enfance, des amis, la Terre, le Soleil et quelques longs billets sur des blogs prétendûment scientifiques. Le principe de parcimonie a donc une conséquence : cher lecteur, tu n’es qu’un cerveau flottant dans le néant issu spontanément d’une fluctuation statistique de l’entropie de l’univers …

Quelques liens :

La page wikipedia sur le sujet (en anglais).

Un billet d’un physicien théoricien sur le sujet (en anglais aussi). Il y a pas mal de considérations physiques; en particulier, si j’ai bien compris, une façon de résoudre le paradoxe est de supposer une création continue de bébés univers dans un super méta univers à très haute entropie.

About the author

Tom Roud

Blogger scientifique zombie

7 Comments

  • heu, je ne suis pas vraiment convaincu par ton billet, là . par exemple supposer que l’univers ordonné est issu d’une fluctuation statistique me parait négliger completement l’effet de la gravité. Un exemple : certes, les molécules de gaz d’une piece ne vont pas se mettre spontanément dans un coin, mais dans l’atmosphère, elles sont beaucoup plus nombreuses à basse altitude

  • Salut,
    en fait, je n’ai pas du tout expliqué un aspect crucial. Tout le monde est d’accord pour dire que l’entropie augmente; mais le vrai problème pour l’univers est de savoir pourquoi son entropie initiale est si petite :
    « Boltzmann’s understanding led to both a deep puzzle and an unexpected consequence. The microscopic definition explained why entropy would tend to increase, but didn’t offer any insight into why it was so low in the first place. Suddenly, a thermodynamics problem became a puzzle for cosmology: why did the early universe have such a low entropy? Over and over, physicists have proposed one or another argument for why a low-entropy initial condition is somehow “natural” at early times. Of course, the definition of “early” is “low-entropy”! That is, given a change in entropy from one end of time to the other, we would always define the direction of lower entropy to be the past, and higher entropy to be the future. The real puzzle is why there is such a change — why are conditions at one end of time so dramatically different from those at the other? If we do not assume temporal asymmetry a priori, it is impossible in principle to answer this question by suggesting why a certain initial condition is “natural” — without temporal aymmetry, the same condition would be equally natural at late times. » (site donné en lien plus haut)
    Sinon, pour la gravité, tu peux toujours invoquer la constante cosmologique 😉 .

    PS : Damned, je m’aperçois qu’il y a des problèmes d’accent dans les commentaires !!!!

  • D’après J.-P. Baquiast, les cerveaux de Boltzmann ne seraient pas nécessairement des « cerveaux tels que nous les connaissons, mais seulement de[s] structures suffisamment organisées capables de jouer le rôle d’observateurs tels que le sont les humains quand ils observent leur univers. » Tout cela me semble encore un peu trop abstrait, mais ça laisse rêveur, assurément ! ^^

  • Oui, les cerveaux de Boltzmann sont à la mode ! Ils ont fait la couverture de New Scientist (que j’ai vu mais pas lu), c’est pour ça que j’en ai parlé …A noter également que beaucoup plus probables que l’apparition de cerveaux de Boltzmann, il y a l’apparition de structures plus simples : par exemple « ordinateurs de Boltzmann », voir des objets complètements inertes (j’imagine bien une chaise apparue par fluctuation quantique flottant dans le vide 😀 ).

  • […] La raison pour laquelle on appelle cela “entropie” est que cette définition coincide exactement avec la notion d’entropie de Boltzmann en physique statistique. C’est bien sûr plus qu’une coincidence : un des liens est que l’entropie de Shannon quantifie l’incertitude a priori que le récepteur a sur la nature du message émis, c’est donc une forme de “désordre”, comme l’entropie physique. […]

  • Aw, this was a really good post. Finding the time and actual
    effort to generate a good article… but what can I say… I
    put things off a whole lot and never seem to get nearly
    anything done.

Leave a Comment