Avertir le modérateur

12 janvier 2010

LVDC 15 : l'entropie, un beau bordel

Si vous êtes familier avec la physique, ou si vous lisez de la science-fiction, vous avez sans aucun doute déjà croisé le terme « entropie ». Les ouvrages de vulgarisation, comme Science & Vie (que j’ai cessé de lire le jour où j’y ai lu des articles qui simplifiaient horriblement mes cours de prépa), indiquent souvent au détour d’une ligne qu’il s’agit d’une « mesure du désordre ». Et vous expliquent dans la foulée que, par exemple, un gaz aura une entropie plus élevée qu’un liquide parce que ses molécules ont un mouvement plus désordonné. Si cette vision des choses (qui depuis des décennies a engendré chez les jeunes élèves des blagues nazes comme « je vais essayer de réduire l’entropie de ma chambre » ou bien « l’administration de cette école présente une très forte entropie ») n’est pas totalement fausse, moi je trouve que ce qui est désordonné, c’est cette histoire d’entropie.

L’entropie est une grandeur physique issue de la thermodynamique et développée par Gibbs. Pour les non-scientifiques qui liraient ce blog (et pour les scientifiques qui [ont oublié/n’ont jamais rien compris] à la thermo), un petit rappel de physique s’impose !

La thermodynamique (deux qui la tiennent, trois qui la ni***) est une discipline qui étudie les échanges de chaleur au sein des fluides (liquides ou vapeurs). C’est grâce à elle que l’on a mis au point votre réfrigérateur par exemple. Les étudiants de classes préparatoires ont l’immense joie d’en apprendre trois Principes (j’ignore s’il en existe d’autres, et je ne veux pas le savoir) :

Le premier principe stipule qu’à tout système (une quantité de fluide à laquelle on s’intéresse), on peut associer une fonction d’état (c’est-à-dire qui prendra toujours la même valeur pour les mêmes conditions du système – car oui, il existe des fonctions qui ne prendront pas les mêmes valeurs ; mais là tout se passe comme on en a envie) extensive (proportionnelle à la masse du système, donc si vous prenez un système deux fois plus lourd, vous en aurez deux fois plus) dont les variations lors d’une transformation sont égales à la somme du travail (action mécanique) et de la chaleur que l’on communique au système. Cette fonction est appelée énergie interne. Par exemple, si vous chauffez de l’eau dans une casserole, vous lui apportez une certaine quantité de chaleur, et son énergie interne augmente d’autant. Vous pouvez aussi lui faire perdre de l’énergie interne en mettant dedans un bol contenant du chocolat, qui va fondre en lui prenant de la chaleur.

C’est le second principe qui introduit la notion d’entropie : selon ce dernier, il existe une fonction d’état extensive (encore !) dont les variations lors d’une transformation se décomposent en deux parties : l’entropie échangée (avec un autre système, qui voit son entropie baisser ou augmenter d’autant) et l’entropie créée lors de la transformation. Ce que vous devez savoir, c’est que l’entropie (tout comme l’énergie interne) est une grandeur physique avant tout utilitaire : là où la masse d’un système, par exemple, se conçoit bien comme « palpable » et nous donne l’impression de comprendre le monde, cette cochonnerie d’entropie sert essentiellement à faire des calculs. Vous savez autant que moi que le désordre, c’est relatif…

Le troisième principe donne à l’entropie, qui n’est définie par le second principe que de manière différentielle, un repère (une origine, un zéro quoi) issu de la thermodynamique statistique : un système dont la température vaut zéro degrés Kelvin (i.e. -273°C, aussi appelé zéro absolu parce qu’une température plus basse n’aurait pas de sens au niveau physique - avec les mains, la température est liée à l’agitation moléculaire, et à 0°K, les molécules ne bougent plus) a une entropie nulle.

Une fois que les scientifiques ont eu défini complètement cette magnifique entropie, ils se sont dépêchés de bricoler des relations pour l’intégrer à leurs modèles : ils ont pour cela relié ses variations par rapport à celles de l’énergie interne et de l’enthalpie (une autre énergie fonction d’état extensive qui sert à faire des calculs), à la pression et la température via des identifications douteuses entre des termes homogènes (i.e. de mêmes unités). S’ensuivent tout plein de relations, que l’on s’empresse d’utiliser pour répondre à des questions comme « calculer la variation d’entropie » ou ce genre de choses super intéressantes (856 kJ/kg/K, t’es content, hein !).

Là où ça devient stimulant pour les écrivains et les scientifiques, c’est que l’entropie créée a une particularité : elle ne peut être que positive, c’est-à-dire qu’elle est créée à partir de rien. Nada ! La génération spontanée, dans notre bonne vieille physique cartésienne où tout se transforme, ça fait « désordre... » En effet, si vous prenez comme système l’univers entier, celui-ci ne peut échanger d’entropie avec rien d’autre ; son entropie, lors de réactions internes, ne peut alors plus qu’augmenter. Augmenter, augmenter, augmenter sans fin vu qu’il n’a aucun système à qui la donner ! Dès lors, on peut en imagination s’en donner à cœur joie : et si cette entropie venait de quelque part ? Et si je pouvais, via certaine réaction alchimique, faire disparaître de l’entropie ? Si, de même que les hypothétiques fontaines blanches reliées aux trous noirs (légèrement hypothétiques eux aussi d’ailleurs) expulsent la matière que ceux-ci absorbent, il existait des trous d’entropie qui la capturent et la fournissent à toutes ces réactions qui ne peuvent qu’en créer ? Vous voyez, il y a cinq minutes c’était complètement abstrait pour vous et déjà, vous vous représentez des flux d’entropie qui voyagent dans l’espace comme autant de filets de brume…

Il faut quand même reconnaître une signification physique à l’entropie – en dehors, il est vrai, que dans des conditions égales un système gazeux a tendance à avoir une entropie plus élevée qu’un système à l’état liquide. Quand on soustrait à la variation totale d’entropie la quantité issue de l’échange avec un autre système, on obtient la quantité créée ; celle-ci, si elle ne peut être strictement négative, peut cependant être nulle. Si elle ne l’est pas, alors la transformation est irréversible : par exemple, si vous faites fondre un glaçon dans un verre d’eau, vous ne pouvez pas inverser la transformation et réunir les mêmes molécules d’eau dans le même ordre pour le reconstituer et le faire émerger à la surface de l’eau (ou du Martini).

Tout ça pour vous dire que, si c’est vous qui corrigez l’examen que je passerai mercredi, j’ai bien compris la leçon et je mérite de valider, cette fois-ci…

Commentaires

Il aurait peut-être intéressant de glisser un mot sur les généralisations du concept d'entropie à d'autres domaines que la physique. Je pense notamment à l'entropie de Shannon, en théorie de l'information, ainsi nommée à cause de sa ressemblance très forte avec son homonyme thermodynamique - et qui, pour le coup, est objectivement une mesure de l'aléatoire (par exemple, des données se compresseront d'autant mieux que leur entropie est faible).

Je me méfie toujours un peu des cours de prépa et de fac: s'ils sont (presque) toujours rigoureusement irréprochables, ils manquent souvent de ce petit supplément d'âme qui éclaire entièrement une théorie.

Écrit par : Gaël Deest | 24 janvier 2010

Salut Gaël,

Effectivement, j'aurais pu rajouter ça. Le problème c'est que le traitement du signal, je l'ai vu en école d'ingés et pas en prépa, aussi il était sacrément moins bien fait (et encore plus dépourvu d'âme, vu que le mec découvrait visiblement son poly)...

Je dois aussi rappeler que je n'ai jamais eu la prétention d'être exhaustif - après tout ce blog m'a pour principal sujet - et qu'au final je cherchais moins à parler d'entropie qu'à critiquer la vulgarisation dont la science fait trop souvent l'objet. Je suis pour le sens physique (mes camarades se souviendront de certaines questions posées en amphi) et pour les explications "avec les mains", mais certaines explications vont vraiment trop loin et cachent la complexité de certaines théories - surtout celles aussi abstraites (à mon sens) que les énergies.

Écrit par : Charles | 24 janvier 2010

Oui, mais attention tout de même à l'excès inverse, aux mathématiques impeccables sans aucun recul sur les résultats. Alors que leur interprétation est parfois vertigineuse, et donc intrinsèquement intéressante, mais aussi souvent d'un puissant soutien à l'intuition.

C'est vrai en physique, c'est vrai aussi (surtout ?) en mathématiques pures, où il est particulièrement important d'expliciter *l'origine* des concepts, l'intuition géniale qui leur a donné naissance, et de bien veiller à ne pas les faire passer pour des artefacts calculatoires. Car enfin, le cerveau humain n'est pas un ordinateur, en ce sens que nous compensons notre relativement faible vitesse de calcul par notre capacité de donner du sens aux choses.

Pour revenir à l'entropie de Shannon: je sais de source sûre qu'elle possède des applications en dehors du traitement du signal. Il s'agit d'une mesure importante en sciences de l'environnement, une faible entropie (mesurée à partir d'une photographie numérisée) étant par exemple caractéristique d'un paysage hivernal. Une variation de la valeur de l'entropie d'une année sur l'autre pouvant révéler une anomalie (eg. baisse de la biodiversité). Bref, il s'agit d'un outil très puissant, dont on ne peut comprendre la versatilité sans garder en tête son interprétation "naïve".

Écrit par : Gaël Deest | 24 janvier 2010

Votre remarque sur l'apport de l'intuition (et, si je peux me permettre d'extrapoler, de notions correspondant à des observations de la nature) aux mathématiques me plaît assez. Il est vrai que les gros objets mathématiques (soyons fous, citons les espaces vectoriels !) ont tendance à fournir un cadre "où tout se passe bien" pour reprendre la formulation de mon professeur de sup, M. Millet. Certaines branches des mathématiques ont d'ailleurs été développées pour tenter de résoudre des problèmes physiques (par exemple les équations non linéaires).

Cependant, comme vous le dites, ce qui importe en physique, ce n'est pas des mathématiques impeccables : c'est leur interprétation. C'est comme cela que l'on élimine des solutions mathématiquement correctes mais qui ne correspondent à rien dans la réalité. Les modèles ne sont en effet que le résultat de l'application d'un formalisme à des phénomènes observés ou constatés par l'expérience.

Pour en revenir à mon article, effectivement il faut interpréter. Mais l'interprétation ne doit pour moi pas aller trop loin (et surtout, ne pas oublier la complexité d'un concept, même lorsqu'on l'interprète). Et je maintiens que dans le genre "naïf" et "issu du réel", les énergies et l'entropie, ce n'est pas ce que la physique a fait de mieux !

Écrit par : Charles | 27 janvier 2010

Pour continuer sur les généralisations du concept d'entropie à d'autres domaines comme le dit Gaël Deest, il s'avère que l'entropie s'applique à tout (ou presque) sur notre chère bonne terre. D'ailleurs, le fait que le temps passe (et qu'on ne puisse pas revenir en arrière) est liée au caractère entropique du monde.
Il existe un autre domaine où l'entropie a une place prépondérante: l'économie. Le caractère mécanique (et non entropique) des règles qui régissent l'économie explique la pollution, l'exploitation des ressources naturelles et le désastre écologique dans lequel nous sommes... L'entropie explique qu'une croissance infinie dans un monde fini n'a aucun sens physiquement (d'où les aberrations de la croissance verte). Mais aussi humainement d'ailleurs...

Pour ceux que ça intéresse d'aller plus loin: http://www.descroissants.org/blog/index.php?post/2009/10/27/Entre-opie-et-utopie%3A-Pourquoi-la-d%C3%A9croissance-est-in%C3%A9vitable

Bien cordialement,
Damien

Écrit par : Damien Coppéré | 10 février 2010

Merci. En fait ça fait un moment que je n'écris plus rien... mais au moins quand on tape mon nom sur Google on tombe sur autre chose que des photos de moi en soirée :D

Sinon, si vous connaissez un journal/magazine qui cherche quelqu'un comme moi pour écrire des chroniques, je suis partant !

Écrit par : Charles | 13 avril 2010

Les commentaires sont fermés.

 
Toute l'info avec 20minutes.fr, l'actualité en temps réel Toute l'info avec 20minutes.fr : l'actualité en temps réel | tout le sport : analyses, résultats et matchs en direct
high-tech | arts & stars : toute l'actu people | l'actu en images | La une des lecteurs : votre blog fait l'actu