fr en es pt
astronomie
 
Contacter l'auteur rss astronoo
 
 

Définition de l'entropie

Qu'est-ce que l'entropie ?

   Mise à jour 01 juin 2013

L'entropie est liée aux notions d'ordre et de désordre microscopique et plus précisément à la transition d'un état désordonné vers un état encore plus désordonné. Un état est d'autant plus désordonné qu'il peut prendre un plus grand nombre d'états microscopiques différents. L'entropie est donc une grandeur thermodynamique augmentant avec le nombre d'états microscopiques d'un système. La dégradation, l'incertitude, le désordre font partie du concept d'entropie. En d'autres termes, avec le temps tout système doit se dérégler, les choses ordonnées se désorganisent globalement. L'entropie, du grec 'retour en arrière', est une fonction thermodynamique. En thermodynamique, l'entropie est une fonction d'état (pression, température, volume, quantité de matière...), introduite au milieu du XIXe siècle par Rudolf Julius Emmanuel Clausius (1822-1888) dans le cadre du second principe, d'après les travaux de Nicolas Léonard Sadi Carnot. Clausius introduisit cette grandeur afin de caractériser mathématiquement l'irréversibilité de processus physiques tels qu'une transformation de travail en chaleur. Il a montré que le rapport Q/T (où Q est la quantité de chaleur échangée par un système à la température T) correspond, en thermodynamique classique, à la variation d'une fonction d’état qu'il a appelée en 1965 'entropie' (S) et dont l'unité est le joule par kelvin (J/K). L'unité d’entropie, le Joule par Kelvin correspond à la quantité d’entropie gagnée par un système qui reçoit 1 Joule de chaleur par Kelvin.

 

Projetée dans une turbine, l'eau d'un barrage transforme son énergie gravitationnelle en énergie électrique, plus tard, on en fera un mouvement dans un moteur électrique ou de la chaleur dans un radiateur. Tout au long de ces transformations, l'énergie se dégrade, en d'autres termes, son entropie augmente. Une tasse qui se casse ne revient jamais en arrière, un organisme qui meurt ne revivra plus. Ce qui veut dire que la dégradation augmente. L'entropie totale d'un système doit toujours augmenter, son désordre doit toujours croitre, c’est cela le deuxième principe de la thermodynamique.
A l'origine, l'entropie désigne le phénomène de l'échange thermique qui égalise les températures ou la dissipation de l'énergie en chaleur, mais c’est une loi bien plus générale et qui n'est pas si facile à interpréter.
Il est même difficile de comprendre le concept énergie, cette grandeur qui pour un système isolé, a la propriété de se conserver jusqu'à la nuit des temps. L'énergie (mécanique, thermique, chimique, électromagnétique) se conserve , elle ne peut être ni créé, ni détruite mais elle se transforme.
Antoine Lavoisier (1743-1794), l'a dit "rien ne se perd, rien ne se crée, tout se transforme".
Autrement surprenant est le concept d'entropie. Pour le même système, l'entropie ne peut rester constante, elle ne fera que croitre indéfiniment.

 entropie exemple fichier

Image : Les fichiers d'un disque dur sont aussi une manifestation de l'entropie, ils ne retrouveront jamais l'ordre du départ. Entropie, incertitude, désordre, dégradation font partie du même concept.

Entropie ou désordre

    

La thermodynamique statistique a ensuite fourni une nouvelle orientation à cette grandeur physique abstraite. L'entropie va mesurer le degré de désordre d'un système au niveau microscopique. Plus l'entropie du système est élevée, moins ses éléments sont ordonnés, liés entre eux, capables de produire des effets mécaniques, et plus grande est la part de l'énergie inutilisée ou utilisée de façon incohérente.
Ludwig Eduard Boltzmann (1844 − 1906) a formulé une expression mathématique de l'entropie statistique en fonction du nombre d’états microscopiques Ω définissant l’état d'équilibre d'un système donné au niveau macroscopique.
La formule de Boltzmann est S = k Ln Ω.
En réalité la formule S= k log W est de Max Planck (1858 − 1957) mais c'est Boltzmann qui l'a comprise.
Il est courant de dire que l'entropie est une mesure du désordre.
En effet, considérons par exemple un jeu de 52 cartes et posons-les toutes du même côté, disons qu'elles sont dans un ordre parfait. Cet état macroscopique ne peut être réalisé que d'une seule façon, alors Ω = 1. Retournons une carte, ce qui est le début du désordre; mais il y a Ω = 52 façons de réaliser l'état macroscopique "une seule carte retournée". Le désordre est maximum quand 26 cartes sont d'un côté et 26 cartes de l'autre. Le nombre de configurations microscopiques de cet état de désordre maximum est alors Ω = 4,96.1014.

 

Dans cet exemple le nombre de configurations microscopiques (donc l'entropie) est bien une mesure du désordre. Si cette notion de désordre est souvent subjective, le nombre Ω de configurations est lui, objectif puisque c’est un nombre.
Reprenons le jeu de 52 cartes et supposons qu'on les jette en l'air de telle sorte que chaque carte retombe d'un côté ou de l'autre avec la même probabilité. Si l'on recommence l'opération un grand nombre de fois les valeurs numériques précédentes montrent que le désordre maximum apparaitra beaucoup plus souvent que toutes les configurations ordonnées. Réfléchissons maintenant sur une mole de gaz parfait dans les conditions normales de température et de pression.
Le nombre de particules est énorme NA = 6,022 1023. La possibilité de trouver toutes les molécules du même coté du récipient de manière à laisser la moitié du volume vide, est faible par rapport aux possibilités immensément plus grandes pour lesquelles les molécules sont uniformément réparties dans tout le volume. La répartition uniforme est donc réalisée beaucoup plus souvent que toute autre situation, au point qu'elle apparait macroscopiquement comme un équilibre stationnaire. Ainsi l'équilibre d'un système thermodynamique se produit quand son entropie a la valeur maximale, compatible avec les contraintes auxquelles il est soumis (ici le volume).

 entropie

Image : La possibilité de trouver toutes les molécules du même coté du récipient de manière à laisser la moitié du volume vide, est faible par rapport aux possibilités immensément plus grandes pour lesquelles les molécules sont uniformément réparties dans tout le volume. Ainsi l'équilibre d'un système thermodynamique se produit quand son entropie a la valeur maximale. L'entropie est définie par la formule de Boltzmann, S = k log W.

Exemples d'entropie

    

Les deux expressions de l'entropie résultent simplement de deux points de vue différents, selon que l'on considère le système thermodynamique au niveau macroscopique ou au niveau microscopique. La difficulté à donner une définition intuitive de l’entropie d’un système vient du fait qu’elle ne se conserve pas. Elle peut augmenter spontanément lors d’une transformation irréversible. Les transformations réelles (ou transformations naturelles) sont irréversibles à cause de phénomènes dissipatifs. Le système ne peut jamais spontanément revenir en arrière. En effet, selon le second principe de la thermodynamique, l’entropie d’un système isolé ne peut pas diminuer, elle augmente ou elle reste constante si la transformation est réversible. La matière est formée de particules (molécules, atomes, électrons...) en perpétuel mouvement (agitation thermique) exerçant les unes sur les autres une interaction dont l'intensité décroit lorsque leur distance mutuelle augmente. Dans un gaz cette distance est relativement grande, les interactions sont donc faibles, de sorte que les particules sont libres de se déplacer dans tout le volume qui leur est offert, mais subissent de nombreuses collisions au cours desquelles leur énergie varie.

 

Dans un liquide les distances mutuelles sont plus petites et les molécules sont moins libres. Dans un solide chaque molécule est liée élastiquement à ses voisines et vibre autour d'une position moyenne fixe. L'énergie de chaque particule est aléatoire.
Exemples :
- Les frottements étant la principale cause d’irréversibilité de l'entropie, on comprend pourquoi on essaye de les minimiser. C’est le but de la lubrification des pièces en contact et en mouvement dans un ensemble mécanique.
- Avec la même quantité d’essence on va récupérer moins de travail mécanique en fonction de la vitesse de la voiture, plus la voiture va vite et moins la distance parcourue est grande. La vitesse est là, un facteur d’irréversibilité.
- Une pile électrique fournit plus de travail électrique si son fonctionnement se rapproche de la réversibilité, c’est à dire si elle a une faible tension et un faible courant de fonctionnement. En revanche si on court-circuite les électrodes, on ne récupère pratiquement rien, que de la chaleur.

 entropie trou noir galactique

Image : Au centre de notre galaxie, connue sous le nom de Zone Moléculaire Centrale, il y a un trou noir.  Dans un trou noir l'entropie est maximale. crédit image: A. Ginsburg et al., équipe BGPS, équipe GLIMPSE II.


1997 © Astronoo.com − Astronomie, Astrophysique, Évolution et Écologie.
"Les données disponibles sur ce site peuvent être utilisées à condition que la source soit dûment mentionnée."