Get Adobe Flash player
             
RECHERCHER
INSCRIPTIONS
Accès aux newsletters

L'entropie

L'entropie est un terme que nous rencontrerons souvent dans nos études ou celles de collègues, qui paraît relativement simple en raison de la signification générale qui lui est souvent conférée mais qui s'avère plus complexe en raison des différences d'interprétations qui la caractérise en fonction du domaine d'utilisation.

En général, lorsque l'on parle d'entropie on veut désigner le désordre.  En effet, le dictionnaire nous renseigne que Clausius a donné ce nom à la fonction d'état S qui caractérise le désordre d'un système.  Mais, par exemple, dans la théorie de la communication, on fait déjà une distinction à propos de l'entropie pour désigner le degré d'incertitude dans la transmission d'un message.  S'il n'existe aucune incertitude, l'entropie est alors nulle.

Si d'habitude il est possible de déterminer la valeur d'interprétation correcte de l'entropie grâce au contexte, il convient dans le cas contraire de déterminer au préalable le domaine dans lequel on évolue afin d'éliminer les traductions éventuellement erronées.

Pour citer quelques exemples de traductions possibles, nous dirons que dans la vision de Rudolph Clausius il signifie le degré de désorganisation d'un système ou son degré de manque d'information.  En théorie de l'information, cette dernière définition reste également valable comme on pouvait s'en douter mais on pourra distinguer l'entropie de Shannon (exprimée sous une autre forme en thermodynamique par Ludwig Boltzmann, l'entropie de Rényi ou encore l'entropie conditionnelle.  En thermodynamique l'entropie sera relative à une grandeur associée à un système de particules tandis qu'en astrophysique il sera question d'entropie des trous noirs.  En mathématiques, il y aura deux possibilités en fonction du système envisagé : l'entropie topologique dans le cas d'un système dynamique topologique compact ou elle désignera une quantité réelle qui lui sera associée, et l'entropie métrique dans un système dynamique mesuré (également quantité réelle associée).  Pour la petite histoire, disons encore que l'entropie est aussi utilisée en écologie comme mesure de la biodiversité via l'indice de Shannon.

Dans nos études, le sens généralement utilisé sera celui du désordre, de la désorganisation ou du manque d'information.  Mais l'information devra elle-même également être redéfinie ou précisée afin d'éviter confusions et malentendus.

L'entropie s'oppose par quasi-antonymie à la néguentropie qui concerne l'ordre, l'organisation (par exemple chez les êtres vivants par leur tendance à s'opposer au chaos qui régit les systèmes physiques), mais elle peut connaître des variantes comme par exemple la dysentropie dans un système dynamique, où une néguentropie partielle conduit à une auto-organisation par percolation.  (auto-organisation de niveau supérieur).