ENTROPY
L’entropie est en général une mesure du « désordre ». Ce n’est pas exactement une bonne définition en soi, mais c’est ainsi qu’on la définit généralement. Une définition plus concrète serait:
#color(blue)(DeltaS = int1/T delq_ »rev »)#
où:
- #q_ »rev « # est le flux de chaleur réversible (c’est à dire. le plus efficace) du flux thermique
- #T# est la température
- #S# est l’entropie
Le #del# implique que le flux thermique n’est pas une fonction d’état (indépendante du chemin), mais une fonction (-dépendante) du chemin. L’entropie, cependant, est une fonction indépendante du chemin.
Théorie du Chaos
La théorie du Chaos stipule essentiellement qu’un système où aucun aléa n’est impliqué dans la génération des états futurs du système peut encore être imprévisible. Nous n’avons pas besoin d’entrer dans la définition de ce qui fait un système chaotique, parce que c’est bien en dehors du champ de la question.
Un exemple de système chaotique est lorsque vous travaillez avec des nombres en programmation informatique qui sont proches de la précision de la machine (juste à la limite trop petit, fondamentalement) ; ils seront extrêmement difficiles à garder entièrement inchangés, même si vous essayez juste d’imprimer un petit nombre spécifique (disons, proche de #10^(-16)# sur un Linux 64 bits).
Si vous essayez d’imprimer #5.2385947493857347xx10^(-16)# plusieurs fois, vous pourriez obtenir :
- #2.7634757416249547xx10^(-16)#
- #9.6239678259758971xx10^(-16)#
- #7.2345079403769486xx10^(-16)#
…etc. Cela rend ce système chaotique imprévisible ; vous vous attendez à #5,2385947493857347xx10^(-16)#, mais vous ne l’obtiendrez probablement pas en un million d’essais.
Théorie du chao VS. ENTROPY
Essentiellement, les principes de base de la théorie du chaos qui se rapportent à l’entropie est l’idée que le système penche vers le « désordre », c’est-à-dire quelque chose qui est imprévisible. (Ce n’est PAS la deuxième loi de la thermodynamique.)
Cela implique que l’univers est un système chaotique.
Si vous laissez tomber un tas de balles non collantes sur le sol, vous ne pouvez pas garantir qu’elles resteront ensemble ET tomberont sur le même endroit exact à chaque fois, ET resteront en place après être tombées. Il est entropiquement favorable qu’elles se séparent les unes des autres et se dispersent en frappant le sol.
C’est-à-dire que vous ne pouvez pas prédire exactement comment elles vont tomber.
Même si vous les faites coller les unes aux autres, le système des balles a diminué en entropie simplement en tombant et en devenant un système séparé du système humain, et le système humain a diminué en entropie lorsque les balles ont quitté ses mains.
Moins de micro-états disponibles pour le système = plus petite entropie pour le système.
En outre, l’univers a maintenant augmenté en entropie parce que le nombre de systèmes considérés a doublé (vous + les balles). On en tient toujours compte d’une manière ou d’une autre.
Alors comment l’entropie peut-elle être une fonction d’état, si elle suit la théorie du chaos ?
Il a déjà été prouvé que l’entropie est une fonction d’état.
C’est-à-dire que nous pouvons déterminer l’état initial et l’état final sans nous soucier du chemin utilisé pour y arriver. Ceci est réconfortant car dans un système chaotique, nous ne pouvons pas nécessairement prédire l’état final.
Mais si nous connaissons déjà l’état final auquel nous voulons arriver (c’est-à-dire que nous le choisissons nous-mêmes), la propriété de fonction d’état de l’entropie nous permet de supposer que le chemin utilisé, quel qu’il soit, n’a pas d’importance tant qu’il génère l’état final exact que nous voulons.
Connaître l’état final à l’avance permet de surmonter les principes de base de la théorie du chaos.