ENTROPY
Entropia jest ogólnie miarą „nieuporządkowania”. Nie jest to dobra definicja per se, ale tak się ją ogólnie określa. Bardziej konkretną definicją byłoby:
#color(blue)(DeltaS = int1/T delq_”rev”)#
gdzie:
- #q_”rev „# jest odwracalnym (tj. najbardziej efektywnym) przepływem ciepła
- #T# to temperatura
- #S# to entropia
Ten #del# implikuje, że przepływ ciepła nie jest funkcją stanu (niezależną od ścieżki), ale funkcją zależną od ścieżki (-zależną). Entropia natomiast jest funkcją niezależną od ścieżki.
TEORIA CHAOSU
Teoria chaosu zasadniczo stwierdza, że system, w którym nie ma przypadkowości w generowaniu przyszłych stanów w systemie, nadal może być nieprzewidywalny. Nie musimy zagłębiać się w definicję tego, co czyni system chaotycznym, ponieważ jest to poza zakresem pytania.
Przykładem systemu chaotycznego jest praca z liczbami w programowaniu komputerowym, które są bliskie precyzji maszynowej (po prostu granica zbyt mała, w zasadzie); będą one niezwykle trudne do utrzymania całkowicie niezmienione, nawet jeśli po prostu próbujesz wydrukować konkretną małą liczbę (powiedzmy, blisko #10^(-16)# na 64-bitowym Linuksie).
Jeśli więc spróbujesz wydrukować #5.2385947493857347xx10^(-16)# wiele razy, możesz otrzymać:
- #2.7634757416249547xx10^(-16)#
- #9.6239678259758971xx10^(-16)#
- #7.2345079403769486xx10^(-16)#
…etc. To czyni ten chaotyczny system nieprzewidywalnym; oczekujesz #5.2385947493857347xx10^(-16)#, ale prawdopodobnie nie dostaniesz tego w milionie prób.
CHAOS THEORY VS. ENTROPY
Podsumowując, podstawowe założenia teorii chaosu, które odnoszą się do entropii, to idea, że system skłania się ku „nieporządkowi”, czyli czemuś, co jest nieprzewidywalne. (To NIE jest drugie prawo termodynamiki.)
To implikuje, że wszechświat jest chaotycznym systemem.
Jeśli upuścisz garść nielepkich kulek na ziemię, nie możesz zagwarantować, że pozostaną razem i spadną na to samo dokładne miejsce za każdym razem, i pozostaną na miejscu po upadku. Jest to entropicznie korzystne dla nich, aby oddzielić się od siebie i rozproszyć po uderzeniu w ziemię.
To znaczy, że nie można przewidzieć dokładnie, jak spadną.
Nawet jeśli sprawisz, że będą się do siebie kleić, system piłek zmniejszył entropię po prostu od upadku i stania się systemem oddzielonym od systemu człowieka, a system człowieka zmniejszył entropię, gdy piłki opuściły jego ręce.
Mniej mikrostanów dostępnych dla systemu = mniejsza entropia dla systemu.
Dodatkowo, wszechświat ma teraz zwiększoną entropię, ponieważ liczba rozważanych systemów podwoiła się (ty + piłki). Zawsze jest to uwzględniane w jakiś sposób, jakoś.
Więc JAK ENTROPIA MOŻE BYĆ FUNKCJĄ STANU, JEŚLI JEST ZGODNA Z TEORIĄ CHAOSU?
Już wcześniej udowodniono, że entropia jest funkcją stanu.
To znaczy, że możemy określić stan początkowy i końcowy bez martwienia się o ścieżkę użytą do dotarcia tam. Jest to pocieszające, ponieważ w systemie chaotycznym, niekoniecznie możemy przewidzieć stan końcowy.
Ale jeśli już znamy stan końcowy, do którego chcemy się dostać (czyli sami go wybieramy), własność funkcji stanu entropii pozwala nam założyć, że jakakolwiek ścieżka, której użyliśmy, nie ma znaczenia, dopóki generuje dokładnie taki stan końcowy, jaki chcemy.
znając stan końcowy z wyprzedzeniem, pokonujemy podstawowe założenia teorii chaosu.