ENTROPIA
Entropia este, în general, o măsură a „dezordinii”. Nu este chiar o definiție bună în sine, dar așa este definită în general. O definiție mai concretă ar fi:
#color(albastru)(DeltaS = int1/T delq_”rev”)#
unde:
- #q_”rev „# este valoarea reversibilă (i.e. cel mai eficient) flux de căldură
- #T# este temperatura
- #S# este entropia
The #del# implică faptul că fluxul de căldură nu este o funcție de stare (independentă de traiectorie), ci o funcție dependentă de traiectorie(-dependentă). Entropia, însă, este o funcție independentă de traseu.
TEORIA HAOSULUI
Teoria haosului afirmă, în esență, că un sistem în care nu intervine hazardul în generarea stărilor viitoare ale sistemului poate fi totuși imprevizibil. Nu trebuie să intrăm în definiția a ceea ce face un sistem haotic, deoarece acest lucru este mult în afara scopului întrebării.
Un exemplu de sistem haotic este atunci când lucrezi cu numere în programarea calculatoarelor care sunt aproape de precizia mașinii (doar la limita prea mică, practic); acestea vor fi extrem de dificil de păstrat complet neschimbate, chiar dacă încerci doar să tipărești un anumit număr mic (să zicem, aproape de #10^(-16)# pe un Linux pe 64 de biți).
Așa că, dacă încercați să imprimați #5.2385947493857347xx10^(-16)# de mai multe ori, ați putea obține:
- #2.7634757416249547xx10^(-16)#
- #9.6239678259758971xx10^(-16)#
- #7.2345079403769486xx10^(-16)#
…etc. Asta face ca acest sistem haotic să fie imprevizibil; vă așteptați la #5.2385947493857347xx10^(-16)#, dar probabil că nu veți obține acest lucru nici într-un milion de încercări.
TEORIA HAOS VS. ENTROPIA
În esență, principiile de bază ale teoriei haosului care se referă la entropie este ideea că sistemul înclină spre „dezordine”, adică ceva care este imprevizibil. (NU este a doua lege a termodinamicii.)
Aceasta implică faptul că universul este un sistem haotic.
Dacă aruncați o grămadă de bile neaderente pe pământ, nu puteți garanta că vor rămâne împreună ȘI că vor cădea de fiecare dată exact în același loc, ȘI că vor rămâne la locul lor după ce cad. Din punct de vedere entropic este favorabil ca ele să se separe unele de altele și să se împrăștie la impactul cu solul.
Acest lucru înseamnă că nu puteți prezice exact cum vor cădea.
Chiar dacă le-ați face să se lipească una de cealaltă, sistemul bilelor a scăzut în entropie prin simplul fapt că au căzut și au devenit un sistem separat de sistemul uman, iar sistemul uman a scăzut în entropie atunci când bilele au plecat din mâinile sale.
Mai puține microstații disponibile pentru sistem = entropie mai mică pentru sistem.
În plus, universul a crescut acum în entropie deoarece numărul sistemelor luate în considerare s-a dublat (tu + bile). Întotdeauna se ia în calcul într-un fel, cumva.
Atunci, CUM POATE ENTROPIA SĂ FIE O FUNCȚIE DE STARE, DACĂ URMEAZĂ TEORIA HAOSULUI?
A fost demonstrat anterior că entropia este o funcție de stare.
Acest lucru înseamnă că putem determina starea inițială și finală fără să ne preocupăm de calea folosită pentru a ajunge acolo. Acest lucru este reconfortant deoarece, într-un sistem haotic, nu putem prezice neapărat starea finală.
Dar dacă știm deja starea finală la care vrem să ajungem (adică o alegem noi înșine), proprietatea funcției de stare a entropiei ne permite să presupunem că orice cale am folosit nu contează atâta timp cât generează exact starea finală pe care o dorim.
Cunoscând starea finală dinainte depășește principiile de bază ale teoriei haosului.
.