ENTROPY
Entropie ist im Allgemeinen ein Maß für „Unordnung“. Das ist an sich keine gute Definition, aber so wird sie im Allgemeinen definiert. Eine konkretere Definition wäre:
#Farbe(blau)(DeltaS = int1/T delq_“rev“)#
wobei:
- #q_“rev „# der reversible (d.h. effizienteste) Wärmestrom
- #T# ist die Temperatur
- #S# ist die Entropie
Das #del# impliziert, dass der Wärmestrom keine Zustandsfunktion (pfadunabhängig), sondern eine pfad(-abhängige) Funktion ist. Die Entropie hingegen ist eine pfadunabhängige Funktion.
CHAOS-THEORIE
Die Chaostheorie besagt im Grunde, dass ein System, in dem keine Zufälligkeit an der Erzeugung zukünftiger Zustände beteiligt ist, dennoch unvorhersehbar sein kann. Wir brauchen uns nicht mit der Definition eines chaotischen Systems zu befassen, denn das würde den Rahmen dieser Frage sprengen.
Ein Beispiel für ein chaotisches System ist die Arbeit mit Zahlen in der Computerprogrammierung, die nahe an der Maschinenpräzision liegen (im Grunde nur grenzwertig zu klein); es wird extrem schwierig sein, sie völlig unverändert zu halten, selbst wenn man nur versucht, eine bestimmte kleine Zahl auszudrucken (z. B. nahe an #10^(-16)# auf einem 64-Bit-Linux).
Wenn Sie also versuchen, #5.2385947493857347xx10^(-16)# mehrmals auszudrucken, könnten Sie Folgendes erhalten:
- #2.7634757416249547xx10^(-16)#
- #9.6239678259758971xx10^(-16)#
- #7.2345079403769486xx10^(-16)#
…etc. Das macht dieses chaotische System unvorhersehbar; man erwartet #5.2385947493857347xx10^(-16)#, aber das wird man wahrscheinlich nicht in einer Million Versuchen bekommen.
CHAOS THEORIE VS. ENTROPY
Der Grundgedanke der Chaostheorie, der sich auf die Entropie bezieht, ist die Vorstellung, dass das System zur „Unordnung“ neigt, d.h. zu etwas, das unvorhersehbar ist. (Es ist NICHT der zweite Hauptsatz der Thermodynamik.)
Das bedeutet, dass das Universum ein chaotisches System ist.
Wenn man ein paar nicht-klebrige Bälle auf den Boden fallen lässt, kann man nicht garantieren, dass sie zusammenbleiben UND jedes Mal genau auf die gleiche Stelle fallen UND nach dem Fallen an ihrem Platz bleiben. Es ist entropisch günstig, dass sie sich beim Auftreffen auf den Boden voneinander trennen und verstreuen.
Das heißt, man kann nicht genau vorhersagen, wie sie fallen werden.
Selbst wenn man sie aneinander kleben lässt, hat das System der Bälle an Entropie abgenommen, einfach dadurch, dass sie fallen und ein vom menschlichen System getrenntes System werden, und das menschliche System hat an Entropie abgenommen, als die Bälle seine Hände verließen.
Weniger Mikrozustände, die dem System zur Verfügung stehen, bedeuten eine geringere Entropie für das System.
Außerdem hat die Entropie des Universums jetzt zugenommen, weil sich die Anzahl der betrachteten Systeme verdoppelt hat (du + Bälle). Sie wird immer irgendwie berücksichtigt.
WIE KANN also die Entropie eine Zustandsfunktion sein, wenn sie der Chaostheorie folgt?
Es wurde bereits bewiesen, dass die Entropie eine Zustandsfunktion ist.
Das heißt, wir können den Anfangs- und Endzustand bestimmen, ohne uns Gedanken über den Weg dorthin zu machen. Das ist beruhigend, denn in einem chaotischen System können wir den Endzustand nicht unbedingt vorhersagen.
Wenn wir aber den Endzustand, den wir erreichen wollen, bereits kennen (d. h. selbst wählen), können wir aufgrund der Zustandsfunktionseigenschaft der Entropie davon ausgehen, dass der von uns gewählte Weg keine Rolle spielt, solange er genau den gewünschten Endzustand erzeugt.
Die Kenntnis des Endzustands im Voraus überwindet die Grundprinzipien der Chaostheorie.