ENTROPÍA
La entropía es en general una medida de «desorden». No es exactamente una buena definición en sí, pero así es como se define generalmente. Una definición más concreta sería:
#color(azul)(DeltaS = int1/T delq_»rev»)#
donde:
- #q_»rev «# es el flujo de calor reversible (es decir. más eficiente) del flujo de calor
- #T# es la temperatura
- #S# es la entropía
El #del# implica que el flujo de calor no es una función de estado (independiente del camino), sino una función (dependiente del camino). La entropía, sin embargo, es una función independiente de la trayectoria.
TEORÍA DEL CAOS
La teoría del caos establece básicamente que un sistema en el que no interviene el azar en la generación de estados futuros en el sistema puede seguir siendo impredecible. No necesitamos entrar en la definición de lo que hace un sistema caótico, porque eso está fuera del alcance de la pregunta.
Un ejemplo de un sistema caótico es cuando se trabaja con números en la programación de computadoras que están cerca de la precisión de la máquina (sólo el límite demasiado pequeño, básicamente); serán extremadamente difíciles de mantener completamente sin cambios, incluso si sólo está tratando de imprimir un número pequeño específico (digamos, cerca de #10^(-16)# en un Linux de 64 bits).
Así que si intenta imprimir #5.23859493857347xx10^(-16)# varias veces, podría obtener:
- #2.7634757416249547xx10^(-16)#
- #9.6239678259758971xx10^(-16)#
- #7.2345079403769486xx10^(-16)#
…etc. Eso hace que este sistema caótico sea impredecible; se espera #5,23859473857347xx10^(-16)#, pero probablemente no se consiga ni en un millón de intentos.
TEORÍA DEL CAOS VS. ENTROPÍA
Esencialmente, los principios básicos de la teoría del caos que se relacionan con la entropía es la idea de que el sistema se inclina hacia el «desorden», es decir, algo que es impredecible. (NO es la segunda ley de la termodinámica.)
Esto implica que el universo es un sistema caótico.
Si dejas caer un montón de pelotas no pegajosas al suelo, no puedes garantizar que se mantengan juntas Y que caigan en el mismo lugar exacto cada vez, Y que permanezcan en su sitio después de caer. Es entropicamente favorable que se separen unas de otras y se dispersen al caer al suelo.
Es decir, no se puede predecir exactamente cómo van a caer.
Incluso si se hace que se peguen entre sí, el sistema de las bolas disminuyó en entropía simplemente por caer y convertirse en un sistema separado del sistema humano, y el sistema humano ha disminuido en entropía cuando las bolas salieron de sus manos.
Menos microestados disponibles para el sistema = menor entropía para el sistema.
Además, el universo ha aumentado ahora en entropía porque el número de sistemas considerados se ha duplicado (tú + pelotas). Siempre se contabiliza de alguna manera, de algún modo.
¿Entonces cómo puede ser la entropía una función de estado, si sigue la teoría del caos?
Ya se ha demostrado que la entropía es una función de estado.
Es decir, podemos determinar el estado inicial y final sin preocuparnos del camino utilizado para llegar a él. Esto es reconfortante porque en un sistema caótico no podemos predecir necesariamente el estado final.
Pero si ya conocemos el estado final al que queremos llegar (es decir, lo elegimos nosotros), la propiedad de la función de estado de la entropía nos permite suponer que cualquier camino que hayamos utilizado no importa mientras genere el estado final exacto que queremos.
Conocer el estado final de antemano supera los principios básicos de la teoría del caos.