Segundo principio de la termodinámica

SEGUNDO PRINCIPIO DE LA TERMODINAMICA

La segunda ley de la termodinámica da una definición precisa de una propiedad llamada entropía. La entropía puede considerarse como una medida de lo próximo o no que se halla un sistema al equilibrio; también puede considerarse como una medida del desorden (espacial y térmico) del sistema. La segunda ley afirma que la entropía, o sea, el desorden, de un sistema aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuración de máxima entropía, ya no puede experimentar cambios: ha alcanzado el equilibrio. La naturaleza parece pues "preferir" el desorden y el caos. Puede demostrarse que el segundo principio implica que, si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta.

Entropía: Es una función del estado del sistema, ya que tiene un valor único para cada estado,independiente de cómo el sistema llego a dicho estado.

ΔS = ΔQ/T

La entropía es una propiedad intrínseca del S T D relacionada fundamentalmente con parámetros mensurables que la caracterizan.

dS = dQ/T

dS: entropía del S T D.

dQ: intercambio de energía térmica entre el medio y el S T D.

T: temperatura a la que se registra el intercambio de energía térmica entre el medio y el S T D.

La expresión permite el cálculo de variaciones pero no el conocimiento de valores absolutos.

La variación entrópica en cualquier S T D y su ambiente considerado conjuntamente es positiva, tendiendo a cero en los procesos reversibles.

ΔS Total Δ0 (proceso irreversible)

ΔS = 0 (proceso reversible)

Entropía como probabilidad:

Es menos probable que las 5 moléculas se encuentren en el lugar de origen a que se encuentren desparramadas luego de quitar el separador. La mayor cantidad del tiempo se hallarán desparramadas, por lo cual el estado 2 será de mayor entropía que el 1.

Entropía como probabilidad

El estado de equilibrio de un sistema aislado, es el de mayor desorden ya que es el más probable.

El aumento de entropía corresponde a un incremento del desorden molecular.

El segundo principio impone una condición adicional a los procesos termodinámicos. No basta con que se conserve la energía y cumplan así el primer principio. Una máquina que realizara trabajo violando el segundo principio se denomina "móvil perpetuo de segunda especie", ya que podría obtener energía continuamente de un entorno frío para realizar trabajo en un entorno caliente sin coste alguno.

1° ley: S T D y entorno ΔE S T D + ΔE Ambiente = 0

1° ley: S T D ΔE S T D = 0

2° ley: S T D y entorno ΔS S T D + ΔS Ambiente Δ0

2° ley: S T D ΔS S T D = 0

Cuando ΔS S T D = 0, el sistema está en equilibrio y no hay transformaciones entre los distintos tipos de energía.

Cuando ΔS S T D> 0, es un proceso desequilibrado y tendiendo hacia el equilibrio, siempre con
ΔE S T D = 0
.

http://www.fisicanet.com.ar

Autor: Anselmo Robles Bentham

 

Es una de las leyes más importantes de la física; aún pudiéndose formular de muchas maneras todas llevan a la explicación del concepto de irreversibilidad y al de entropía. Este último concepto, cuando es tratado por otras ramas de la física, sobre todo por la mecánica estadística y la teoría de la información, queda ligado al grado de desorden de la materia y la energía de un sistema. La termodinámica, por su parte, no ofrece una explicación física de la entropía, que queda asociada a la cantidad de energía no utilizable de un sistema. Sin embargo, esta interpretación meramente fenomenológica de la entropía es totalmente consistente con sus interpretaciones estadísticas. Así, tendrá más entropía el agua en estado gaseoso con sus moleculas dispersas y alejadas unas de las otras que la misma en estado líquido con sus moléculas más juntas y más ordenadas.

El segundo principio de la termodinámica dictamina que si bien la materia y la energía no se pueden crear ni destruir, sí que se transforman, y establece el sentido en el que se produce dicha transformación. Sin embargo, el punto capital del segundo principio es que, como ocurre con toda la teoría termodinámica, se refiere única y exclusivamente a estados de equilibrio.

Toda definición, corolario o concepto que de él se extraiga sólo podrá aplicarse a estados de equilibrio, por lo que, formalmente, parámetros tales como la temperatura o la propia entropía quedarán definidos únicamente para estados de equilibrio. Así, según el segundo principio, cuando se tiene un sistema que pasa de un estado de equilibrio A a otro B, la cantidad de entropía en el estado de equilibrio B será la máxima posible, e inevitablemente mayor a la del estado de equilibrio A. Evidentemente, el sistema sólo hará trabajo cuando esté en el tránsito del estado de equilibrio A al B y no cuando se encuentre en uno de estos estados. Sin embargo, si el sistema era cerrado, su energía y cantidad de materia no han podido variar; si la entropía debe de maximizarse en cada transición de un estado de equilibrio a otro, y el desorden interno del sistema debe aumentar, se ve claramente un límite natural: cada vez costará más extraer la misma cantidad de trabajo, pues según la mecánica estadística el desorden equivalente debe aumentar exponencialmente.

Aplicado este concepto a un fenómeno de la naturaleza como por ejemplo la vida de las estrellas, las mismas, al convertir el hidrógeno, su combustible principal, en helio generan luz y calor. Al fusionar los núcleos de hidrógeno en su interior la estrella libera la energía suficiente para producirlos a esa intensidad; sin embargo, cuando intenta fusionar los núcleos de Helio no consigue liberar la misma cantidad de energía que obtenía cuando fusionaba los núcleos de hidrógeno. Cada vez que la estrella fusiona los núcleos de un elemento obtiene otro que le es más inútil para obtener energía y por ende la estrella muere, y en ese orden de ideas la materia que deja atrás ya no servirá para generar otra estrella. Es así como el segundo principio de la termodinámica se ha utilizado para explicar el fin del universo.

Definición axiomática

La definición formal del segundo principio de la termodinámica establece que:

En un estado de equilibrio, los valores que toman los parámetros característicos de un sistema termodinámico cerrado son tales que maximizan el valor de una cierta magnitud que está en función de dichos parámetros, llamada entropía.

La entropía de un sistema es una magnitud física abstracta que la mecánica estadística identifica con el grado de desorden molecular interno de un sistema físico. La termodinámica clásica, en cambio, la define como la relación entre el calor transmitido y la temperatura a la que se transmite. La termodinámica axiomática, en cambio, define a la entropía como una cierta función –a priori, de forma desconocida–, que depende de los llamados "parámetros característicos" del sistema, y que sólo puede definirse para los estados de equilibrio del sistema.

Dichos parámetros característicos se establecen a partir de un postulado derivado del primer principio de la termodinámica, llamado a veces el principio de estado. Según éste, el estado de equilibrio de un sistema queda totalmente definido por medio de la energía interna del sistema, su volumen y su composición molar. Cualquier otro parámetro termodinámico, como podrían serlo la temperatura o la presión, se define como una función de dichos parámetros. Así, la entropía será también una función de dichos parámetros.

El segundo principio de la termodinámica establece que dicha entropía sólo puede definirse para estados de equilibrio termodinámico, y que de entre todos los estados de equilibrio posibles –que vendrán definido por los parámetros característicos–, sólo se puede dar el que, de entre todos ellos, maximiza la entropía.

Las consecuencias de este enunciado son sutiles: al considerar un sistema cerrado tendente al equilibrio, los estados de equilibrio posibles incluyen todos aquellos que sean compatibles con los límites o contornos del sistema. Entre ellos se encuentra, evidentemente, el estado de equilibrio de partida. Si el sistema varía su estado de equilibrio desde el de partida a otro, ello es debido a que la entropía del nuevo estado es mayor que la del estado inicial; si el sistema cambia de estado de equilibrio, su entropía sólo puede aumentar. Por tanto, la entropía de un sistema aislado termodinámicamente sólo puede incrementarse. Suponiendo que el universo partió de un estado de equilibrio, que en todo instante de tiempo el universo no se aleja demasiado del equilibrio termodinámico y que el universo es un sistema aislado, el segundo principio de la termodinámica puede formularse de la siguiente manera;

La cantidad de entropía del universo tiende a incrementarse con el tiempo.
Sin embargo, la termodinámica axiomática no reconoce al tiempo como una variable termodinámica. Formalmente, la entropía sólo puede definirse para estados en equilibrio. En el proceso que va de un estado de equilibrio a otro no hay estados de equilibrio, por lo que la entropía en dichos estados de no-equilibrio no puede definirse sin incurrir en inconsistencias formales dentro de la propia termodinámica. Así, la entropía no puede ser una función del tiempo, por lo que hablar de variaciones de la misma en el tiempo es formalmente incorrecto.

Cuando se hace, es debido a que se ha presupuesto que en el proceso de un estado de equilibrio a otro se ha pasado por infinitos estados intermedios de equilibrio, procedimiento que permite introducir al tiempo como parámetro. En tanto en cuanto el estado de equilibrio final sea aquél de máxima entropía posible, no se habrá incurrido en una inconsistencia frontal por cuanto dichos estados de equilibrio intermedios no han afectado al único real (el final).

La formulación clásica defiende que el cambio en la entropía S es siempre mayor o igual — exclusivo para procesos reversibles — que la transferencia de calor Q producida dividido por la temperatura de equilibrio T del sistema

 

dS\geq\frac{\delta Q}{T} \!

Descripción general

 
El enunciado axiomático del segundo principio pone inmediatamente de manifiesto su principal característica: se trata de una de las pocas leyes ontológicas de la Física, en tanto que distingue, de manera general, aquellos procesos y estados físicos que son posible de aquellos que no lo son; esto es, el segundo principio permite determinar la posibilidad de un proceso o estado. De hecho, en un sentido histórico el segundo principio surgió, en plena Revolución Industrial en el contexto de las máquinas térmicas como una explicación empírica de por qué éstas se comportaban de una manera determinada y no de otra. En efecto, aunque parezca trivial, siempre se observaba, por ejemplo, que para calentar una caldera era necesario emplear combustible ardiendo a mayor temperatura que la de la caldera; sin embargo, jamás se observaba que la caldera se calentara tomando energía de su entorno, el cual a su vez se enfriaría. De hecho, podría razonarse que, en virtud del primer principio de la termodinámica, nada impide que, espontáneamente, sea posible extraer calor de un cuerpo frío, por ejemplo a 200K, para transmitírselo a otro caliente, por ejemplo a 1000K: basta con que se cumpla el balance energético correspondiente, a consecuencia del cual el cuerpo frío se enfriaría aún más, y el caliente se calentaría más aún. Sin embargo, todo esto es contrario a toda experiencia; y aunque parezca común y hasta trivial, tenía un extraordinario impacto en las máquinas empleadas en la Revolución Industrial: por ejemplo, de no haber sido así, las máquinas podrían funcionar sin necesitar combustible, pues la energía necesaria podría transferirse de manera espontánea del resto del ambiente. Sin embargo, las máquinas térmicas parecían obedecer una determinada ley, que se materializó en el segundo principio: para producir trabajo mecánico, era necesario aportar energía adicional (el combustible), que a su vez era siempre mayor que la cantidad de trabajo extraído. El concepto de máquina térmica aparece así íntimamente ligado al enunciado inicial del segundo principio.

Una máquina térmica es aquella que provee de trabajo eficaz gracias a la diferencia de temperaturas entre dos cuerpos. Dado que cualquier máquina termodinámica requiere una diferencia de temperatura, se deriva pues que ningún trabajo útil puede extraerse de un sistema aislado en equilibrio térmico, esto es, se requerirá de la alimentación de energía del exterior. Ese principio empírico, extraído de la observación continua de cómo funciona el universo, constituye uno de los primeros enunciados del Segundo Principio de la Termodinámica: es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta energía en forma de calor en energía en forma de trabajo.

Enunciados clásicos
La segunda ley de la termodinámica ha sido expresada de muchas maneras diferentes. Sucintamente, la termodinámica clásica la ha expresado así:

«Es imposible un proceso cuyo único resultado sea la transferencia de energía en forma de calor de un cuerpo de menor temperatura a otro de mayor temperatura».

Enunciado de Clausius.

«Es imposible todo proceso cíclico cuyo único resultado sea la absorción de energía en forma de calor procedente de un foco térmico (o reservorio o depósito térmico), y la conversión de toda ésta energía en forma de calor en energía en forma de trabajo».

Enunciado de Kelvin-Planck.

«Para todo sistema potencialmente cíclico es imposible una única transferencia de calor tal que dicho proceso sea recíproco y eventualmente reversible.».

Enunciado de John De Saint.

Algunos corolarios del principio, a veces empleados como enunciados alternativos, serían:

«Ningún proceso cíclico es tal que el sistema en el que ocurre y su entorno puedan volver a la vez al mismo estado del que partieron».
«En un sistema aislado, ningún proceso puede ocurrir si a él se asocia una disminución de la entropía total del sistema.»

Corolario del principio, debido a Clausius.
Visualmente, el segundo principio se puede expresar imaginando una caldera de un barco de vapor. Ésta no podría producir trabajo si no fuese porque el vapor se encuentra a temperaturas y presión elevadas comparados con el medio que la rodea.

 

Matemáticamente, se expresa así:

\frac{dS}{dt}\geq 0 \qquad \mbox{(1)}

donde S es la entropía y el símbolo de igualdad sólo existe cuando la entropía se encuentra en su valor máximo (en equilibrio).

Entropía en mecánica estadística

La Termodinámica no ofrece ninguna interpretación física de lo que es la entropía: simplemente la define como una función matemática que toma su máximo valor para cada estado de equilibrio. La habitual identificación de entropía con desorden molecular proviene de una muy simplificada interpretación de los resultados de la mecánica estadística; en concreto, del llamado formalismo microcanónico de la mecánica estadística. Es importante recalcar que la termodinámica y la mecánica estadística, aunque relacionadas, son ramas separadas de la física.

Interpretación microcanónica de la entropía en base al segundo principio de la termodinámica

La ecuación fundamental de un sistema cerrado termodinámico en equilibrio puede expresarse como

S = S ( U , V , N_1 , N_2 ,..., N_r ) \,

 Donde S representa la entropía del sistema –desde un punto de vista termodinámico–, U la energía interna del sistema, y N1, N2, etc el número de moles de cada componente del sistema. Todas estas magnitudes son macroscópicas, en el sentido de que son expresadas y pueden ser medidas y calculadas sin entrar a considerar la naturaleza microscópica (esto es, de los átomos, moléculas, etc), que componen el sistema termodinámico.

Intuitivamente, puede parecer razonable suponer que si el sistema está en equilibrio, entonces sus componentes más fundamentales, sus átomos y moléculas, también lo estén. Sin embargo, un resultado fundamental de la mecánica cuántica afirma que si el sistema es macroscópico, entonces pueden existir multitud de estados cuánticos discretos para sus átomos y moléculas que, globalmente, sean compatibles con los valores de U, V y N1,N2,... del sistema macroscópico. En principio, no obstante, aunque exista esa potencial capacidad de los componentes microscópicos del sistema para pasar de un estado cuántico a otro, como el sistema es cerrado y está en equilibrio podría razonarse que tales transiciones no se van a dar.

Ahora bien, en realidad no existe un sistema aislado perfecto. Por ejemplo, aunque seamos capaces de aislar térmicamente al sistema de manera absoluta, no podremos evitar los efectos gravitatorios que el resto del universo seguirá ejerciendo sobre la materia que hayamos encerrado dentro; tampoco podrá aislarse perfectamente de todos los campos electromagnéticos que lo rodeen, por muy débiles que puedan resultar. En definitiva, el sistema podrá estar cerrado a efectos macroscópicos, pero la acción de todo tipo de campos de fuerza (sean de gravedad, eléctricas,...) y la propia interacción del sistema con las paredes que lo encierren harán que, al menos desde un punto de vista microscópico, el sistema no esté en equilibrio: los átomos y moléculas estarán sometidos a continuas transiciones de un estado cuántico a otro cuyas causas son, a todos los efectos, meramente azarosas, de tantas y tan indefinidas que pueden ser.

La mecánica estadística considera que un sistema macroscópico realiza transiciones enormemente rápidas y totalmente aleatorias entre los distintos estados cuánticos que sean posibles, de manera que las medidas macroscópicas de parámetros tales como la temperatura, la energía, incluso el volumen,... son en realidad la media de las miríadas de estados cuánticos o microscópicos. Y como dichas transiciones están producidas por procesos esencialmente aleatorios, se acepta como principio que un sistema macroscópico visita todos los estados microscópicos permisibles con igual probabilidad. A dichos estados microscópicos permisibles se les llama microestados.

Para cada estado macroscópico de equilibrio, el número de microestados permitidos es uno determinado por las leyes de la física. Por ejemplo, si un sistema macroscópico tiene por energía 1000 julios, es absurdo suponer que un microestado de dicho sistema pueda tener más de 1000 julios de energía.

Si se considera un estado de equilibrio macroscópico, según el segundo principio de la termodinámica éste vendrá totalmente definido por los valores de las variables termodinámicas U, V , N1, N2, etc. para los que la entropía S toma su máximo valor entre todos los posibles. Supongamos que tenemos un sistema termodinámico en equilibrio que viene definido por una limitación fundamental: no se permite que el sistema tenga un volumen mayor que uno concreto, y la cantidad de materia del sistema es la que se haya dado al comienzo. Por ejemplo, gas en una bombona de gas: no puede tener un volumen mayor que el de la bombona, ni puede haber más cantidad de gas que la que se ha colocado dentro. Atendiendo a esa limitación de volumen y masa, el sistema adquirirá los valores de U tales que maximicen la entropía, y entonces habrá alcanzado el equilibrio macroscópico. Asociado a ese estado macroscópico de equilibrio, tenemos el de los microestados: las moléculas del sistema podrán presentar transiciones aleatorias entre distintos microestados dentro de los límites impuestos por el propio sistema. No podrán, por ejemplo, desplazarse más allá de las barreras del sistema, ni podrán vibrar con una energía mayor que la energía total del sistema macroscópico, etc. Esto es, asociado al equilibrio macroscópcio se tiene un número limitado, aunque posiblemente inmenso, de microestados que los constituyentes microscópicos del sistema pueden visitar con igual probabilidad.

Si retiramos ahora una restricción al sistema macroscópico, como por ejemplo permitir que el volumen sea ahora mayor que antes, pasarán dos cosas:

  • Desde el punto de vista de la termodinámica, esto es, desde el punto de vista macroscópico, las variables del sistema evolucionarán hacia un estado de entropía mayor: el volumen V es ahora mayor que antes, y aunque la cantidad de materia es la misma, ésta ahora puede ocupar más volumen. Así, la energía interna del sistema U variará de manera que, en el nuevo estado de equilibrio, la entropía S tome el máximo valor posible. Dicho valor es necesariamente mayor que el del estado de equilibrio previo. En efecto, podemos concebir la situación en la que, aunque puede, el sistema se mantiene en su volumen anterior, con la misma energía interna y misma materia. En ese caso, la entropía no habrá cambiado. Y ese caso es compatible con los límites del sistema. Sin embargo, sabemos que la naturaleza no opera así: el sistema tenderá a ocupar todo el volumen (aunque sea un sólido, en cuyo caso la presión de vapor del sólido cambiará, o se evaporará más sólido, etc), y el equilibrio se desplazará. La función entropía es aquella función matemática que toma su valor máximo en ese nuevo equilibrio, y deberá ser por tanto mayor que en el estado de equilibrio anterior.
  • Desde el punto de vista microscópico, ocurre que ahora el número de microestados que son compatibles con los límites del sistema ha aumentado. En efecto, seguiremos teniendo los mismos de antes, pero a estos se les suman otros nuevos. Por ejemplo, ahora un átomo podrá moverse no ya dentro del volumen anterior, sino también dentro de todo el nuevo volumen.

Así, a la vez que la entropía aumenta se produce un incremento del número de microestados posibles. Esto sugiere que la entropía puede identificarse con el número de microestados consistentes con las limitaciones macroscópicas impuestas sobre el sistema. Siendo los microestados producto del azar, y siendo la probabilidad de que cada uno de ellos se dé la misma, es natural identificar por tanto entropía con desorden microscópico.

Existe un único problema: según la termodinámica, la entropía es aditiva. Esto es, la entropía de dos sistemas iguales es el doble que la entropía individual de cada uno de ellos. Sin embargo, el número de microestados posibles es multiplicativo. Esto es, el número de microestados de dos sistemas es el producto del número de microestados de cada uno de ellos. Por ejemplo, el número de "microestados" de dos dados, si el de cada uno de ellos es 6 (cada cara del dado es un microestado posible), es 6x6=36 microestados (tener un "1" en el primero, un "3" en el segundo; un "2" en el primero, un "5" en el segundo, etc). Para interpretar la entropía necesitaremos conseguir que el número de microestados cumpla una regla aditiva.

La única solución a esto es identificar la entropía con el logaritmo del número de microestados posibles. Llamando ? al número de microestados y S a la entropía, podremos escribir que:

 S = k_b \ln \Omega \,

Donde kB es la constante de Boltzmann, y aparece sencillamente para determinar la escala de la entropía, que suele darse como energía por grado de temperatura (J/K) , aunque según esta interpretación podría carecer de unidades.

Interpretación canónica

La interpretación microcanónica de la entropía concibe un sistema termodinámico aislado, esto es, un sistema termodinámico que no intercambia ni materia ni energía ni volumen con el exterior: la composición del sistema, dada por N1,N2, ... , su energía interna U y su volumen V no cambian en ella. El sistema por antonomasia que cumple dichas condiciones es el propio universo. Sin embargo, en muchas ocasiones se contemplan sistemas que sí intercambian energía, masa o volumen con su entorno.

Para esos casos, es necesario extender las interpretaciones estadísticas de la entropía, si bien globalmente es la interpretación microcanónica la que perdura. En efecto, si consideramos un sistema que por ejemplo intercambia materia con su entorno, podemos concebir un sistema mayor que incluya al sistema inicial y a su entorno de manera que el sistema global se amolde a la interpretación microcanónica; en el límite, dicho sistema será el propio universo. Y es precisamente la entropía del sistema microcanónico la que queda sujeta al segundo principio de la termodinámica, esto es, aquella que debe aumentar al variarse el equilibrio global del sistema.

Evidentemente, podría entonces pensarse que cualquier sistema, sean cuales sean las condiciones de intercambio con su entorno, puede ser tratado concibiendo el sistema global que quede sujeto a la interpretación microcanónica. En efecto, en principio su estado de equilibrio debería poder obtenerse sin más que considerar el número total de microestados del sistema global. Esto, sin embargo, puede ser muy costoso por no decir prácticamente imposible de estimar en la mayor parte de las circunstancias: los cálculos combinatorios sobre el número de formas en que la energía disponible en un sistema puede distribuirse suele quedar más allá de todo conocimiento matemático. Y es para solventar esas deficiencias que surgen el resto de interpretaciones de la entropía.

La interpretación canónica, a veces llamada formalismo canónico o de Helmholtz, considera un sistema termodinámico capaz de intercambiar energía con un reservorio térmico o termostato. Según esto, al disponer de una fuente infinita de energía, todo estado energético, desde el de menor energía hasta el de mayor, será concebible para el sistema. Sin embargo, en oposición al sistema microcanónico, la probabilidad de cada uno de esos estados no será la misma: el sistema no estará la misma fracción de tiempo en cada uno de esos estados. El punto central del formalismo canónico es determinar la distribución de probabilidad de los microestados. Y dicho problema se resuelve teniendo en cuenta que el sistema global formado por el termostato y el sistema en cuestión es un sistema cerrado, esto es, cumple el formalismo microcanónico de que la probabilidad de cada microestado global es la misma.

Si la energía total del sistema global es Etot, y la de un microestado del sistema local es Ej, al estar el sistema local en un estado de energía Ej el termostato quedará reducido inevitablemente a uno de energía Etot - Ej. La probabilidad de que el sistema global esté en un microestado tal que el termostato tenga energía Etot - Ej y el sistema local Ej será entonces:

P_j = \frac{ \Omega_{termostato} (E_{tot} - E_j)}{\Omega_{tot} E_{tot} }

Siguiendo la definición de la entropía según Boltzmann, dicha ecuación puede escribirse como:

P_j = \frac{ e^{ \frac{ S_{termostato} }{ k_B }(E_{tot} - E_j) } } { e^{ \frac{ S_{tot} }{k_B} E_{tot} } } \,

La energía interna U será el valor medio de la energía del sistema local, por lo que, como la entropía es aditiva, puede escribirse que:

S_{tot}(E_{tot}) = S(U)+ S_{termostato} (E_{tot} - U )\,

Si se desarrolla en serie S_{termostato}(E_{tot}-E_j) \, tendremos que:

S_{termostato}(E_{tot}-E_j) = S_{termostato}(E_{tot} - U + U - E_j) = S_{termostato}(E_{tot} - E ) + \frac{(U - E_j)}{T}.

De este modo, la probabilidad puede expresarse como:

P_j = \frac{ e^{ \frac{ U-T S(U)}{ k_B } } } { e^{ \frac{ T }{k_B} E_j } } \,

Y como F = U-T S(U) \, es la energía libre de Helmholtz, podemos expresar dicha probabilidad como:

P_j = e^{ \beta F } e^{ -\beta E_j} \, ,

donde  \beta = \frac{1}{k_B T} .

La probabilidad total de estar en alguno de dichos estados es la unidad, por lo que:

\sum_j P_j = e^{\beta F} \sum_j e^{-\beta E_j} = 1 \, , de donde se define
e^{-\beta F} = Z \,.

Z es las la llamada función de partición canónica, generalmente definida como:

Z = \sum_j e^{-\beta E_j} \,

Si para un sistema de partículas en equilibrio térmico se conoce la función de partición Z, se puede calcular la entropía mediante:

S =  k_B \beta^2 \frac{\partial F}{\partial \beta}= \frac{\partial}{\partial T}(k_B T \ln Z) = k_B \sum_j P_j\ln P_j

Donde kB es la constante de Boltzmann, T la temperatura y las probabilidades Pj.

Esta es la interpretación de la entropía, llamada interpretación canónica o entropía de Helmholtz.

Entropía de Von Neumann en mecánica cuántica

En el siglo XIX el concepto de entropía fue aplicado a sistemas formados por muchas partículas que se comportan clásicamente, a principios del siglo XX Von Neumann generalizó el concepto de entropía para sistemas de partículas cuánticas, definiendo para un estados mezcla caracterizado por una matriz densidad ? la entropía cuántica de Von Neumann como la magnitud escalar:

 

 S(\rho) \,=  \,-k_B {\rm Tr} (\rho \, {\rm ln} \rho),

Entropía generalizada en Relatividad general

El intento de extender el análisis termodinámico convencional al universo entero, llevó a examinar a principios de los 70 el comportamiento termodinámico de estructuras como los agujeros negros. El resultado preliminar de dicho análisis reveló algo muy interesante, que la segunda ley tal como había sido formulada convencionalmente para sistemas clásicos y cuánticos podría ser violada en presencia de agujeros negros. Sin embargo, los trabajos de Jacob D. Bekenstein sobre teoría de la información y agujeros negros sugirieron que la segunda ley seguiría siendo válida si se introducía una entropía generalizada (Sgen) que sumara a la entropía convencional (Sconv), la entropía atribuible a los agujeros negros que depende del área total (A) de agujeros negros en el universo. Concretamente esta entropía generalizada debe definirse como:

S_{gen} = S_{conv} + \frac{kc^3}{4G\hbar}A

Donde, k es la constante de Boltzmann, c es la velocidad de la luz, G es la constante de gravitación universal y \hbar es la constante de Planck racionalizada.

Bibliografia www.wikipedia.org

LA TERMODINAMICA Y EL CONCEPTO DE ENTROPIA

Definición de algunos conceptos.

La termodinámica, por definirla de una manera muy simple, fija su atención en el interior de los sistemas físicos, en los intercambios de energía en forma de calor que se llevan a cabo entre un sistema y otro. A las magnitudes macroscópicas que se relacionan con el estado interno de un sistema se les llama coordenadas termodinámicas; éstas nos van a ayudar a determinar la energía interna del sistema. En resumen, el fin último de la termodinámica es encontrar entre las coordenadas termodinámicas relaciones generales coherentes con los principios básicos de la física (recuérdese el principio de la conservación de la energía que tratamos en el número 3 de "Horizonte Social).

La termodinámica basa sus análisis en algunas leyes: La Ley "cero", referente al concepto de temperatura,la Primera Ley de la termodinámica, que nos habla de el principio de conservación de la energía, la Segunda Ley de la termodinámica, que nos define a la entropía. A continuación vamos a hablar de cada una de estas leyes, haciendo hincapié en la segunda ley y el concepto de entropía.

La Ley cero

La Ley cero de la termodinámica nos dice que si tenemos dos cuerpos llamados A y B, con diferente temperatura uno de otro, y los ponemos en contacto, en un tiempo determinado t, estos alcanzarán la misma temperatura, es decir, tendrán ambos la misma temperatura. Si luego un tercer cuerpo, que llamaremos C se pone en contacto con A y B, también alcanzará la misma temperatura y, por lo tanto, A, B y C tendrán la misma temperatura mientras estén en contacto.

De este principio podemos inducir el de temperatura,la cual es una condición que cada cuerpo tiene y que el hombre ha aprendido a medir mediante sistemas arbitrarios y escalas de referencia (escalas termométricas).

La Primera Ley

La Primera ley de la termodinámica se refiere al concepto de energía interna, trabajo y calor. Nos dice que si sobre un sistema con una determinada energía interna, se realiza un trabajo mediante un proceso, la energía interna del sistema variará. A la diferencia de la energía interna del sistema y a la cantidad de trabajo le denominamos calor. El calor es la energía transferida al sistema por medios no mecánicos. Pensemos que nuestro sistema es un recipiente metálico con agua; podemos elevar la temperatura del agua por fricción con una cuchara o por calentamiento directo en un mechero; en el primer caso, estamos haciendo un trabajo sobre el sistema y en el segundo le transmitimos calor.

Cabe aclarar que la energía interna de un sistema, el trabajo y el calor no son más que diferentes manifestaciones de energía. Es por eso que la energía no se crea ni se destruye, sino que, durante un proceso solamente se transforma en sus diversas manifestaciones.

La Segunda Ley

Por último, vamos a ver el contenido de la segunda ley de la termodinámica. En términos más o menos sencillos diría lo siguiente: "No existe un proceso cuyo único resultado sea la absorción de calor de una fuente y la conversión íntegra de este calor en trabajo". Este principio (Principio de Kelvin-Planck) nació del estudio del rendimiento de máquinas y mejoramiento tecnológico de las mismas. Si este principio no fuera cierto, se podría hacer funcionar una central térmica tomando el calor del medio ambiente; aparentemente no habría ninguna contradicción, pues el medio ambiente contiene una cierta cantidad de energía interna, pero debemos señalar dos cosas: primero, la segunda ley de la termodinámica no es una consecuencia de la primera, sino una ley independiente; segundo, la segunda ley nos habla de las restricciones que existen al utilizar la energía en diferentes procesos, en nuestro caso, en una central térmica. No existe una máquina que utilice energía interna de una sola fuente de calor.

El concepto de entropía fue introducido por primera vez por Rudolf Clausius a mediados del siglo XIX. Clausius, ingeniero francés, también formuló un principio para la Segunda ley: "No es posible proceso alguno cuyo único resultado sea la transferencia de calor desde un cuerpo frío a otro más caliente". En base a este principio, Clausius introdujo el concepto de entropía, la cual es una medición de la cantidad de restricciones que existen para que un proceso se lleve a cabo y nos determina también la dirección de dicho proceso. Vamos ahora a hablar de las tres acepciones más importantes de la palabra entropía.

La entropía, el desorden y el grado de organización

Vamos a imaginar que tenemos una caja con tres divisiones; dentro de la caja y en cada división se encuentran tres tipos diferentes de canicas: azules, amarillas y rojas, respectivamente. Las divisiones son movibles así que me decido a quitar la primera de ellas, la que separa a las canicas azules de las amarillas. Lo que estoy haciendo dentro del punto de vista de la entropía es quitar un grado o índice de restricción a mi sistema; antes de que yo quitara la primera división, las canicas se encontraban separadas y ordenadas en colores: en la primera división las azules, en la segunda las amarillas y en la tercera las rojas, estaban restringidas a un cierto orden.

Al quitar la segunda división, estoy quitando también otro grado de restricción. Las canicas se han mezclados unas con otras de tal manera que ahora no las puedo tener ordenas pues las barreras que les restringían han sido quitadas.

La entropía de este sistema ha aumentado al ir quitando las restricciones pues inicialmente había un orden establecido y al final del proceso (el proceso es en este caso el quitar las divisiones de la caja) no existe orden alguno dentro de la caja.

La entropía es en este caso una medida del orden (o desorden) de un sistema o de la falta de grados de restricción; la manera de utilizarla es medirla en nuestro sistema inicial, es decir, antes de remover alguna restricción, y volverla a medir al final del proceso que sufrió el sistema.

Es importante señalar que la entropía no está definida como una cantidad absoluta S (símbolo de la entropía), sino lo que se puede medir es la diferencia entre la entropía inicial de un sistema Si y la entropía final del mismo Sf. No tiene sentido hablar de entropía sino en términos de un cambio en las condiciones de un sistema.

Entropia,procesos reversibles y procesos irreversibles

Volviendo al ejemplo anterior de la caja con separaciones y canicas,vamos a explicar qué es un proceso reversible y qué un proceso no reversible.

Llamamos proceso reversible al que se puede invertir y dejar a nuestro sistema en las mismas condiciones iniciales. Teniendo en cuenta nuestra caja ya sin las separaciones, tenemos a las canicas revueltas unas con otras, es decir, sin un orden. Si el proceso que efectuamos de quitar las divisiones fuera reversible, las canicas tendrían que ordenarse espontáneamente en azules, amarillas y rojas, según el orden de las divisiones. Esto no ocurrirá.

El proceso que efectuamos con nuestra caja de canicas fue un proceso no reversible, en donde una vez terminado, el orden que había en las condiciones iniciales del sistema ya nunca volverá a establecerse. El estudio de este tipo de procesos es importante porque en la naturaleza todos los procesos son irreversibles.

La entropía y la energía "gastada"

En el principio enunciado por Clausius que anteriormente citamos,podemos encontrar la relación con la entropía y la energía liberada en un proceso. Pensemos en un motor. El motor necesita de una fuente de energía para poder convertirla en trabajo. Si pensamos en un coche, la gasolina, junto con el sistema de chispa del motor, proporciona la energía (química) de combustión, capaz de hacer que el auto se mueva. ¿qué tiene que ver la entropía aquí?

La energía que el coche "utilizó" para realizar trabajo y moverse, se "gastó", es decir, es energía liberada mediante un proceso químico que ya no es utilizable para que un motor produzca trabajo.

Este es uno de los conceptos más difíciles de entender de la entropía,pues requiere un conocimiento un poco menos trivial del funcionamiento de motores, frigoríficos y el ciclo de Carnot. Pero para nuestros fines con esta explicación es suficiente.

¿Para qué sirve la entropía?

La entropía, como medida del grado de restricción o como medida del desorden de un sistema, o bien en ingeniería, como concepto auxiliar en los problemas del rendimiento energético de las máquinas, es una de las variables termodinámicas más importantes. Su relación con la teoría del caos le abre un nuevo campo de estudio e investigación a este tan "manoseado" concepto.
Bibliografia http://www.fisicanet.com.ar 

One Response to Segundo principio de la termodinámica

  1. Pingback: Demuestran experimentalmente el límite de Landauer