Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Entropía

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 9

Tecnológico Nacional de México

Instituto Tecnológico de Ciudad Madero


Departamento de Ciencias Básicas
Termodinámica AEF-1065
Grupo 8:00-9:00 a.m.
Ingeniería Ambiental
2023-2

Actividad No. 2 Unidad 4 "Segunda Ley de la Termodinámica"

Estudiante: Barragán Salas Michelle Ayerim


Número de Control: 220711
Docente: Dra. Rebeca Silvia Rodrigo
Fecha de entrega: 30 de Noviembre de 2023
Ciudad Madero, Tam. Noviembre 2023
Introducción

La entropía es un concepto fundamental en la termodinámica, que es la rama de la física que


estudia las transformaciones de energía y la relación entre el calor y el trabajo. La entropía se
define como una medida de la cantidad de desorden o aleatoriedad en un sistema.

En un sistema termodinámico, la entropía aumenta con el tiempo y tiende a alcanzar un valor


máximo en equilibrio. Esto se debe a que las transformaciones espontáneas de energía
tienden a aumentar la dispersión y el desorden en el sistema. Por ejemplo, cuando una taza de
café caliente se enfría en una habitación fría, el calor se transfiere del café al ambiente,
aumentando la entropía total del sistema.

La entropía también se relaciona con la probabilidad de los estados microscópicos de un


sistema. Cuanto más probable sea un estado, mayor será su entropía. Por ejemplo, si tenemos
una caja con bolas rojas y azules, y todas las bolas están mezcladas de manera aleatoria, el
estado en el que las bolas están distribuidas uniformemente tiene mayor entropía que un
estado en el que todas las bolas rojas están juntas y todas las bolas azules están juntas.

La segunda ley de la termodinámica establece que la entropía de un sistema aislado tiende a


aumentar o permanecer constante, nunca disminuye. Esto implica que los procesos
espontáneos en la naturaleza tienden a aumentar la entropía total del universo.
Entropía

La palabra entropía se deriva del vocablo griego trope, que quiere decir transformación. La
entropía es una función termodinámica que se designa por la letra S. El físico alemán
Rudolph Clausius descubrió la función S en 1854 y la denominó contenido de la
transformación (Verwandlinginhalt). Posteriormente, en 1865, el mismo Clausius la renombró
como entropía. Las conclusiones de Clausius se basaron en el estudio que hizo sobre el
trabajo del ingeniero francés Sadi Carnot, quien en 1824 publicó “La potencia motriz del
fuego”, una investigación sobre los principios que regían la transformación de la energía
térmica (calor) en energía mecánica (trabajo). De aquí el nombre que Clausius le dio a la
función S.

Afirmar que se trata de una propiedad intrínseca de la materia implica que su valor depende
únicamente de la naturaleza de la materia considerada, sin importar su posición externa o su
movimiento con respecto a otros cuerpos. Así, por ejemplo, la entropía de un cilindro que
contiene aire a 25 °C y 500 kPa es la misma, independientemente de que el cilindro se
encuentre ubicado en la planta baja o en el último piso de un rascacielos.

Obsérvese que se requiere definir el estado en que se encuentra la materia (condiciones de


temperatura y presión) para cuantificar la magnitud de la entropía. Esto se explica con más
detalle cuando se mencionan las características de la entropía entendida como una magnitud
termodinámica.

Otro aspecto de vital importancia en la definición de entropía que brindan Hougen et. al. es el
hecho de que la entropía expresa una medida de la mayor o menor capacidad de la energía
térmica de un sistema para su conversión en energía mecánica; en otras palabras, la entropía
permite cuantificar la reducción de la calidad de la energía, en el sentido de que es degradada
a una forma más dispersa y caótica, la energía térmica. Esto puede ilustrarse al considerar un
sistema aislado en el que se produce la caída de un objeto sobre una placa, dado que como
resultado del impacto parte de la energía potencial inicial del objeto se convierte en calor,
degradándose entonces a una forma menos eficaz, con el consecuente incremento de la
entropía del sistema.

Es aquí donde la entropía encuentra una de sus más relevantes aplicaciones prácticas: en el
estudio de las máquinas térmicas (centrales de vapor y motores de combustión interna), los
refrigeradores y la expresión cuantitativa del grado de degradación de la energía en dichos
dispositivos; y en el cálculo de las eficiencias isentrópicas de compresores, bombas, toberas,
turbinas y otros equipos de amplia utilización en ingeniería, que permiten medir el
desempeño de dichos aparatos al compararlos contra un proceso ideal.
La entropía y La Segunda Ley.

A semejanza de la temperatura que se introduce a partir de la Ley Cero de la Termodinámica


y la energía cuya definición se establece a partir de la Primera Ley, la definición de entropía
se obtiene partiendo de la Segunda Ley.

La primera ley emplea la energía para identificar los cambios que pueden efectuarse (aquellos
en los que la energía total del sistema más sus alrededores permanece constante). La segunda
ley se vale de la entropía para establecer cuales de estos cambios son naturales y espontáneos.

Se entiende por espontáneos aquellos procesos que están impulsados por una fuerza directora,
que es la que tiende a que el proceso tenga lugar. Así por ejemplo, un cuerpo caliente se
enfría hasta alcanzar la temperatura de sus alrededores como consecuencia del diferencial
finito de temperatura existente, pero no se calienta espontáneamente a expensas de los
alrededores; un gas se expande y llena el volumen disponible, producto de la diferencia de
concentración del gas en el espacio, pero no se contrae espontáneamente.

Dichos procesos espontáneos no están equilibrados y son irreversibles (los procesos


irreversibles son aquellos que una vez que han ocurrido, no pueden invertirse por sí solos de
modo espontáneo y regresar al sistema a su estado inicial).

Clausius lo expresó en su famosa sentencia: “la energía del universo es constante; la entropía
tiende a lograr un valor máximo”. Dado que todos los procesos naturales son espontáneos,
éstos deben producirse con aumento de entropía, y, por consiguiente, la suma total de
entropía del universo debe crecer continuamente. El estudio de está afirmación ha conducido
a diversos estudios filosóficos y religiosos como, por ejemplo, la idea del astrónomo y físico
británico Sir Arthur Eddington de que “la entropía es la flecha del tiempo” (para un sistema
aislado, dS/dt > 0, lo que implica que la segunda ley no es simétrica con respecto al tiempo,
sino que considera la dirección en la cual éste aumenta) o la interpretación del fin del mundo
como una lenta y progresiva muerte térmica (la entropía del universo está en continuo
aumento, por consiguiente cada vez hay más energía inservible para convertirla en trabajo, al
final no habrá energía disponible para producir trabajo, la entropía del universo alcanzará un
máximo y todos los procesos, incluso la vida, cesarán).

Esta temática ha sido abordada inclusive por escritores de ciencia-ficción como el


estadounidense Isaac Asimov en su obra “The Last Question”1 .

Una propiedad Termodinámica

Para entender la entropía es necesario referirse a sus características como una magnitud
termodinámica. La entropía es una propiedad extensiva, es decir, depende del tamaño o
extensión del sistema. En el sistema internacional (SI) sus unidades son el kJ/K (a veces
denominado UE8 ); las unidades respectivas en el sistema inglés son el Btu/R. Otras unidades
empleadas son las cal/K, que algunos autores denominan unidad entrópica (ue) o gibbs.
Matemáticamente, la entropía se define por la ecuación diferencial:

dS = δQrev/T (I)

Donde se observa que δQrev no es una diferencial exacta, pero dS sí lo es.

Si se integra la ecuación (I) entre dos estados 1 y 2 se tiene:


ΔS = S2 – S1 = ∫δQrev/T (II)

Y ΔS tendrá el mismo valor independientemente de si el cambio entre los estados 1 y 2, se


realiza a través de un proceso reversible o un proceso irreversible, puesto que hay un solo
valor posible de Qrev y T es una función de estado, es decir, una propiedad en el sentido
termodinámico de la palabra.

De aquí que la entropía también es una función de estado, y como tal no se ve afectada por el
tipo de proceso a través del cual se va de un estado 1 a un estado 2; se concluye entonces que
su valor es independiente de la historia del sistema. Sin embargo, la integral de δQrev/T da el
cambio de entropía solamente para procesos reversibles.

En el caso de procesos irreversibles, para el cálculo de ΔS se debe definir un camino


reversible adecuado que tenga el mismo estado final que el proceso real y la ecuación (II) se
aplica a lo largo de este camino reversible.

El cambio de entropía de una sustancia puede expresarse en términos de otras propiedades:

TdS = dU + PdV (III)


TdS = dH – VdP (IV)

Las ecuaciones (III) y (IV) suelen considerarse como dos de las cuatro ecuaciones
fundamentales de la termodinámica; a la ecuación (III) se le denomina ecuación de Gibbs o
primera ecuación TdS, y a la ecuación (IV) segunda ecuación TdS.

Dado que estas relaciones son complicadas y poca prácticas para usarse en cálculos
manuales, la entropía puede calcularse a partir de las entropías específicas, por unidad de
masa, o bien, en unidad molar, de la siguiente manera:
ΔS = m(s2 – s1) (V)
ΔS = n(ŝ2 – ŝ1) (VI)

Donde si representa la entropía específica en base másica; m la cantidad de masa; ŝi la


entropía específica en base molar y n el número de moles.

Los valores de las entropías específicas se encuentran tabulados para diferentes sustancias
puras como el agua o los refrigerantes que se utilizan más comúnmente en los sistemas de
refrigeración comercial. Los valores que aparecen en estas tablas se dan con respecto a un
estado de referencia arbitrario. Pero esto no interesa, dado que al igual que en el caso de la
energía, no se han definido los valores de la entropía en sí misma, sino el valor del cambio en
la entropía.

Estos valores pueden obtenerse también a partir de diagramas termodinámicos que son
gráficos en los que se representan la temperatura, la presión, el volumen, la entalpía y la
entropía de una sustancia (aunque no se incluyan datos de todas estas variables, la
denominación se conserva). Los diagramas más comunes en los que se incluyen valores de la
entropía son el diagrama T-s y el h-s denominado diagrama de Mollier.

Para un sistema aislado, cualquier proceso que se efectúe dentro del mismo será
necesariamente adiabático, y por consiguiente Q = 0. Asimismo, si el proceso es reversible.

dS = 0 y ΔS = 0 (VII)

Sin embargo, todos los procesos reales tienen algún grado de irreversibilidad, lo que implica
que para un sistema aislado que experimenta un proceso irreversible

dS > 0 y ΔS > 0 (VIII)

A partir de lo expuesto se concluye que:


La entropía de un sistema aislado aumenta por cualquier cambio natural que
tenga lugar en él.

Cuando ocurre un proceso espontáneo en un sistema aislado, la entropía alcanza un valor


máximo en el equilibrio. En otras palabras, los procesos dejan de llevarse a cabo cuando el
valor de la entropía es máximo. Por ejemplo, si dos partes de un sistema aislado están a
diferentes temperaturas, el calor fluirá desde la parte caliente a la fría hasta que ambas
temperaturas se igualen y la entropía del sistema alcance su valor máximo.

En el sentido termodinámico el universo es un sistema aislado, por tanto, la entropía del


universo está creciendo continuamente, como ya se mencionó anteriormente. De esto se sigue
que, a diferencia de la energía, la entropía no es una propiedad conservativa. Por tanto, puede
hablarse de entropía generada o creada durante un proceso. Dicha generación de entropía se
debe por completo a la presencia de irreversibilidades en el proceso.

La afirmación de que la entropía del universo crece continuamente es un tema recurrente en


el presente documento, dado que es una de las principales conclusiones que se obtienen a
partir de la segunda ley de la termodinámica.

Sin embargo, cuando se calcula el cambio de entropía de un sistema el valor que se obtiene
puede ser negativo, es decir, una disminución en la entropía del sistema, así por ejemplo, en
el proceso espontáneo de oxidación de un clavo o el enfriamiento de una taza de café, se
produce una disminución en la entropía del sistema, no obstante, la entropía de los
alrededores aumenta en una cantidad suficiente para compensar la disminución de entropía
del sistema y sobrepasar, obteniéndose al final un aumento neto de la entropía del universo.

La entropía más allá de la Termodinámica

El empleo de la entropía no está limitado a la termodinámica. En la vida diaria pueden


encontrarse innumerables ejemplos de la entropía. El desorden de una habitación u oficina, el
clásico juego infantil del teléfono descompuesto, la reducción de calidad que se observa en
cualquier proceso de copiado a partir de un original (copias de obras artísticas, de DVDs, de
libros, la clonación, etc.) son muestras palpables de la influencia de la entropía.

Se han escrito artículos e incluso libros sobre la aplicación de la entropía en campos no


técnicos. Al principio del documento se comentaba sobre las implicaciones de orden
filosófico y religioso que conlleva dicho concepto.

En la actualidad se habla por ejemplo de la entropía de las organizaciones en el ámbito de la


administración y de la entropía de la información en aplicaciones relacionadas al mundo de la
informática.
Conclusión

En conclusión, la entropía es una propiedad fundamental en la termodinámica que nos


permite comprender y describir el comportamiento de los sistemas en términos de desorden y
aleatoriedad. A medida que un sistema evoluciona, la entropía tiende a aumentar, lo que
implica que los procesos naturales tienden hacia un estado de equilibrio en el que la entropía
alcanza su valor máximo.

La entropía también está estrechamente relacionada con la probabilidad de los estados


microscópicos de un sistema. Cuanto más probable sea un estado, mayor será su entropía.
Esto significa que los sistemas tienden a evolucionar hacia estados más probables y, por lo
tanto, más desordenados.

La segunda ley de la termodinámica establece que la entropía de un sistema aislado nunca


disminuye, lo que implica que los procesos espontáneos en la naturaleza siempre aumentan la
entropía total del universo. Esta ley tiene implicaciones importantes en la vida cotidiana y en
muchos aspectos de la ciencia y la tecnología.

En resumen, la entropía es un concepto fundamental para comprender el comportamiento de


los sistemas termodinámicos y nos ayuda a entender cómo se producen los cambios en la
naturaleza. Su estudio y comprensión nos permiten abordar una amplia gama de fenómenos
físicos y procesos, y son clave para el desarrollo de la ciencia y la tecnología.
Bibliografías

❖ Levine, Ira N. (1982). “Fisicoquímica”. Editorial Mc Graw-Hill Latinoamericana,


S.A. Bogota.

❖ Morris, J. G. (1976) . “Fisicoquímica para biólogos”. Editorial Reverté, S. A. España.

❖ Hougen, O. A., Watson, K. M. Y Ragatz, R. A. (1964). “Principios de los Procesos


Químicos – Parte II. Termodinámica”. Editorial Reverté, S. A. Madrid.

❖ Cengel, Yunus A. y Boles, Michel A. (2003). “Termodinámica”.


McGrawHill/Interamericana Editores, S A. de C. V. México, D. F.

❖ Maron, Samuel H. y Lando, Jerome B. (1978). “Fisicoquímica Fundamental”.


Editorial Limusa, S. A. México, D. F.

También podría gustarte