Entropía: definición, segunda ley y aplicaciones en termodinámica e información

Entropía: qué es, segunda ley y aplicaciones — entiende el desorden energético, su relación con el calor, la probabilidad y su impacto en termodinámica, teoría de la información y química.

Autor: Leandro Alegsa

La entropía de un objeto es una medida de la cantidad de energía que no está disponible para realizar un trabajo. La entropía también es una medida del número de disposiciones posibles que pueden tener los átomos de un sistema. En este sentido, la entropía es una medida de incertidumbre o aleatoriedad. Cuanto mayor es la entropía de un objeto, más incertidumbre tenemos sobre los estados de los átomos que lo componen, porque hay más estados entre los que decidir. Una ley de la física dice que se necesita trabajo para hacer que la entropía de un objeto o sistema sea menor; sin trabajo, la entropía nunca puede ser menor - se podría decir que todo va lentamente hacia el desorden (mayor entropía).

La palabra entropía procede del estudio del calor y la energía en el periodo comprendido entre 1850 y 1900. Del estudio de la entropía surgieron algunas ideas matemáticas muy útiles sobre el cálculo de probabilidades. Estas ideas se utilizan ahora en la teoría de la información, la química y otras áreas de estudio.

La entropía es simplemente una medida cuantitativa de lo que describe la segunda ley de la termodinámica: la dispersión de la energía hasta que se reparte uniformemente. El significado de la entropía es diferente en distintos ámbitos. Puede significar:

Definición y conceptos clave

  • Estado macroscópico y microestados: Un sistema macroscópico (por ejemplo, un gas en un recipiente) puede describirse por variables como presión, volumen y temperatura. Para cada descripción macroscópica (macroestado) existen muchas configuraciones microscópicas (microestados) de las partículas. La entropía mide, de forma cuantitativa, cuántos microestados son compatibles con un macroestado dado.
  • Función de estado: La entropía es una función de estado: su valor depende solo del estado actual del sistema y no de cómo se llegó a él.
  • Relación con la energía útil: La entropía crece cuando parte de la energía se vuelve menos disponible para realizar trabajo útil.

Entropía en termodinámica clásica

En termodinámica, la entropía S se define mediante procesos reversibles como

S = ∫(dQ_rev / T),

donde dQ_rev es el calor añadido reversiblemente al sistema y T la temperatura absoluta (en kelvin). Para un proceso reversible entre dos estados A y B, la variación de entropía ΔS = S(B) − S(A) se calcula por esa integral.

La inecuación de Clausius establece que para cualquier proceso real entre A y B:

ΔS ≥ ∫(dQ / T),

con la igualdad para procesos reversibles y la desigualdad para procesos irreversibles. Para un sistema aislado (sin intercambio de energía ni materia con el exterior), la entropía nunca disminuye: ΔS ≥ 0.

Mecánica estadística: Boltzmann y microestados

En la interpretación estadística, la entropía queda ligada al número de microestados W compatibles con un macroestado. La fórmula de Boltzmann (famosa y compacta) es:

S = k ln W

donde k es la constante de Boltzmann (k ≈ 1.380649×10−23 J/K) y ln es el logaritmo natural. Esta expresión muestra que la entropía aumenta cuando el número de microestados accesibles crece exponencialmente.

Entropía y teoría de la información

Claude Shannon introdujo una medida de incertidumbre en la teoría de la información, la entropía de Shannon, definida como

H = −Σ p_i log p_i,

donde p_i son las probabilidades de distintos mensajes o estados. Aunque H tiene distinta unidad y propósito, es análoga a la entropía termodinámica: ambas miden incertidumbre o falta de información sobre el microestado exacto. La entropía de la información se suele medir en bits (log base 2) y está relacionada con la entropía termodinámica por un factor k: un bit corresponde a k ln 2 J/K.

Unidades y cálculos prácticos

  • Unidad SI: la entropía se mide en joules por kelvin (J/K).
  • Cálculo de variaciones: para procesos a temperatura constante y transferencia de calor Q_rev, ΔS = Q_rev / T.
  • Entropía molar: en química es habitual usar la entropía molar S̄ con unidades J·mol−1·K−1 y consultar tablas de entropías estándar.

Segunda ley de la termodinámica: formulaciones y consecuencias

  • Una formulación: en un proceso natural, la entropía total del universo (sistema + alrededores) tiende a aumentar.
  • Implicación práctica: no es posible construir una máquina térmica que convierta todo el calor en trabajo sin producir algún intercambio de calor con un foco frío (imposibilidad del ciclo de movimiento perpetuo de segunda especie).
  • Frecuencia de estados: los macroestados con mayor entropía son mucho más probables porque corresponden a muchas más configuraciones microscópicas.

Aplicaciones y ejemplos

  • Motores térmicos y refrigeradores: el rendimiento máximo de una máquina térmica reversible viene dado por el ciclo de Carnot y está limitado por las temperaturas de los focos; la entropía y la segunda ley determinan ese límite.
  • Química y fases: la entropía participa en la predicción de espontaneidad mediante la energía libre de Gibbs G = H − T S (donde H es entalpía). Un proceso a T constante es espontáneo si ΔG < 0.
  • Procesos de mezcla: mezclar dos gases diferentes aumenta la entropía (entropía de mezcla), y ese aumento puede calcularse con fórmulas basadas en probabilidades.
  • Teoría de la información y compresión: la entropía de Shannon fija el límite teórico para la compresión sin pérdida de datos; en criptografía y transmisión de datos la entropía mide incertidumbre y seguridad.
  • Cosmología y agujeros negros: la entropía aparece en física de agujeros negros (entropía proporcional al área del horizonte, fórmula de Bekenstein–Hawking), lo que conecta termodinámica, gravedad y mecánica cuántica.
  • Vida y evolución: los seres vivos mantienen estructuras ordenadas localmente disminuyendo su entropía interna a costa de aumentar la entropía del entorno (consumiendo energía y produciendo calor); no violan la segunda ley porque la entropía total global aumenta.

Paradojas y matices

  • Orden vs. entropía: hablar de “desorden” es una analogía útil pero puede ser confusa. La entropía es más correctamente una medida del número de microestados compatibles con una descripción macroscópica y de la irreversibilidad de procesos.
  • Maxwell y el demonio: la aparente violación de la segunda ley por Maxwell fue resuelta al reconocer que la obtención y procesamiento de la información por parte del “demonio” conlleva un coste en entropía (información y termodinámica están conectadas).
  • Procesos reversibles ideales: la entropía se mantiene constante en procesos perfectamente reversibles, pero los procesos reales son siempre en parte irreversibles y producen entropía.

Resumen y conclusiones

La entropía es una magnitud central en física y otras ciencias que cuantifica la dispersión de la energía, la irreversibilidad y la incertidumbre sobre los estados microscópicos. Está presente en la termodinámica clásica (consecuencia de la segunda ley), en la mecánica estadística (S = k ln W) y en la teoría de la información (H = −Σ p log p). Sus implicaciones abarcan desde el diseño de motores y procesos químicos hasta la teoría de la comunicación y la comprensión del tiempo y el universo. Aunque a menudo se la asocia con la idea coloquial de “desorden”, su definición precisa permite predecir límites físicos y cuantificar transformaciones energéticas en sistemas reales.

Preguntas y respuestas

P: ¿Qué es la entropía de un objeto?



R: La entropía de un objeto es una medida de la cantidad de energía que no está disponible para realizar trabajo, y también una medida del número de disposiciones posibles que pueden tener los átomos de un sistema.

P: ¿Cuál es la relación entre entropía e incertidumbre/aleatoriedad?



R: La entropía es una medida de la incertidumbre o aleatoriedad, ya que cuanto mayor es la entropía de un objeto, más inseguros estamos sobre los estados de los átomos que componen ese objeto porque hay más estados entre los que decidir.

P: ¿Puede hacerse menor la entropía de un objeto o sistema sin trabajo?



R: No, una ley de la física dice que se necesita trabajo para hacer que la entropía de un objeto o sistema sea menor; sin trabajo, la entropía nunca puede hacerse más pequeña - todo se desordena lentamente, lo que significa una entropía mayor.

P: ¿De dónde procede la palabra entropía?



R: La palabra entropía surgió del estudio del calor y la energía entre 1850 y 1900, y produjo algunas ideas matemáticas muy útiles sobre el cálculo de probabilidades que ahora se utilizan en la teoría de la información, la mecánica estadística, la química y otras áreas de estudio.

P: ¿Qué mide cuantitativamente la entropía?



R: La entropía mide simplemente lo que describe la segunda ley de la termodinámica: la dispersión de la energía hasta que se reparte uniformemente.

P: ¿En qué difiere el significado de entropía en los distintos campos?



R: El significado de entropía varía en los distintos campos y puede significar cosas diferentes, como contenido de información, desorden y dispersión de la energía.

P: ¿Cuál es el papel de la entropía en el cálculo de probabilidades?



R: La entropía proporciona una forma matemática de cuantificar el grado de desorden o incertidumbre de un sistema, lo que resulta útil en los cálculos de probabilidad.


Buscar dentro de la enciclopedia
AlegsaOnline.com - 2020 / 2025 - License CC3