En realidad, creo que no hay mucha diferencia entre la definición de entropía en varios campos como usted describe. La diferencia es solo cómo se aplica el concepto de entropía a problemas prácticos dentro de diferentes campos (como la informática, las matemáticas, la física y la ingeniería).
La entropía a menudo se describe como una forma de cuantificar la “aleatoriedad” o el “desorden”, pero muchos estudiantes luchan justificadamente por comprender lo que realmente significan estas descripciones onduladas a mano.
Lo que la entropía realmente describe es cuántas maneras diferentes puede tener un sistema con variables de estado macroscópicas dadas.
Considere un sistema de una gran cantidad de microestados idénticos (por ejemplo, una colección de átomos individuales distribuidos entre varios niveles de energía). Si el microestado tiene una probabilidad [matemática] p_i [/ matemática] de aparecer durante la fluctuación del sistema, entonces
- ¿Sería más fácil omitir Álgebra 2 o Precálculo?
- ¿Qué temas de matemáticas están relacionados con la química?
- ¿Por qué el análisis es una parte tan importante de las matemáticas?
- ¿Qué es CLM en matemáticas?
- Cómo mejorar mis matemáticas hasta el nivel IIT-JEE
[matemáticas] S = -k_ \ text {B} \, \ sum_i p_i \ ln \, p_i [/ math]
Tenga en cuenta que si todos los microestados son igualmente probables, obtenemos que
Donde [math] \ Omega [/ math] es el número total de microestados. Entonces, en relación con la definición que propuse, la entropía es solo una constante por el logaritmo de la cantidad de formas diferentes en que se puede organizar el sistema.
En informática y ciencias de la información, la entropía es casi exactamente la misma:
[matemáticas] S = – \ sum_i p_i \ log_2 \, p_i [/ matemáticas]
La única diferencia es que usan el logaritmo de base 2 y sueltan la constante (por lo que la entropía se puede expresar en bits).
En todos los demás campos que mencioné, la entropía se calcula en relación con otras variables macroscópicas que son más fáciles de medir, como la temperatura y la energía interna. Por ejemplo, utilizamos esta definición en una de mis clases de ingeniería mecánica para calcular el cambio en la entropía para procesos reversibles:
[matemáticas] S = \ int \ frac {\ delta Q_ \ text {rev}} T [/ matemáticas]
Como los sistemas normales están en el orden de 10 ^ 23 o más átomos, la entropía generalmente no se puede medir directamente usando las definiciones que he dado. Sin embargo, la entropía calculada usando la integral anterior es la misma que encontraría al usar mi primera definición directamente, si quisiera hacer una suma increíblemente larga.
En resumen, diferentes campos STEM tienen diferentes razones para discutir la entropía, lo que lleva a formulaciones de aspecto diferente. Sin embargo, la definición raíz de entropía es la misma (solo vestida un poco diferente).