¿Qué significa entropía en su campo de estudio?

En realidad, creo que no hay mucha diferencia entre la definición de entropía en varios campos como usted describe. La diferencia es solo cómo se aplica el concepto de entropía a problemas prácticos dentro de diferentes campos (como la informática, las matemáticas, la física y la ingeniería).

La entropía a menudo se describe como una forma de cuantificar la “aleatoriedad” o el “desorden”, pero muchos estudiantes luchan justificadamente por comprender lo que realmente significan estas descripciones onduladas a mano.

Lo que la entropía realmente describe es cuántas maneras diferentes puede tener un sistema con variables de estado macroscópicas dadas.

Considere un sistema de una gran cantidad de microestados idénticos (por ejemplo, una colección de átomos individuales distribuidos entre varios niveles de energía). Si el microestado tiene una probabilidad [matemática] p_i [/ ​​matemática] de aparecer durante la fluctuación del sistema, entonces

[matemáticas] S = -k_ \ text {B} \, \ sum_i p_i \ ln \, p_i [/ ​​math]

Tenga en cuenta que si todos los microestados son igualmente probables, obtenemos que

Donde [math] \ Omega [/ math] es el número total de microestados. Entonces, en relación con la definición que propuse, la entropía es solo una constante por el logaritmo de la cantidad de formas diferentes en que se puede organizar el sistema.

En informática y ciencias de la información, la entropía es casi exactamente la misma:

[matemáticas] S = – \ sum_i p_i \ log_2 \, p_i [/ ​​matemáticas]

La única diferencia es que usan el logaritmo de base 2 y sueltan la constante (por lo que la entropía se puede expresar en bits).

En todos los demás campos que mencioné, la entropía se calcula en relación con otras variables macroscópicas que son más fáciles de medir, como la temperatura y la energía interna. Por ejemplo, utilizamos esta definición en una de mis clases de ingeniería mecánica para calcular el cambio en la entropía para procesos reversibles:

[matemáticas] S = \ int \ frac {\ delta Q_ \ text {rev}} T [/ matemáticas]

Como los sistemas normales están en el orden de 10 ^ 23 o más átomos, la entropía generalmente no se puede medir directamente usando las definiciones que he dado. Sin embargo, la entropía calculada usando la integral anterior es la misma que encontraría al usar mi primera definición directamente, si quisiera hacer una suma increíblemente larga.

En resumen, diferentes campos STEM tienen diferentes razones para discutir la entropía, lo que lleva a formulaciones de aspecto diferente. Sin embargo, la definición raíz de entropía es la misma (solo vestida un poco diferente).

Estudio Inglés – Idioma inglés, Lierature en inglés, Crítica literaria en inglés, y la Historia del idioma inglés y la Historia de la literatura en inglés, entre muchas otras cosas.

Entropía, en el estudio del inglés, significaría ignorar las influencias de todos los demás idiomas y culturas, en el idioma inglés, literatura en inglés, etc. Eso ha comenzado a suceder.

El latín y el griego ya no se enseñan en las mejores escuelas del Reino Unido, como práctica habitual. Sí, todavía hay departamentos enteros centrados en el estudio de la Inglaterra isabelina, Chaucer y Beowulf, etc., pero cada vez son menos. La Universidad de Miami no permitió que el español cumpliera con el requisito de segundo idioma en estudios de posgrado en inglés. Claramente, no hay influencia del idioma español en la literatura en inglés, en los Estados Unidos, los estudios de la diáspora se limitan principalmente a aquellos países donde el inglés es el idioma de la mayoría de la población.

F. Nietzsche, J. Sartre, F. Kafka, J. Borges, I. Allende, S. Rushdie, N. Mahfouz y G. Márquez casi nunca se encuentran en ningún plan de estudios centrado en literatura en inglés, aunque todos están disponibles en Inglés y al menos Rushdie ha escrito obras originales en inglés, no solo tradujo sus obras al inglés. Para el caso, incluso B. Mukherjee, A. Tan, M. Atwood, T. Morrison y P. White casi nunca se encuentran, incluso en antologías, no importa currículos, a pesar de que todos ellos publican exclusivamente en inglés.

El mundo todavía no está llegando a su fin. Pero la entropía es obvia. El final llega, no con un estallido, sino con un susurro apenas audible, para parafrasear el último y gran EET

Uh … lamento señalar que no hay analogía para extender.

La medida del desorden en un sistema es la medida de la aleatoriedad de la información. Las palabras son diferentes. El significado no lo es.

Si cree que eso podría cambiar en otro campo, explique cómo …

Hay muchas concepciones populares y (en su mayoría) ideas erróneas sobre lo que realmente significa la entropía . Creo que ambas declaraciones del OP son conceptos erróneos. El significado más exacto de él escapa a mi comprensión, pero aquí hay un comienzo.

Entropía – Wikipedia

Tal vez un físico con talento para una explicación lúcida pueda intervenir aquí y ayudar con esto.

No soy un experto, pero creo que la idea tiene un significado bastante universal, espero que un experto tenga peso.

Entropía – Wikipedia