La entropía de Shannon proporciona un método general para detectar y medir patrones en la información, pero no necesariamente los explica. Las nociones de entropía de la termodinámica se generalizaron a la información por Claude Shannon de Bell Labs [ver Wikipedia Entropía (teoría de la información)]. La entropía H mide el trastorno, por lo que uno esperaría que 011101000110 tenga una entropía alta y 0101010101 tenga una entropía baja [debido al patrón].
Los patrones corresponden a bajos niveles de trastorno, por lo que H = 0 indica un patrón. La definición de H que se ve en el artículo de Wikipedia usa un espacio muestral finito S y una probabilidad P en S; S y P variables. Por ejemplo, si S = {0,1} y P (0) = P (1) = 0.5, entonces H (1110100010) = H (0101010101) = 5> 0 no puede detectar un patrón [utilizando registros de base 2]. Pero para S = {00,01,10,11} y P (01) = P (10) = 0 y P (00) = P (11) = 0.5 obtenemos H (11 10 10 00 10) = 2 y H (01 01 01 01 01) = 0 [usando 0log (0) = 0]. Se ha detectado un patrón.
Las complejas herramientas de detección de patrones, apropiadas para genómica, interpretación de señales, matemáticas puras, etc., se basan en la entropía de Shannon. Pero la libertad en la selección S, P puede ser una oportunidad para hacer trampa.
- ¿Existe una forma intuitiva de mostrar la relación entre la función zeta de Riemann y los números de Bernoulli?
- ¿Hay un número entero positivo cuya repetición es un cuadrado perfecto? Si es así, ¿cuántos enteros positivos puedes encontrar?
- Si [math] \ frac {1} {a} + \ frac {1} {b} + \ frac {1} {c} = \ frac {5} {7} [/ math], ¿cuál es el valor de [ matemáticas] a, b [/ matemáticas] y [matemáticas] c [/ matemáticas]?
- ¿Cuál es la intersección teórico-esquemática completa de dos cuádricos lisos en [math] \ mathbf {P} ^ 3 _ {\ mathbf {C}} [/ math], y cómo se relaciona con una curva elíptica?
- ¿Qué es [math] \ lim_ {n \ rightarrow \ infty} I_n [/ math] donde [math] I_n [/ math] es la enésima integral de un polinomio [math] P (x) [/ math]?