¿Cuál es tu matriz favorita y por qué?

El conjunto unitario gaussiano: una matriz aleatoria especial.

Las matrices GUE tienen muchas aplicaciones:

  • Física nuclear, caos cuántico, física de estado sólido, cromodinámica cuántica, gravedad cuántica 2D, mecánica estadística, etc.
  • Teoría de números, combinatoria, sistemas de partículas interactivas, etc.
  • Redes neuronales, neurociencia teórica, etc.
  • Comunicación inalámbrica, finanzas, modelado de tráfico, etc.

Sin embargo, esa es solo una pequeña parte de por qué es mi favorito. La mayor parte de la razón (juego de palabras, ver más abajo) se debe a las propiedades fantásticamente interesantes de las estadísticas de valor propio y sus posibles implicaciones de universalidad (merecedor de medalla Fields).

¿Qué son las matrices aleatorias GUE?

Son matrices hermitianas cuyos elementos son variables aleatorias gaussianas complejas. Específicamente, cada uno satisface [matemáticas] H = (h_ {ij}) = \ overline {(h_ {ji})} = H ^ *. [/ math] Aquí, el overline y el asterisco corresponden a conjugación compleja y transposición de conjugado, respectivamente. Con un poco de álgebra lineal, no es difícil mostrar que las matrices hermitianas tienen valores propios reales, es decir, si nuestra matriz es [matemática] n \ veces n [/ matemática] entonces

[matemáticas] H v_j = \ lambda_j v_j, \ v_j \ in \ mathbb {C} ^ n, \ \ lambda_j \ in \ mathbb {R}, 1 \ le j \ le n. [/ math]

Analicemos las entradas [math] h_ {ij} [/ math] que se muestrean a partir de distribuciones gaussianas complejas. En la diagonal, son los habituales [matemática] h_ {ii} \ sim N (0,1), [/ matemática] pero fuera de la diagonal, cada parte real y parte imaginaria son, hasta una constante, normalmente distribuidas

[matemáticas] \ sqrt {2} \ mathrm {Re} (h_ {ij}), \ \ sqrt {2} \ mathrm {Im} (h_ {ij}) \ sim N (0,1). [/matemáticas]

¿Por qué son mis favoritos?

Parte 1: Distribución del semicírculo de Wigner . ¿Qué? ¿No es suficiente? Elaboraré incluso si es así. ¿Recuerdas los valores propios? Considere matrices de tamaño 5000. Con algo de esfuerzo, los histogramas de estos valores propios se verán como un semicírculo: es decir, habrá muchos de ellos cerca de 0, un poco menos lejos de cero, y así sucesivamente hasta llegar al “borde” “donde de repente ya no tienes valores propios fuera de este rango.

Este fenómeno no es tan sorprendente ya que el número de valores propios distintos es menor que el tamaño de la matriz. Sin embargo, lo sorprendente es que no importa qué tan grande sea la matriz, los valores propios permanecen cerca del soporte (lo que significa que no son cero). Como he descrito anteriormente, el soporte es [matemáticas] [-2,2]. [/matemáticas]


Los matemáticos dirían “Las estadísticas generales de las matrices GUE obedecen la Ley del semicírculo de Wigner”. A saber, la medida espectral empírica de las matrices de GUE tiende a
[matemática] p _ {\ matemática {semicírculo}} (x) = \ frac {1} {2 \ pi} \ sqrt {4 – x ^ 2}, [/ matemática]
ya que el tamaño de la matriz tiende al infinito.

Parte 2: distribución de Tracy-Widom . Observe en la imagen de arriba que en el lado derecho, hay un chico solitario. Como tenemos una matriz aleatoria, el valor propio más grande se ubica de forma aleatoria. Si lo ha olvidado, los valores propios son reales, por lo que tiene sentido hablar sobre el más grande. En un artículo seminal de Craig Tracy y Harold Widom, encontraron que este valor propio más grande obedece a una distribución, ya que la distribución de Tracy-Widom acuñada cinco años más tarde.

La función de distribución acumulativa es bastante elegante, pero difícil de calcular: [matemáticas] F_ {2} (s) = \ det (I – A_s) [/ matemáticas] que tiene la expansión determinante de Fredholm

[matemáticas] \ sum_ {n = 0} ^ \ infty \ frac {1} {n!} \ int _ {\ mathbb {R} ^ n} K_n (x_i, x_j) | _ {1 \ le i, j \ le n} dx_1 \ ldots dx_n, [/ math]

donde el núcleo se da en términos de funciones Airy

[matemáticas] K (x, y) = \ frac {\ mathrm {Ai} (x) \ mathrm {Ai} ‘(y) – \ mathrm {Ai}’ (x) \ mathrm {Ai} (y)} { xy}. [/matemáticas]

Milagrosamente, Tracy y Widom mostraron que la distribución también es igual a
[matemáticas] F_2 (s) = \ mathrm {exp} \ left (- \ int_s ^ \ infty (xs) q ^ 2 (x) dx \ right) [/ math]
donde [math] q ” (s) = sq (s) + 2 q ^ 3 (s) [/ math] es la llamada ecuación Painlevé II y [math] q (s) \ sim \ mathrm {Ai} (s), s \ rightarrow \ infty. [/ math]

La densidad de probabilidad de las distribuciones de Tracy-Widom.

Parte 3: Universalidad Kardar-Parisi-Zhang [1106.1596] La ecuación de Kardar-Parisi-Zhang y la clase de universalidad. Bien, entonces la parte interesante es a dónde lleva esto. Alrededor de 1999, en un asombroso trabajo de campo que causó asombro en un artículo de J. Baik, P. Deift y K. Johansson, demostraron que la distribución de la subsecuencia creciente más larga en una permutación aleatoria converge a la distribución de la más grande valor propio de una matriz GUE. El trío citó el resultado de Tracy y Widom dando a luz el nombre de “Distribución de Tracy-Widom”. Casi simultáneamente, A. Soshnikov demostró la universalidad de la distribución Tracy-Widom, lo que significa que no solo los valores propios más grandes de las matrices GUE obedecen a las estadísticas TW, sino también matrices aleatorias mucho más generales.

Quince años más tarde y hoy, matemáticos y físicos descubren por igual la distribución de Tracy-Widom que aparece en muchos más aspectos fuera de su área inicial de Matrices aleatorias. Una pregunta natural, y si se resuelve, es una medalla de campo que merece: cuáles son las condiciones más generales que exhiben la distribución de Tracy-Widom. Déjame darte una analogía.

El teorema del límite central establece que si tiene una secuencia de variables aleatorias independientes, distribuidas idénticamente, que tienen una media finita y una varianza igual, entonces su suma escalada converge a la distribución gaussiana. Este es uno de los resultados más importantes en todas las matemáticas y estadísticas de hoy.

Si los investigadores (matemáticos, presumiblemente) encontraran condiciones simples y generales en algunos objetos (¿quizás variables aleatorias?) Y demostraran que convergen (en algún aspecto) a la distribución de Tracy-Widom que encapsula todos los ejemplos existentes que incluyen muchos de los temas Enumeré al principio, esto es ciertamente digno de la medalla Fields.

La puerta de Hadamard de la teoría de la información cuántica. Asigna n qubits en el estado [math] | 0 \ rangle [/ math] a una superposición igual de todos los estados posibles:
Vea la transformación de Hadamard en wikipedia.

Las matrices Gamma, por su relación con el spin 1/2 partículas.