Cómo entender la inversa de la matriz de covarianza semidefinida positiva en la distribución de probabilidad conjunta

La expresión para la función de densidad de probabilidad conjunta es válida solo cuando [math] C ^ {- 1} [/ math] existe.

La forma de manejar un vector [matemático] X [/ matemático] de longitud [matemático] n [/ matemático] con una matriz de correlación semi-definida positiva es transformarlo en un vector dimensional más pequeño [matemático] Y [/ matemático] de longitud [matemática] m [/ matemática].

[matemática] Y = AX [/ matemática] donde [matemática] A \ text {es una} m \ veces n [/ matemática] matriz dimensional.

[math] A [/ math] se puede encontrar por SVD de [math] C = A ^ T \ Lambda A [/ math] donde [math] \ Lambda [/ math] es a [math] m \ times m [/ math] matriz dimensional que consiste en valores propios distintos de cero de [math] C [/ math].

Ahora, la matriz de correlación de [matemáticas] Y [/ matemáticas] es igual a [matemáticas] C ‘= ACA ^ T [/ matemáticas].

Ahora,

[matemáticas] P (y_1, y_2,…, y_m) = \ frac {1} {det (2 \ pi C ‘)} \ exp (- \ frac {1} {2} Y ^ T {C’} ^ { -1} Y) [/ matemáticas].

Finalmente, podemos escribir el pdf del vector original de la siguiente manera:

[matemáticas] P (x_1, x_2,…, x_n) = \ frac {1} {det (2 \ pi C ‘)} \ exp (- \ frac {1} {2} X ^ TA ^ T {C’} ^ {- 1} AX) [/ matemáticas]

Puedes entenderlo como blanqueamiento

Los matemáticos adoran reducir los problemas difíciles a problemas fáciles.

¿Sabe cómo puede expresar el pdf conjunto de las variables de varianza unitaria gaussiana media cero independientes? ¡Derecho! ¡Trivial! La independencia le permite expresar el pdf conjunto como un producto:

[matemáticas] \ prod_ {i = 1} ^ {N} \ frac {1} {\ sqrt {2 \ pi}} e ^ {- x_i ^ 2/2} \ equiv {(2 \ pi)} ^ {- N / 2} e ^ {- || \ vec {x} || ^ 2/2} [/ math]

Supongamos ahora que el vector x tiene covarianza R. En la superficie, esto parece hacer que el problema sea increíblemente difícil. ¡Pero espera! Si x tiene covarianza R, entonces [matemáticas] \ vec {y} = R ^ {- 1/2} \ vec {x} [/ matemáticas]

tiene covarianza de la matriz de identidad. Entonces conectas y a la fórmula de identidad.

Si R es singular, eso significa que existe un vector v, de modo que Rv = o

Deberías poder convencerte a ti mismo, esto significa que si conozco N-1 de los elementos en x, el último es computable determinísticamente. Entonces, elegimos cualquier elemento N-1 y si ese es el tanque lleno, tomamos el inverso y listo.

¡Juego de Voila terminado! ¡Salud!

La densidad depende solo de la distancia de Mahalanobis de [matemáticas] x [/ matemáticas] desde cero.