Deje que [math] D \ in \ mathbb {R} ^ {n \ times p} [/ math] sea la matriz de datos. Consideremos la forma MLE de la matriz de covarianza de muestra, que puede escribirse como
[matemática] Cov (D) = \ frac {1} {n} D ^ TD- \ overline {D} ^ T \ overline {D}, [/ math]
donde [math] \ overline {D} [/ math] es el vector [math] 1 \ times p [/ math] (fila) o medias de variables, es decir
[matemáticas] \ overline {D} = \ frac {1} {n} 1_n ^ TD. [/ matemáticas]
- Si un vector unitario es perpendicular a dos vectores, A y B, ¿significa eso que el vector A y el vector B también son perpendiculares?
- ¿Puedo aprender cálculo, conociendo solo álgebra, geometría y los conceptos básicos de trigonometría (bronceado, pecado, cos)?
- ¿Podemos usar la regla cabeza a cola para más de dos vectores?
- ¿Cuál es el propósito de hacer un cálculo determinante en álgebra lineal?
- ¿Qué hace una matriz jacobiana geométricamente?
Después de un poco de álgebra, obtenemos una expresión más compacta
[matemáticas] Cov (D) = \ frac {1} {n} D ^ TP_nD, [/ matemáticas]
donde [matemáticas] P_n = I_n- \ frac {1} {n} 1_n1_n ^ T [/ matemáticas], que es una matriz de proyección.
Ahora, si [math] A \ in \ mathbb {R} ^ {m \ times n} [/ math] y [math] B \ in \ mathbb {R} ^ {p \ times q} [/ math], nosotros tener
[math] Cov (ADB) = \ frac {1} {m} B ^ TD ^ TA ^ TP_mADB. [/ math]
Claramente, si [matemática] A ^ TP_mA = P_n [/ matemática], entonces
[matemática] Cov (ADB) = \ frac {n} {m} B ^ TCov (D) B, [/ matemática]
pero este es un caso muy especial (por ejemplo, si [math] m = n [/ math] y [math] A [/ math] es una matriz de permutación).
En general, no hay funciones matriciales [matemáticas] f [/ matemáticas] y [matemáticas] g [/ matemáticas], de modo que
[matemática] Cov (ADB) = f (A, B) Cov (D) g (A, B). [/ matemática]
Para ver esto, deje que [math] q = p [/ math], [math] B = I_p [/ math], [math] n = 2m [/ math], y deje que [math] A [/ math] corresponda a las primeras [math] m [/ math] filas de [math] I_n [/ math]. Evidentemente, [math] Cov (ADB) [/ math] es la matriz de covarianza de muestra de la primera mitad de los datos. Sin embargo, dejemos que [math] D ^ R [/ math] sea la matriz de datos si invertimos el orden de los datos. Entonces, [math] Cov (AD ^ RB) [/ math] es la matriz de covarianza de muestra de la segunda mitad del conjunto de datos original. Claramente, a menos que tengamos un conjunto de datos muy especial,
[math] Cov (ADB) \ neq Cov (AD ^ RB). [/ math]
Pero [matemática] Cov (D) = Cov (D ^ R) [/ matemática], es decir, suponiendo [matemática] Cov (ADB) = f (A, B) Cov (D) g (A, B) [/ matemática ] obtenemos
[matemáticas] Cov (ADB) = f (A, B) Cov (D) g (A, B) = f (A, B) Cov (D ^ R) g (A, B) = Cov (AD ^ RB) .[/matemáticas]
🙂