Si [math] M = \ sum_ {i = 1} ^ r \ sigma_i u_i v ^ T_i [/ ​​math] entonces, ¿por qué su norma de operador es el valor singular más grande?

[matemáticas] \ | M \ | = \ max_ {x: \ | x \ | _2 = 1} \ | Mx \ | _2 [/ math]
Equivalentemente
[matemáticas] \ | M \ | ^ 2 = \ max_ {x: \ | x \ | _2 = 1} \ | Mx \ | ^ 2_2 = \ max_ {x: \ | x \ | _2 = 1} x ^ { \ top} M ^ {\ top} Mx [/ math]
Pero [matemática] M ^ {\ top} M [/ matemática] es simétrica y de [1], sabemos que,
[matemáticas] x ^ {\ top} M ^ {\ top} Mx \ leq \ lambda_ {max} (M ^ {\ top} M) [/ math]

Por lo tanto,
[matemáticas] \ | M \ | = \ sqrt {\ lambda_ {max} (M ^ {\ top} M)} [/ math]

Lo anterior es cierto para la matriz general M. Sin embargo, este resultado es diferente del resultado deseado. Su resultado deseado ocurre solo si M es simétrico. Porque si M es simétrico, entonces [math] \ sqrt {\ lambda_ {max} (M ^ {\ top} M)} = \ lambda_ {max} (M) [/ math].

[1] ¿Por qué [math] x ^ TA x [/ math] está limitado por los valores propios más pequeños y más grandes para cualquier vector unitario [math] x [/ math], es decir, [math] \ lambda_ {max} \ geq x ^ TA x \ geq \ lambda_ {min} [/ math]?

Esta afirmación es falsa si u y v no son vectores normativos unitarios y ortogonales.

De lo contrario, para cualquier vector de norma de unidad [matemática] x [/ matemática], simplemente escriba [matemática] Mv [/ matemática] como [matemática] \ sum_ {i = 1} ^ r \ sigma_i u_i v_i ^ Tx [/ matemática] . Use la desigualdad de Cauchy-Schwarz para vincular cada uno de estos términos y la suma. ¿Qué término limita esto?