Deje que [math] \ displaystyle {V} [/ math] sea un espacio vectorial de dimensión finita real.
Deje que [math] \ displaystyle {B = \ {e_1, e_2, \ dots, e_n \}} [/ math] sea una base de [math] \ displaystyle {V} [/ math]
Deje que [math] \ displaystyle {x} [/ math] es un vector en [math] \ displaystyle {V} [/ math]. Entonces [math] \ displaystyle {x} [/ math] se representa únicamente de la siguiente manera:
[matemáticas] \ displaystyle {x = x_1 e_1 + x_2 e_2 + \ cdots + x_n e_n = \ sum_ {i = 1} ^ {n} x_i e_i \ qquad (1)} [/ math]
- ¿Cuándo es la disminución de peso L2 mejor que L1 y cuándo es mejor la norma máxima?
- ¿Por qué la mayoría de los sistemas diferenciales lineales / no lineales se resuelven mediante la función exponencial?
- ¿Por qué el producto de dos matrices semidefinidas positivas> 0?
- Si una matriz es escasa, ¿eso significa que los valores de sus vectores propios serán más pequeños que para una matriz densa?
- ¿Cómo se puede demostrar que la transformación de Mobius es la forma más general de aplicación conforme?
donde [math] \ displaystyle {(x_1, x_2, \ dots, x_n) \ in \ mathbb {R} ^ n} [/ math] se llama coordenada del vector [math] \ displaystyle {x} [/ math] según básico [matemáticas] B [/ matemáticas]. Por convención, denote [math] \ displaystyle {x = (x_1, x_2, \ dots, x_n)} [/ math]
Usando la notación matricial, la ecuación (1) se reescribe como:
[matemáticas] \ displaystyle {x = \ left [e_1, e_2, \ dots, e_n \ right] \ begin {bmatrix} x_1 \\ x_2 \\ \ vdots \\ x_n \ end {bmatrix}} \ qquad (2) [ /matemáticas]
Deje que [math] \ displaystyle {\ langle, \ rangle} [/ math] sea un producto interno en el espacio [math] \ displaystyle {V} [/ math]. Para todos [math] \ displaystyle {x, y \ in V} [/ math], tenemos:
[matemáticas] \ displaystyle {\ langle x, y \ rangle = \ Bigg \ langle \ sum_ {i = 1} ^ {n} x_i e_i, \ sum_ {j = 1} ^ {n} y_j e_j \ Bigg \ rangle = [x_1, x_2, \ dots, x_n] A \ begin {bmatrix} y_1 \\ y_2 \\ \ vdots \\ y_n \ end {bmatrix}} [/ math]
dónde:
[math] \ displaystyle {A = (a_ {ij}) _ {n \ times n}} [/ math] y [math] \ displaystyle {a_ {ij} = \ langle e_i, e_j \ rangle} [/ math]
Aparentemente, elegir un básico apropiado de V ayuda a reducir la complejidad de la computación del producto interno. Si el B básico es ortogonal, entonces [math] \ displaystyle {\ langle e_i, e_j \ rangle = 0 \ quad \ forall \, i \ ne j} [/ math] y [math] \ displaystyle {\ langle e_i, e_j \ rangle = 1 \ quad \ forall \, i = j} [/ math] donde [math] \ displaystyle {i, j = \ overline {1, n}} [/ math]. Como consecuencia:
[matemáticas] \ displaystyle {a_ {ij} = 0 \ text {if} i \ ne j} [/ math] y [math] \ displaystyle {a_ {ij} = 1 \ text {if} i = j} [/ matemáticas] donde [matemáticas] \ displaystyle {i, j = \ overline {1, n}} [/ matemáticas]
Por lo tanto, podemos simplificar el producto interno así como:
[matemáticas] \ displaystyle {\ langle x, y \ rangle = [x_1, x_2, \ dots, x_n] \ begin {bmatrix} y_1 \\ y_2 \\ \ vdots \\ y_n \ end {bmatrix} = \ sum_ {i = 1} ^ {n} x_i y_i} \ qquad (3) [/ math]
En la consideración de la norma inducida, también tenemos:
[matemáticas] \ displaystyle {|| x || ^ 2 = \ langle x, x \ rangle = [x_1, x_2, \ dots, x_n] \ begin {bmatrix} x_1 \\ x_2 \\ \ vdots \\ x_n \ end {bmatrix} = \ sum_ {i = 1} ^ {n} x_i ^ {2}} \ qquad (4) [/ math]
Ahora volvemos con la pregunta original. Deje [math] \ displaystyle {Ax = u \ in V} [/ math]. Denote [math] \ displaystyle {u = (u_1, u_2, \ dots, u_n)} [/ math], uno tiene que validar la igualdad de la siguiente manera:
[matemáticas] \ displaystyle {|| u || ^ 2 = [u_1, u_2, \ dots, u_n] \ begin {bmatrix} u_1 \\ u_2 \\ \ vdots \\ u_n \ end {bmatrix} = \ sum_ {i = 1} ^ {n} u_i ^ 2} \ qquad (5) [/ math]
De acuerdo con las ecuaciones (3) y (4), podemos concluir fácilmente que la ecuación (5) se cumple si y solo si la coordenada del vector [math] \ displaystyle {u = Ax} [/ math] se basa en una cierta base ortogonal del espacio vectorial dado Por supuesto, no se puede mantener en general. [matemáticas] \ cuadrado [/ matemáticas]