Al resolver un sistema lineal con Pendiente de degradado, ¿es mejor si las filas son ortogonales? Si es así, ¿por qué?

Sí.

Porque, la correlación general de Pendiente de Descenso, es la equivalencia matemática al “Problema del vendedor del camino más corto” – Pero, en matemáticas, términos.

La idea es que “caiga nivel por nivel”, intentando alcanzar el mínimo de un punto de función.

Ahora, lógicamente hablando, si su ruta NO está compuesta de relaciones vectoriales que imitan la idea de una “ruta recta”, es decir, debe ir en diagonal.

Lo cual, lo obligará a tomar un camino más largo, se verá obligado a ejecutar más pasos y, en general, no tendrá una solución “tan optimizada” para resolver.

El problema principal, supongo, quiero decir, no estaría realmente preocupado en términos de resolver los Vectores y similares, en términos de si se resuelven en 0 y se ha demostrado que son ortogonales.

Preferiría que, por su parte, eso significaría que tiene que viajar a través de más espacio y explicar menos simetría, por así decirlo.

Lo cual, para cualquier conjunto de razonamientos abstractos que arroje, es algo que, GENERALMENTE, significaría que no ha minimizado el problema en su parte más pequeña, o que no se puede hacer de manera equivalente a 0 (es decir, ortogonal en términos de perpendicularidad)

En otras palabras, hay un margen de “error”, o “el mínimo común denominador, en realidad no era 0”, lo que significa que la respuesta dada es quizás matemáticamente minimalista, aunque se haya reducido a su forma más minimalista. .

Es una pena que no se pueda minimizar, además, eso es todo.

Es por eso que preferirías las relaciones ortogonales. Implica minimalismo al extremo.

¡Lo que es genial si estás resolviendo problemas! Camino de menor resistencia, desea la menor resistencia posible, en términos de razonamientos.

Tener una matriz ortogonal ayuda a resolver sistemas lineales, a saber, [matemática] Ax = b. [/ Matemática]

Hay dos casos que pueden surgir:

1.) Cuando [math] b [/ math] se encuentra en el subespacio de [math] A [/ math] :

[matemáticas] x = A ^ {- 1} b [/ matemáticas]

La ortogonalidad ayuda a calcular el inverso de A esencialmente en [matemáticas] O (n) [/ matemáticas].

2.) Cuando [math] b [/ math] no se encuentra en el subespacio de [math] A [/ math] :

En este caso formamos la minimización de mínimos cuadrados- [matemática] \ min || Ax – b ||. [/ Matemática]

Si A es ortogonal, entonces es positivo semi-definido y podemos aplicar el descenso de gradiente conjugado y resolver el problema en la mayoría de los pasos [matemáticos] n [/ matemáticos].

En el contexto del descenso de gradiente, lo importante a tener en cuenta es el número de condición [1], que es simplemente la relación entre el valor propio más grande y el más pequeño. En una matriz ortogonal, el número de condición es 1 ya que todos los valores propios son 1 (o tienen magnitud 1 si son complejos) y, por lo tanto, el método de descenso de gradiente simplemente convergerá en un solo paso, ya que el gradiente apunta directamente hacia el mínimo.

Si el número de condición es mayor que 1, entonces el gradiente ya no apunta al centro del círculo y el método toma una ruta como la línea verde de arriba (la gráfica anterior es para el residuo de invertir una matriz de 2 × 2). La línea roja, por el contrario, es el método de gradiente conjugado [2] que convergerá en n pasos para una matriz nxn.

Notas al pie

[1] Número de condición – Wikipedia

[2] Método de gradiente conjugado – Wikipedia

Si las filas son ortogonales y la matriz es cuadrada, simplemente transponga y multiplique. No hay necesidad de métodos iterativos …

More Interesting

¿Es esto verdadero o falso? Si [math] \ textbf {x} [/ math] y [math] \ textbf {y} [/ math] son ​​linealmente independientes, y si [math] \ {\ textbf {x}, \ textbf {y}, \ textbf {z} \} [/ math] es linealmente dependiente, entonces es [math] \ textbf {z} [/ math] en Span [math] \ {\ textbf {x}, \ textbf { y} \} [/ matemáticas]?

¿Cada multiplicación por una matriz es una transformación lineal y, por el contrario, puede cada transformación lineal ser representada por una matriz en R ^ n?

El momento es una cantidad vectorial. ¿Qué indica ser un vector sobre el impulso?

¿Cuál es la transposición de una matriz?

¿Cómo mostrarías que un determinante puede ser cero si y solo si sus filas son linealmente dependientes?

¿Es el universo un ejemplo de espacio vectorial?

¿Por qué es imposible definir un producto bilineal no trivial en un espacio vectorial general para que el resultado permanezca en el mismo espacio vectorial?

¿Cómo puede la multiplicidad geométrica superar la multiplicidad algebraica?

¿El álgebra lineal es importante para la ingeniería?

¿Qué fracción de las matrices NxN con elementos en F_3 no son singulares?

¿Qué es la resolución de vectores?

¿Por qué no es aceptable tomar un componente de un componente de un vector?

¿Cuál es una explicación de la DFT / FFT desde una perspectiva de álgebra lineal?

¿Hay alguna operación de matriz que pueda realizar (por ejemplo, multiplicación, cuadratura) en la matriz de un gráfico que corresponda a aspectos de la teoría de gráficos?

¿Cómo se vincula el polinomio característico con el determinante de una matriz?