Los subespacios de Krylov generalmente aparecen cuando se estudian métodos iterativos para resolver la ecuación lineal
[matemáticas] A \ vec {x} = \ vec {b} [/ matemáticas].
Los métodos iterativos le dan una regla para aplicar para obtener el siguiente elemento en la secuencia, dado el elemento actual.
Por ejemplo, el método de potencia es un método iterativo para encontrar los vectores propios correspondientes al valor propio más grande de una matriz [matemática] A [/ matemática]. Para aproximar la (s) solución (es) a [math] A \ vec {x} = \ lambda \ vec {x} [/ math], toma una conjetura inicial de [math] x_ {0} [/ math] y cada aproximación posterior del vector propio [math] \ vec {x} [/ math] viene dada por [math] \ vec {x_ {n + 1}} = \ frac {A \ vec {x_ {n}}} {x_ {n}} [/ matemáticas].
- Álgebra lineal: ¿Cuál es la intuición detrás de los ejes principales de una matriz?
- ¿Cuál es el registro de calcular un SVD de una matriz dispersa grande?
- ¿Cómo calculo la matriz de proyección que endereza un plátano?
- ¿Cuál es una explicación intuitiva para el significado de los vectores propios y los valores propios del laplaciano de un gráfico?
- Suponga que [math] \ mathbb {M} (n, R) [/ math] representa una clase de matrices cuadradas. Entonces el subconjunto S de [math] \ mathbb {M} (n, R) [/ math] tal que el valor absoluto de los valores propios de las matrices es menor o igual a 2. ¿S forma un espacio conectado?
Si la matriz [math] A [/ math] tiene ciertas propiedades agradables, se garantiza que este método converge al vector propio único que corresponde al valor propio más grande de [math] A [/ math].
Los métodos de Krylov son un tipo especial de método iterativo para resolver ecuaciones de la forma [math] A \ vec {x} = \ vec {b} [/ math], y las ecuaciones de valor propio son el caso especial donde [math] (A – \ mathbb {I}) \ vec {x} = \ vec {0} [/ math]. Los métodos de Krylov son especiales porque describen con precisión el * espacio * de posibles iteraciones en la secuencia dada por la conjetura inicial [math] x_ {0} [/ math] y la regla de iteración. Una vez que se identifica y caracteriza el espacio, los métodos utilizan la heurística de minimizar el error en la solución aproximada en el espacio de posibles soluciones, en cada paso. Pero no conocemos el error porque no conocemos la verdadera solución, ¡eso es lo que estamos tratando de calcular! En cambio, podemos usar el residual, que es nuestro sustituto del error. En el enésimo paso, el residuo es [matemáticas] \ vec {r} _ {n} = \ vec {b} – A \ vec {x} _ {n} = A (\ vec {x} – \ vec { x} _ {n}) [/ matemáticas].
El enésimo subespacio de Krylov asociado con la enésima iteración que está realizando está formado por el intervalo de:
[matemáticas] \ vec {r} _ {0} [/ matemáticas], [matemáticas] A \ vec {r} _ {0} [/ matemáticas]… [matemáticas] A ^ {n} r_ {0} [/ matemáticas ]
Los métodos de Krylov difieren en la forma en que definen la mejor o más óptima solución en el espacio de Krylov. Compare GMRES y Gradiente Conjugado para ver un ejemplo de lo que estoy hablando.
Para leer sobre estas cosas de verdad, recomiendo Matrix Calculations de Golub y Van Loan.