Mucho más. De hecho, son equivalentes entre sí.
Dado un sistema
[matemáticas] Ax = b [/ matemáticas]
Nos gustaría tener un objeto llamado inverso de [math] A [/ math] denotado [math] A ^ {- 1} [/ math]. Al aplicarlo a ambos lados tenemos
- ¿Por qué debería importarme el concepto de pseudoinverso de una matriz?
- ¿Cuál es la relación matemática y conceptual entre el cambio de base y la diagonalización de una matriz en álgebra lineal?
- ¿Por qué las columnas de la matriz A son linealmente independientes cuando la única solución para Ax = 0 es x = 0?
- ¿Cuáles son las ventajas de usar vectores de columna en lugar de vectores de fila?
- ¿Cuáles son las ventajas de usar vectores de fila en lugar de vectores de columna?
[matemáticas] x = A ^ {- 1} b [/ matemáticas]
Esta es la solución al sistema. Sin embargo, también podemos abordarlo como un problema de minimización, la solución de mínimos cuadrados.
[matemáticas] \ min_x \ | Hacha – b \ | _2 [/ matemáticas]
Donde [matemáticas] \ | u \ | _2 = \ sqrt {\ sum_j u_j ^ 2} [/ math]
La [matemática] x [/ matemática] que es la solución a nuestro sistema lineal le da el mejor valor posible a nuestro funcional, que es cero.
Si nuestro sistema no tiene una solución exacta, nos gustaría encontrar un valor que sea lo suficientemente bueno. Todavía podemos usar la solución de mínimos cuadrados.
Si multiplicamos ambos lados de nuestro sistema lineal por el adjunto de [math] A [/ math] tendremos un sistema que tiene la misma solución si fuera solucionable. De lo contrario, dará la solución de mínimos cuadrados.
[matemáticas] A ^ {*} Hacha = A ^ {*} b [/ matemáticas]
La matriz de gramo [matemática] A ^ {*} A [/ matemática] siempre es invertible, por lo que al multiplicar ambos lados por el inverso tenemos
[matemáticas] \ hat {x} = (A ^ {*} A) ^ {- 1} A ^ {*} b [/ matemáticas]
Donde [math] \ hat {x} [/ math] es el minimizador de [math] \ | Axe – b \ | _2 [/ math]
Si denotamos
[matemáticas] A ^ {+} = (A ^ {*} A) ^ {- 1} A ^ {*} [/ matemáticas]
entonces tenemos eso
[matemáticas] \ hat {x} = A ^ {+} b [/ matemáticas]
Si [math] A [/ math] era invertible que [math] A ^ {+} = A ^ {- 1} [/ math], entonces es un pseudoinverso inverso generalizado. Este pseudo-inverso particular es el pseudo-inverso de Moore-Penrose. Es la aplicación de mínimos cuadrados al problema.
Supongamos que nuestra matriz [matemáticas] A [/ matemáticas] está mal condicionada. Si tratamos de resolver los mínimos cuadrados numéricamente, puede esperar que los errores se salgan de control. En casos como este, queremos regularizar nuestro problema. Una forma de hacerlo es la regularización de Tikhonov, donde en su lugar trabajaremos con el deseo de minimizar
[matemáticas] \ min_x \ | Hacha – b \ | _2 + \ alpha \ | x \ | _2 [/ matemáticas]
Tenemos un término de penalización adicional que asegura que [math] x [/ math] no sea demasiado grande. Cuanto más cerca [math] \ alpha [/ math] esté a cero, más se parecerá a la solución de mínimos cuadrados.
Haciendo lo mismo que arriba y tenemos
[matemáticas] \ hat {x} _ {\ alpha} = (A ^ {*} A + \ alpha ^ 2 I) ^ {- 1} A ^ {*} b = A ^ {+} _ {\ alpha} b [/ matemáticas]
Donde [math] A ^ {+} _ {\ alpha} [/ math] es un pseudo-inverso regularizado.
Mínimos cuadrados – Wikipedia
Inverso de Moore – Penrose – Wikipedia
Regularización de Tikhonov – Wikipedia