Resolver sistemas de ecuaciones lineales es uno de los caballos de batalla sólidos de la computación numérica. Se utiliza en todas partes, desde la geometría (por ejemplo, gráficos, juegos, navegación), hasta el modelado de sistemas físicos (por ejemplo, simulación del clima, dinámica de fluidos, reacciones químicas), análisis estadísticos y más.
Sin embargo, hay un secreto sucio que debes tener en cuenta: en el mundo real, a menos que sea una excepción, casi nunca invertimos una matriz. De hecho, hacemos todo lo posible por evitarlo si podemos, especialmente si es más grande que aproximadamente 4 por 4. Hacemos algo más. Hacemos cualquier otra cosa , de hecho.
La razón clave para esto es que si [math] A [/ math] es su matriz, por lo general no quiere saber el inverso de [math] A [/ math]. Lo que realmente quieres es la solución a una ecuación [matemática] Ax = b [/ matemática], posiblemente para más de una [matemática] b [/ matemática]. Puede resolver esto invirtiendo [matemática] A [/ matemática], pero generalmente es más barato y más estable numéricamente para tratar de resolver el problema que realmente está tratando de resolver de otra manera.
Existen varios métodos para resolver sistemas lineales. Si tiene un problema de propósito general, normalmente usaría la eliminación gaussiana (con pivote) si necesita resolver un solo sistema, o la descomposición LU si tiene una [matemática] [/ matemática] y más de una [matemática] b [/ matemáticas]. Sin embargo, la matriz a veces tiene una estructura especial que hace que otros métodos sean más apropiados.
- ¿Alguien puede explicar ecuaciones lineales? ¿Los que tienen pendientes, intersecciones y gráficos?
- ¿Cuál es la forma más rápida de aprender álgebra lineal?
- ¿Por qué la matriz de Hesse se llama “Hesse”?
- ¿Cuál es una buena explicación de los subespacios de Krylov?
- Álgebra lineal: ¿Cuál es la intuición detrás de los ejes principales de una matriz?
Por ejemplo, a menudo te encuentras con una matriz que es extremadamente escasa. El inverso de una matriz dispersa suele ser denso, lo que significa que se necesita una cantidad significativamente mayor de almacenamiento para mantener el inverso que la matriz original.
O la matriz puede ser simétrica; Esto puede surgir naturalmente de los sistemas físicos que obedecen la segunda ley de Newton. O podría ser diagonalmente dominante. O podría tener una estructura de dispersión que refleje la geometría del problema (por ejemplo, considere dividir el espacio en “celdas”, donde las celdas solo interactúan con sus vecinos). Para cada tipo especial de matriz, hay media docena de métodos viables para resolver sistemas lineales de ese tipo.
Se ha dicho que el análisis numérico está encontrando soluciones a nivel de doctorado para problemas que pueden expresarse utilizando conceptos de nivel secundario, y la computación matricial no es diferente.