Esta es una pregunta increíblemente amplia. Esencialmente, casi todo lo que haces en álgebra lineal es una descomposición de alguna manera. Aunque, hay algunas descomposiciones que surgen con mayor frecuencia que no.
- Descomposición LU : esta es la eliminación gaussiana. La L es una matriz triangular inferior, U es una matriz triangular superior. La U es una forma escalonada de fila de la matriz, y la L son los pasos de eliminación gaussianos (sin intercambios de fila) que lo llevaron a U.
También hay opciones para intercambiar filas y / o columnas, también conocidas como la capacidad de “pivotar” (fila, columna o pivote completo) y las variaciones incluyen la factorización de LDU, donde D es una matriz diagonal. Hay muchos algoritmos que pueden hacer esto, y realmente depende de lo que necesite. - Descomposición QR: esta factorización es la ortonomalización de las columnas de la matriz. Q es una matriz unitaria que son las columnas ortonormalizadas, y R es una matriz triangular derecha (superior) que expresa cómo cada una de las columnas de Q puede recombinarse para encontrar las columnas originales de la matriz.
Esto es increíblemente útil, y es la pieza central en el “Algoritmo QR”, así como también útil para encontrar el pseudo-inverso de una matriz y encontrar la Descomposición del valor singular. Una variación es el algoritmo RRQR (ranking reveling QR), que incluye un pivote de columna y se puede usar para encontrar la nulidad, el rango y la ortonormilización del núcleo y la imagen de una matriz.
Una vez más, la factorización QR tiene muchos algoritmos y, una vez más, depende de lo que esté haciendo. (Por ejemplo, preferiría usar el proceso de Gram-Schmidt si tuviera que resolver este papel y lápiz, pero las rotaciones de Given son mucho mejores en una computadora de procesamiento en paralelo) - SVD (Descomposición de valor singular): esta es una forma de expresar una matriz en términos de cuánto expande el espacio lineal y cómo rota el espacio también. Un SVD es una matriz en la forma [matemática] U \ Sigma V ^ {*} [/ matemática]. [math] \ Sigma [/ math] es una matriz diagonal que representa los factores de escala de una matriz, y U y V representan rotaciones antes y después de la escala. Wikipedia tiene una buena visualización de esto para el caso 2 × 2:
Esto se puede utilizar para una gran cantidad de aplicaciones, incluidas estadísticas, procesamiento de señales, predicción del clima, sitios web de citas, etc. Como resulta, para cualquier matriz Hermitiana (o cualquier matriz igual a su transposición conjugada), esto es lo mismo como la descomposición propia (que llegaré en un minuto).
Hay un puñado de métodos para calcular el SVD, y aún más formas si cuenta las formas de obtener las magnitudes de los valores más grandes en la matriz diagonal. (Cuadrados de estos son los “componentes principales”, utilizados en el análisis de componentes principales). - Descomposición propia: esta es probablemente la descomposición más importante. La matriz se descompone en [matemática] Q \ Lambda Q ^ {- 1} [/ matemática], donde Q es una matriz de los “vectores propios” (como columnas), y [matemática] \ Lambda [/ matemática] es una diagonal matriz de los “valores propios”.
Los elementos de [math] \ Lambda [/ math] son raíces del polinomio característico de la matriz: [math] det (\ lambda I – M) [/ math]. La razón por la que este tipo es tan importante es porque rompe la matriz para que actúe más como un escalar. Es decir, para cada vector propio [matemática] q [/ matemática], hay algún valor propio [matemática] \ lambda [/ matemática] tal que [matemática] Mq = \ lambda q [/ matemática]. Además, los vectores propios abarcan el espacio, por lo que puede expresar CUALQUIER vector como una suma de vectores propios, distribuir la matriz a través de la suma, usar la identidad anterior para escalar cada uno de los componentes por el valor propio correspondiente, y luego recombinar los componentes. Esto puede resultar en una multiplicación iterada mucho más rápida y puede ser una buena forma cerrada para ciertas secuencias y operaciones iteradas. (Por ejemplo, la forma cerrada de la secuencia de Fibonacci, también conocida como la fórmula de Binet, se puede encontrar de esta manera).
Aunque todo esto es muy bueno, la descomposición propia solo se puede hacer si la matriz es diagonalizable y cuadrada. Sin embargo, la “descomposición propia generalizada” puede resolver al menos el problema diagonalizable. En su lugar, representa [math] \ Lambda [/ math] como una matriz de “diagonal de bloque”, donde hay reglas sobre cuáles pueden ser los bloques en [math] \ Lambda [/ math]. (Específicamente, los bloques son matrices 1 × 1 o matrices bidiagonales con solo unas en el superdiagonal y el mismo valor propio a lo largo de la diagonal. No entraré en detalles sobre por qué esto es así, pero es interesante analizarlo)
En general, esto es algo difícil de calcular. Hay, una vez más, varias formas de hacerlo, y se trata de lo que necesita y lo que tiene. Para matrices de más de 5 × 5, casi siempre tiene que usar métodos numéricos, ya que generalmente no existe una forma cerrada radical para los valores propios. Un ejemplo de un método numérico relativamente simple es el algoritmo QR mencionado en la sección “Descomposición QR”. Otro método (generalmente enseñado como el camino a seguir en pregrado) es calcular el polinomio característico, extraer sus raíces y luego usar esas raíces para encontrar los valores propios correspondientes a través de algún tipo de algoritmo de búsqueda de kernel.
Hay varias descomposiciones más, algoritmos y solo conceptos de álgebra lineal que no mencioné aquí que son directamente relevantes, pero para eso son los cursos de álgebra lineal. 😀