Álgebra lineal: ¿Por qué es importante la diagonalización de la matriz y para qué se utiliza?

Para calcular los valores propios es ampliamente utilizado

Permítanme compartir mis pensamientos sobre el mismo desde una perspectiva de ingeniería. Si tiene algún comentario al respecto, o si encuentra errores (por los cuales me disculpo de antemano), hágamelo saber.

¿Por qué los valores propios son especiales?

Permítanme enumerar algunas instancias en las que nos encontramos con el cálculo / resolución de un problema de valor propio generalizado de la forma,

[matemáticas] \ bf {A} \ vec {x} = \ lambda \ bf {B} \ vec {x} [/ matemáticas]

  1. Cálculo de frecuencias naturales y formas de modo en mecánica estructural
  2. Cálculo de frecuencias propias acústicas y modos correspondientes en acústica de cavidades como el interior de un automóvil
  3. Principales tensiones en mecánica de sólidos
  4. Momentos principales de inercia y ejes principales de rotación de un cuerpo rígido en dinámica 3D

Y la lista sigue y sigue…

Ahora, para calcular estos valores propios, la mayoría de las técnicas numéricas transformarán la matriz A hacia una forma diagonal mediante una secuencia de transformación de similitud como

[matemáticas] A \ rightarrow Z_ {1} ^ {- 1} A Z_ {1} \ rightarrow Z_ {2} ^ {- 1} Z_ {1} ^ {- 1} A Z_ {1} Z_ {2} \ flecha derecha Z_ {3} ^ {- 1} Z_ {2} ^ {- 1} Z_ {1} ^ {- 1} A Z_ {1} Z_ {2} Z_ {3} [/ matemáticas]

Ejemplo: Iteración de Jacobi.

¿Qué es la transformación de similitud?

La transformación de similitud de la matriz [math] \ bf {A} [/ math] se define de la siguiente manera,
[matemáticas] A \ rightarrow Z ^ {- 1} AZ [/ matemáticas]

Se puede demostrar que los valores de Eigen seguirán siendo los mismos después de esta transformación.

La ecuación característica de la nueva matriz es la misma que la de la matriz original [math] \ bf {A} [/ math]

[matemática] \ det (Z ^ {- 1} A Z- \ lambda I) = 0 [/ matemática]

[matemáticas] \ det (Z ^ {- 1} A Z- \ lambda Z ^ {- 1} Z) = 0 [/ matemáticas]

[matemáticas] \ det (Z ^ {- 1} (A- \ lambda I) Z) = 0 [/ matemáticas]

[matemática] \ det (Z ^ {- 1}) \ det (A- \ lambda I) \ det (Z) = 0 [/ matemática]

[matemáticas] \ det (A- \ lambda I) = 0 [/ matemáticas]

Cualquier matriz con vectores propios completos puede ser diagonalizada por una transformación de similitud. Las columnas de la matriz de transformación son los vectores propios.

Los elementos de la matriz diagonal final son los valores propios de la matriz A.

La propiedad característica de una matriz son sus valores propios y sus vectores propios. Muchas propiedades de las matrices y soluciones a ecuaciones diferenciales lineales de matrices dependen de estos valores y vectores propios.

Y Wikipedia dice “… las matrices y mapas diagonales son de interés porque las matrices diagonales son especialmente fáciles de manejar: sus valores propios y vectores propios son conocidos y uno puede elevar una matriz diagonal a una potencia simplemente elevando las entradas diagonales a esa misma potencia …” Entonces, cuando podemos tratar con matrices digitalizables de una manera particular, le gustaría saber si está seguro de obtener una en un escenario particular.

Dichas propiedades especiales de las matrices ayudan en los algoritmos de diseño y los códigos de diseño que los utilizan. El álgebra lineal es propicio para la programación, ya que los elementos esenciales del problema se abstraen y la solución se puede lograr mediante un procedimiento.

Siento que esta comprensión es mucho más importante que simplemente mostrar la interdependencia del uso de un concepto con otro. La motivación detrás de algunos conceptos de álgebra lineal se puede ver fácilmente en la capacidad de programación.

Un tema común del álgebra lineal es la factorización matricial: la capacidad de reescribir matrices en formas que sean convenientes para una situación particular. Diagnóstico, es decir, factorizar una matriz [matemática] A [/ matemática] en el triple [matemática] X \ Lambda X ^ {- 1} [/ matemática] donde [matemática] X [/ matemática] es una matriz de vectores propios y [matemática ] \ Lambda [/ math] es diagonal es más o menos lo primero que ves. Es útil para una serie de aplicaciones, incluida la resolución de sistemas de EDO lineal utilizando el método de integración de factores. Es decir, oda de la forma

[matemáticas] \ dot u = A u + F (u, t) [/ matemáticas]

donde [matemáticas] A [/ matemáticas] es diagnosticable. Una generalización de diagnóstico llamada Jordan Canonical Form caracteriza a todas las matrices y es una herramienta increíblemente poderosa para pruebas y cálculos manuales.

Otras factorizaciones matriciales incluyen la descomposición del valor singular, la factorización QR (es decir, Grahm Schmidt), la factorización LU (es decir, la eliminación gaussiana) y la forma polar (aproximadamente análoga a [matemáticas] z = re ^ {i \ theta}). [/matemáticas]

Porque una matriz representa un mapa lineal. Tanto los vectores propios como los valores propios producen mucha información sobre la función. Esto es útil más allá del álgebra lineal. Por ejemplo en ecuaciones diferenciales.

Para hacer mecánica cuántica ingenua, naturalmente