¿Cuáles son algunas aplicaciones de valores propios y vectores propios?

La teoría de control puede usar vectores propios para determinar la controlabilidad u observabilidad de un sistema. Para ser justos, existen otros criterios para deducirlos sin usar vectores propios, pero el método del vector propio, llamado prueba Popov-Belevitch-Hautus (PBH), es bastante útil.

Específicamente, deje que un sistema lineal invariante en el tiempo satisfaga la DE

[matemáticas] \ dot {x} = Hacha + Bu [/ matemáticas]
[matemáticas] y = Cx + Du [/ matemáticas]

Aquí, [math] u [/ math] es la entrada del sistema, [math] y [/ math] es la salida, mientras que [math] x [/ math] es una especie de parámetro intermedio llamado estado del sistema. [matemática] x [/ matemática] y [matemática] y [/ matemática] son ​​vectores matemáticos [matemáticos] n [/ matemáticos], mientras que [matemática] u [/ matemática] es un vector dimensional [matemática] m [/ matemática] . [matemática] A [/ matemática] y [matemática] C [/ matemática] son ​​[matemática] n \ veces n [/ matemática] matrices cuadradas, mientras que [matemática] B [/ matemática] y [matemática] D [/ matemática] son matrices [math] n \ times m [/ math].

Un sistema es controlable si, siempre que tengo una salida en particular en mente, siempre puedo encontrar una entrada [math] u [/ math] para alimentar el sistema de modo que, eventualmente, mi salida aparezca en el vector [math] y [/ math ]

Un sistema es observable si puedo inferir el estado actual del sistema si observo sus salidas.

(Lo anterior son versiones bastante informales de definiciones más precisas, que se pueden encontrar en cualquier buen libro de texto de sistemas lineales. Sugiero Linear System Theory and Design de Chen).

Entonces, ¿cómo determino si un sistema es controlable u observable?

Criterio de controlabilidad : el sistema es controlable si y solo si no hay un vector propio izquierdo de [math] A [/ math] es ortogonal a todas las columnas de [math] B [/ math]. Es decir, para todas las [matemáticas] v [/ matemáticas] que satisfacen [matemáticas] A ^ T v = \ lambda v [/ matemáticas], [matemáticas] B ^ Tv \ ne 0 [/ matemáticas].

Criterio de observabilidad : el sistema es observable si y solo si no hay un vector propio derecho de [math] A [/ math] es ortogonal a todas las columnas de [math] C [/ math]. Es decir, para todos [matemática] x [/ matemática] satisfactoria [matemática] Ax = \ lambda x [/ matemática], [matemática] C ^ Tx \ ne 0 [/ matemática].

(Las pruebas de estos también se pueden encontrar en cualquier libro de texto de sistemas lineales como el que recomendé anteriormente).

Una aplicación es en teoría de sistemas, en particular en ecuaciones diferenciales lineales ordinarias. Suponga que tiene un sistema de ecuaciones del tipo

[matemáticas] \ dot {x} = A x [/ matemáticas]

donde x toma valores en [math] \ mathbb {R} ^ n [/ math] y A es una matriz constante de n por n. La solución de dicha ecuación a partir de [matemáticas] x (0) [/ matemáticas] lee

[matemáticas] x (t) = \ exp (At) x (0) [/ matemáticas]

Bueno, esta fórmula no es muy informativa cuando A no está estructurado. Sin embargo, si A es diagonalizable, siempre puede encontrar una transformación lineal T asociada a una matriz T cuyas columnas son los vectores propios [matemática] v_1, …, v_n [/ matemática] de A (con respecto a la base original). Además, tiene [matemáticas] AT = A [v_1 … v_n] = [Av_1 … Av_n] = T \ Lambda [/ matemáticas] siendo [matemáticas] \ Lambda = diag (\ lambda_1, …, \ lambda_n) [/ matemáticas] a matriz diagonal cuyas entradas diagonales son los valores propios de A.
Definiendo así el cambio de coordenadas [matemática] z = T ^ {- 1} x [/ matemática] luego del ODE se obtiene

[matemáticas] T ^ {- 1} \ dot {x} = \ dot {z} = T ^ {- 1} A x = T ^ {- 1} AT z [/ matemáticas]

y así en las nuevas coordenadas se lee el mismo ODE

[matemáticas] \ dot {z} = \ Lambda z, z (0) = T ^ {- 1} x (0) [/ matemáticas]

que es un sistema de n odas desacopladas.

En estas nuevas coordenadas (que es más o menos una base alineada con los vectores propios)

[matemáticas] z (t) = \ begin {pmatrix} e ^ {\ lambda_1 t} & & & \\ & e ^ {\ lambda_2 t} & & \\ & & \ ddots & \\ & & & e ^ {\ lambda_nt} \ end {pmatrix} z ​​(0) [/ math]

Aquí puede ver el comportamiento de cada componente independientemente de los demás. Por ejemplo, puede ver cuáles son las direcciones (cada vector propio define un subespacio 1d) en el que la solución diverge o cuáles son aquellas a lo largo de las cuales la solución converge a cero. Como [math] x = Tz [/ math], en las coordenadas originales, la solución será una combinación lineal de los “modos” que ve en las coordenadas z.
Entonces toma n = 2, y

[matemáticas] A = \ begin {pmatrix} -1 & 0 \\ – 2 & 1 \ end {pmatrix} [/ math]

los valores propios son [math] \ lambda_1 = 1, \ lambda_2 = -1 [/ math] y [math] T = \ begin {pmatrix} 0 & 1; 1 & 1 \ end {pmatrix} [/ math], por lo tanto en la z coordina las lecturas de la solución

[matemáticas] z (t) = \ begin {pmatrix} e ^ {t} & 0 \\ 0 & e ^ {- t} \ end {pmatrix} z ​​(0) = \ begin {pmatrix} e ^ {t} & 0 \\ 0 & e ^ {- t} \ end {pmatrix} T ^ {- 1} x (0) = \ begin {pmatrix} (x_ {02} -x_ {01}) e ^ {t} \ \ x_ {01} e ^ {- t} \ end {pmatrix} [/ math]

y

[matemáticas] x (t) = (x_ {02} -x_ {01}) e ^ {t} v_1 + x_ {01} e ^ {- t} v_2 [/ matemáticas]

desde el cual puede ver que x (t) tendrá un componente que desaparecerá a lo largo del espacio propio “estable” v_2 y uno divergente a lo largo del inestable v_1. Por lo tanto, a medida que el tiempo crezca hasta el infinito, la trayectoria se acercará al subespacio v_1.

Los valores propios y los vectores propios son un concepto hermoso en álgebra lineal.

Algunos de los usos directos se utilizan para la diagonalización de cualquier matriz, que se utiliza en muchas descomposiciones (escritura de matriz como producto de 2 matrices especiales, etc.) y para resolver ecuaciones diferenciales.

Las ecuaciones diferenciales se utilizan en todas partes, desde biología hasta economía y física.

Resonancia es un término muy vago, podría significar deslocalización de electrones (química), podría significar la situación de corriente máxima para el circuito LCR, podría significar ondas estables en una cuerda o en un tubo de órgano. En todos los casos, un análisis matemático de estos requiere resolver ecuaciones diferenciales que, cuando aumenta la complejidad, se resuelven con facilidad utilizando valores y vectores propios.

Todo el concepto de Álgebra lineal es bastante fascinante, se usa en muchas situaciones diversas, desde inteligencia artificial hasta lanzamiento de cohetes y para resolver la mecánica cotidiana.

Recomendaría explorar el campo si tiene suficiente interés / motivación.

Una gran aplicación de los valores propios y los vectores propios es en la teoría de grafos espectrales . Presentaré a continuación uno de los resultados más clásicos en esta área.

Sea [math] G [/ math] un gráfico no dirigido regular [math] d [/ math] con matriz de adyacencia [math] A [/ math] y matriz laplaciana normalizada [math] L = I – 1 / d * A [/ math] (donde [math] I [/ math] es la matriz de identidad). Deje que [math] \ lambda_1 \ leq \ lambda_2 \ leq \ ldots \ leq \ lambda_n [/ math] sean los valores propios reales de [math] L [/ math] con multiplicidades. Entonces:

  1. [matemática] \ lambda_1 = 0 [/ matemática] y [matemática] \ lambda_n \ leq 2 [/ matemática].
  2. [math] \ lambda_k = 0 [/ math] si y solo si [math] G [/ math] tiene al menos [math] k [/ math] componentes conectados.
  3. [math] \ lambda_n = 2 [/ math] si y solo si al menos uno de los componentes conectados de [math] G [/ math] es bipartito.

Algunos otros ejemplos (más complejos) son la construcción de gráficos expansores y caminatas aleatorias. Dejaré algunos enlaces que puede consultar si está interesado en obtener más información al respecto:

Sugeriría el análisis de componentes principales (PCA). Analiza la estructura de los valores propios y los vectores propios para hacer algunas cosas interesantes. Es realmente difícil dar una descripción completa de cómo se deriva y cómo se aplica, pero hablando en términos generales, le permite mirar en el espacio de los datos y le dice en qué dirección se concentra la información. Se utiliza para eliminar el ruido en los datos, reducir las dimensiones y comprimir archivos, etc.