¿Por qué importan los valores propios? ¿Cuáles son sus aplicaciones en el mundo real?

A primera vista, la ecuación de valor propio [matemática] Ax = \ lambda x [/ matemática] parece algo misteriosa. ¿Por qué una relación aparentemente arbitraria debería tener una presencia ubicua en matemáticas, ciencias e ingeniería?

La intuición central es que los valores propios (y sus vectores propios correspondientes) proporcionan información valiosa sobre la estructura de un espacio vectorial subyacente que es extremadamente útil para resolver una serie de problemas. Esta afirmación es ciertamente vaga y / o ambigua, pero es de esperar que se aclare con la ayuda de algunos ejemplos. La esperanza es que estos ejemplos aclaren el principio de que los valores propios (y sus vectores propios correspondientes) descubren una “estructura subyacente útil”.

Aquí hay unos ejemplos:

1. Osciladores acoplados: un ejemplo canónico en mecánica es determinar el movimiento de un sistema que consiste en osciladores acoplados, dados los desplazamientos iniciales y las velocidades. La configuración típica es la siguiente:

Escribir las leyes de Newton para este sistema produce la relación [matemática] Ax = \ ddot {x} [/ matemática], donde [matemática] x (t) \ in \ mathbb {R} ^ 2 [/ matemática] codifica las posiciones de [matemáticas] m_1 [/ matemáticas] y [matemáticas] m_2 [/ matemáticas] respectivamente; Este es un sistema acoplado ya que la ecuación diferencial de segundo orden para cada componente es una función de ambos componentes. ¿Cómo se ataca ese problema?

Bueno, si de alguna manera pudiéramos “desacoplar” este sistema, podríamos aprovechar las técnicas de solución bien desarrolladas para ecuaciones diferenciales ordinarias de segundo orden. “Desacoplar” el sistema es equivalente a realizar un cambio de base para que podamos reescribir el sistema como [math] Dx = \ ddot {x} [/ math], donde [math] D [/ math] es una matriz diagonal. ¡Resulta que podemos hacer eso usando valores propios y vectores propios!

La simetría física del problema se traduce en una matriz simétrica [matemática] A [/ matemática]. Por lo tanto, utilizando una base de vectores propios de [matemáticas] A [/ matemáticas] (que sabemos que existe por simetría de A), podemos reescribir el sistema anterior de ecuaciones diferenciales con [matemáticas] D [/ matemáticas] diagonal y los valores propios a lo largo ¡la diagonal, y mágicamente tenemos dos ecuaciones diferenciales independientes de segundo orden que podemos resolver usando la teoría estándar de ecuaciones diferenciales ordinarias de segundo orden! Para volver al sistema de coordenadas original, simplemente realice un cambio de base utilizando los vectores propios. De esto, derivamos que la solución final será una superposición de modos “normales”, que no son más que los vectores propios de [matemáticas] A [/ matemáticas].

Para resumir, los valores propios y los vectores propios correspondientes de [math] A [/ math] arrojaron por casualidad una idea de la estructura de [math] \ mathbb {R} ^ 2 [/ math] que fue hecha a medida para comprender el problema en cuestión.

2. Mecánica cuántica: los observables en mecánica cuántica son los valores propios de los operadores correspondientes. Asociada con cualquier partícula hay una función de onda [matemática] \ psi [/ matemática] que es de dimensión infinita, en contraste con el sistema de dimensión finita anterior. ¡La suma normalizada del cuadrado de los coeficientes de [math] \ psi [/ math] en una base propia da las probabilidades de observar la partícula en los estados de valor propio correspondientes! Ver ¿Son los operadores correspondientes a los observables en Mecánica Cuántica caracterizados matemáticamente? para una discusión interesante

3. Análisis de Fourier: a menudo es útil que los ingenieros descompongan una señal (digamos la corriente en un circuito) en varias “frecuencias” (digamos para construir un filtro). Esto equivale a encontrar la serie de Fourier de la señal, que es la representación de la señal como una superposición de funciones seno y coseno. Pero esta representación surge de un marco matemático más general y elegante que extiende el álgebra lineal de espacios vectoriales de dimensiones finitas a espacios vectoriales de dimensiones infinitas, es decir, espacios de funciones. (O señales, según sea el caso.) En el vernáculo del álgebra lineal, los coeficientes en una descomposición de la serie de Fourier son los coeficientes de la función expresada en una base ortogonal de las funciones seno y coseno, cuyos valores propios correspondientes corresponden a las “frecuencias” “de la señal.

Las funciones seno y coseno son en realidad vectores propios de un operador de teoría de Sturm-Liouville que es autoadjunto. Muy convenientemente, los vectores propios de un operador de Sturm-Liouville conservan las bonitas propiedades de los vectores propios de los operadores simétricos en el caso de dimensiones finitas, como la integridad y la ortogonalidad. Otras funciones “especiales” como las funciones de Bessel y los polinomios de Chebyschev son funciones propias de operadores particulares de Sturm-Liouville, que están motivadas por resolver la ecuación de calor y ondas en varios sistemas de coordenadas.

4. Cadenas de Markov discretas de estado finito: si [math] T [/ math] es la matriz de transición correspondiente a una cadena de Markov erduódica irreductible de estado finito, resulta que la probabilidad a largo plazo de que la cadena esté en uno de los estados es dado por el vector propio izquierdo correspondiente al valor propio uno, también conocido como distribución estacionaria. Una versión de Page Rank de Google modela a un usuario de Internet que navega por la web como una cadena de Markov, y clasifica las páginas en función de la probabilidad a largo plazo de que el usuario esté en la página calculando un vector propio (normalizado); ver

para más.

5. Análisis de componentes principales: Sea [math] A [/ math] una matriz [math] m [/ math] por [math] n [/ math] donde cada fila es un vector de referencia, y asuma por conveniencia que los datos son cero promedio (Por ejemplo, series de tiempo). Los componentes principales son aquellos elementos que “explican más la variación de los datos”. En el lenguaje de álgebra lineal, estos son vectores cuyas proyecciones sumadas de los datos sobre estos vectores se maximizan. De manera equivalente, tratamos de encontrar el vector unitario [math] x \ in \ mathbb {R} ^ n [/ math] que maximiza [math] || Ax || _2 \ leq || A || _2 || x || _2 [/ math] = [math] || A || _2 = || U \ sigma V ^ T || _2 = || \ sigma || _2 [/ math] (donde [math] \ sigma [/ math] es una matriz diagonal con valores singulares. El último paso se cumple porque [matemática] U [/ matemática] y [matemática] V ^ T [/ matemática] son ​​unitarias y, por lo tanto, preservan las normas). El primer vector singular derecho alcanza claramente este límite superior (por definición) y, por lo tanto, es el primer componente principal. Restando esto de los datos y repitiendo el argumento, encontramos que el conjunto de vectores que “explican más la variación” de los datos son los vectores singulares correctos de [math] A [/ math]. De manera equivalente, estos son los vectores propios de [matemáticas] A ^ TA [/ matemáticas].

En esencia, nos quedamos con una base “adaptable a los datos” de vectores propios que capturan la mayor parte de la información en los datos. Los valores propios normalizados explican qué proporción de la variación de los datos se explica por el vector propio correspondiente.

Los valores de Eigen y el vector de Eigen son importantes porque lo estamos usando en todas partes

Estos son los usos de vectores propios y valores propios :

  • Usando la descomposición de valores singulares para la compresión de imágenes. Esta es una nota que explica cómo puede comprimir e imágenes desechando los pequeños valores propios de AAT. Toma una imagen de 8 megapíxeles de un Allosaurus y muestra cómo se ve la imagen después de la compresión seleccionando 1,10,25,50,100 y 200 de los valores singulares más grandes.
  • Derivar la relatividad especial es más natural en el lenguaje del álgebra lineal. De hecho, el segundo postulado de Einstein realmente afirma que “la luz es un vector propio de la transformación de Lorentz”. Este documento repasa la derivación completa en detalle.
  • Agrupación espectral. Ya sea en plantas y biología, imágenes médicas, negocios y marketing, comprender las conexiones entre los campos en Facebook, o incluso la criminología, la agrupación es una parte extremadamente importante del análisis de datos moderno. Permite a las personas encontrar subsistemas o patrones importantes dentro de conjuntos de datos ruidosos. Uno de estos métodos es la agrupación espectral que utiliza los valores propios de un gráfico de una red. Incluso el vector propio del segundo valor propio más pequeño de la matriz laplaciana nos permite encontrar los dos grupos más grandes en una red.
  • Reducción de dimensionalidad / PCA. Los componentes principales corresponden a los valores propios más grandes de ATA y esto produce la proyección menos cuadrada en un hiperplano dimensional más pequeño, y los vectores propios se convierten en los ejes del hiperplano. La reducción de la dimensionalidad es extremadamente útil en el aprendizaje automático y el análisis de datos, ya que permite comprender de dónde proviene la mayor parte de la variación de los datos.
  • Factorización de bajo rango para predicción colaborativa. Esto es lo que hace Netflix (o lo hizo una vez) para predecir qué calificación tendrá para una película que aún no ha visto. Utiliza el SVD y arroja los valores propios más pequeños de ATA
  • El algoritmo de Google Page Rank. El vector propio más grande del gráfico de Internet es cómo se clasifican las páginas.
  • En la teoría de control y los sistemas dinámicos, tiene descomposición modal, que es una herramienta muy útil para crear rápidamente la ecuación dinámica para un sistema dado (de la vida real).

Dado un sistema de ecuación diferencial:

x˙ (t) = Ax (t), x (0) = xo, A

tiene valores propios distintos

Entonces la solución a esta ecuación se da como:

x (t) = ∑i = 1ncieλitvi

donde ci

son el coeficiente correspondiente a la condición inicial x (0), vi es el iésimo vector propio y λi es el iésimo valor propio, no hace falta decir vi, λi

forma un par

La interpretación física es que la solución corresponde a la respuesta no forzada / natural del sistema y se utiliza para analizar modelos de puentes, circuitos RC, amortiguadores de resorte de masa, suspensión magnética, dinámica de fluidos, acústica, modelos de neuronas …

Además, podemos ver el valor propio de la A

matriz para determinar la estabilidad del sistema. Si todos los valores propios se encuentran en el semiplano izquierdo abierto, entonces la matriz A se conoce simplemente como Hurwitz (un resultado de álgebra lineal completamente separado del sistema dinámico), y el sistema es asintóticamente estable. De lo contrario, tendrá un estado que nunca será cero o explotará a medida que el tiempo llegue al infinito.

Si esto no es suficiente, consulte estos enlaces:

  • ¿Cuáles son algunos de los usos muy buenos y prácticos de los valores propios de una matriz?
  • Aplicación de valores de Eigen y vectores de Eigen

Yo diría lo siguiente, para resumir todo lo anterior.
Las matrices pueden ser objetos muy complicados que son difíciles.
de usar, difícil de almacenar en la memoria y en problemas prácticos
muy muy grande

Los valores propios / vectores propios permiten capturar algunos elementos esenciales
características de su sistema en un solo valor y un vector. Esta
es más simple que una matriz N x N

Por eso es importante en big data y estadísticas para la dimensionalidad.
reducción. También importante en física: la naturaleza es esencialmente reveladora
usted que no es tan complicado y una o más frecuencias
descríbelo (piensa en un átomo de hidrógeno, piensa en un instrumento musical).

Al mismo tiempo, el valor propio / vector propio no entra en el
formulación básica de física, física cuántica, estadística, etc.
Son simplemente una herramienta de simplificación útil, que puede o no
trabajar dependiendo del problema que esté considerando.

Los valores propios (y los vectores propios correspondientes) son posiblemente la propiedad más importante en la visión por computadora y / o el procesamiento de imágenes y también en la dinámica de movimiento no lineal.

No puedo enumerar todas las aplicaciones para resaltar su importancia, pero aquí hay algunas con las que trabajo personalmente todos los días:
1: coincidencia imagen-imagen
Puede llevar a:
2: seguimiento basado en imágenes
Puede llevar a:
3: reconstrucción 3D
4: seguimiento de objetivos múltiples (algunas cosas interesantes aquí, como encontrar la posición del vehículo explorador Marte en Marte, por ejemplo)

Esta fue probablemente una lista muy simplificada y limitada de aplicaciones, pero podría darle una idea de cuántas cosas a su alrededor usan esta increíble propiedad (vea Google Maps 3D …) de resumir matrices grandes que de otra manera parecerían un montón de números perfectamente ordenados.

Los autovalores y los vectores “resumen” muy bien los datos de su matriz. Naturalmente conduce a representaciones pictóricas de lo que es una matriz de covarianza (también una propiedad importante para calcular en mi campo). Recuerdo que estaba en una clase introductoria donde el instructor intentó explicar teóricamente qué valores propios son durante 30 minutos solo para mostrarnos una figura con algunos datos aleatorios y una elipse que resumía la tendencia en los datos. Tardó unos 20 segundos para tener una idea intuitiva de lo que se está calculando usando cálculos complejos (parecían en ese momento) (las personas ya han señalado la complejidad computacional real)

Y esa es la parte más maravillosa de los valores propios. Se pueden explicar utilizando la explicación más no técnica porque el concepto es absolutamente intuitivo. Simplemente observando un valor propio particular (y, por supuesto, el rango de valores) puede saber si está tratando con una “esquina” o un “borde” en una imagen o observando cómo se distribuyen sus datos en algún espacio arbritario. saber si algo va mal o convencerse de que su filtro está funcionando bien y que no terminará bloqueando el rover de Marte.

PD: Particularmente omití los detalles técnicos porque la mayoría de lo que dije se puede consultar y, lo que es más importante, la respuesta no técnica es una de las cosas que nunca deja de sorprenderme todos los días.

Voy a citar el tratamiento de Yoshua Bengio de los valores propios. Ayudó a consolidar la naturaleza y la importancia de la descomposición propia.
 

Muchos objetos matemáticos se pueden entender mejor dividiéndolos en partes constituyentes, o encontrando algunas propiedades de ellos que son universales, no causadas por la forma en que elegimos representarlos.

Por ejemplo, los enteros se pueden descomponer en factores primos. La forma en que representamos el número 12 cambiará dependiendo de si lo escribimos en base diez o en binario, pero siempre será cierto que 12 = 2 × 2 × 3.
De esta representación podemos concluir propiedades útiles, como que 12 no es divisible por 5, o que cualquier múltiplo entero de 12 será divisible por 3.

Por mucho que podamos descubrir algo sobre la verdadera naturaleza de un número entero descomponiéndolo en factores primos, también podemos descomponer las matrices de manera que nos muestren información sobre sus propiedades funcionales que no es obvia a partir de
La representación de la matriz como un conjunto de elementos.
Uno de los tipos de descomposición matricial más utilizados se llama descomposición propia, en la que descomponemos una matriz en un conjunto de vectores propios y valores propios.

El problema con preguntas como esta es que es como preguntar “¿Por qué importa la letra p ?” Sin las otras 25 letras, no es de mucha utilidad; tienes que usar todas (o al menos la mayoría) de las letras juntas simultáneamente para hacer algo. Por supuesto, podría intentar responder diciendo: “Bueno, sin p , no puedes hablar de sellos o manzanas “, pero (1) si aún no estás familiarizado con todas las otras letras en esas palabras, no ayuda mucho y (2) la importancia de la letra p se extiende mucho más allá del franqueo y la fruta, por lo que tal respuesta sería engañosa en el mejor de los casos.

Los vectores propios y los valores propios son la teoría de la estructura de los mapas lineales. Para explicar por qué los mapas lineales son importantes, tendría que enseñarle cálculo, ecuaciones diferenciales, estadísticas matemáticas, análisis funcional, métodos numéricos, etc. Pero basta con decir que casi cualquier problema matemático que podamos aplicar al mundo real implica convertir cosas en mapas lineales y luego trabajando con esos mapas lineales.

Hay una simple razón de complejidad computacional que no se ha mencionado en las respuestas anteriores: es mucho más rápido calcular la acción de una matriz en vectores propios que en otros vectores.

Digamos que tiene una matriz cuadrada [matemática] A [/ matemática] de tamaño [matemática] n [/ matemática]. Sin ninguna suposición en el vector de columna [matemática] x [/ matemática] que tiene entradas [matemática] n [/ matemática], calcular [matemática] A x [/ matemática] costará [matemática] O (n ^ 2) [/ operaciones matemáticas], ya que se necesitan [matemáticas] O (n) [/ matemáticas] para cada una de las entradas [matemáticas] n [/ matemáticas] del vector resultante.

Sin embargo, si sabe que [math] x [/ math] es un vector propio de [math] A [/ math], digamos para el valor propio [math] \ lambda [/ math], computando [math] \ lambda x = A x [/ math] solo costará operaciones [math] O (n) [/ math].

Hay inconvenientes en este argumento, ya que encontrar todos los vectores propios suele ser más costoso desde el punto de vista computacional ( por ejemplo, típicamente [matemática] O (n ^ 3) [/ matemática] para matrices simétricas reales, a través del algoritmo de valor propio de Jacobi).

La misma idea se aplica al poder de las matrices. En general, la computación [matemática] A ^ k [/ matemática] cuesta mucho [matemática] O (kn ^ 3) [/ matemática]. Pero para una matriz diagonal, el costo es [matemática] O (n) [/ matemática], y para una matriz diagonalizable no diagonal [matemática] O (n ^ 3) [/ matemática]. Tenga en cuenta que en los últimos casos, el costo es constante con respecto a la potencia [matemática] k [/ matemática].

Para los sistemas de control, los valores propios pueden usarse para determinar si un sistema es estable y determinar cómo estabilizar un sistema inestable.

Los valores propios se usan mucho en las estadísticas para reducir el espacio de dimensión y / o rotar combinaciones lineales de variables para que se correspondan con los atributos del mundo real (Análisis de componentes principales y Análisis de factores)
Un ejemplo del mundo real sería su uso en la compresión de imágenes y el reconocimiento facial, que creo que son dos temas muy candentes en informática.
Cara propia

Valores propios y vectores propios

Tiene muchos ejemplos y lo explica mucho mejor de lo que puedo

Una aplicación importante de los valores propios es el modelado de poblaciones de una especie. Si tiene una cadena de Markov y encuentra los valores propios de la matriz de transición, puede averiguar cuándo la población alcanza una posición de equilibrio (por ejemplo, la población no cambia después de este punto).

Puedes mirar este enlace: ¿Por qué importan los valores propios? ¿Cuáles son sus aplicaciones en el mundo real? para respuestas