A primera vista, la ecuación de valor propio [matemática] Ax = \ lambda x [/ matemática] parece algo misteriosa. ¿Por qué una relación aparentemente arbitraria debería tener una presencia ubicua en matemáticas, ciencias e ingeniería?
La intuición central es que los valores propios (y sus vectores propios correspondientes) proporcionan información valiosa sobre la estructura de un espacio vectorial subyacente que es extremadamente útil para resolver una serie de problemas. Esta afirmación es ciertamente vaga y / o ambigua, pero es de esperar que se aclare con la ayuda de algunos ejemplos. La esperanza es que estos ejemplos aclaren el principio de que los valores propios (y sus vectores propios correspondientes) descubren una “estructura subyacente útil”.
Aquí hay unos ejemplos:
1. Osciladores acoplados: un ejemplo canónico en mecánica es determinar el movimiento de un sistema que consiste en osciladores acoplados, dados los desplazamientos iniciales y las velocidades. La configuración típica es la siguiente:
- ¿Por qué necesitamos espacios vectoriales infinitos en física?
- Cómo demostrar que [math] tr (A) = a_ {11} + a_ {22} = \ lambda _1 + \ lambda _2 [/ math] para la matriz 2 × 2
- ¿Cuándo puede la eliminación gaussiana conducir a inestabilidades numéricas al resolver un sistema de ecuaciones lineales?
- ¿Qué significa cuando las matrices “conmutan”?
- ¿Importa la dirección de los vectores al calcular el ángulo entre ellos?
Escribir las leyes de Newton para este sistema produce la relación [matemática] Ax = \ ddot {x} [/ matemática], donde [matemática] x (t) \ in \ mathbb {R} ^ 2 [/ matemática] codifica las posiciones de [matemáticas] m_1 [/ matemáticas] y [matemáticas] m_2 [/ matemáticas] respectivamente; Este es un sistema acoplado ya que la ecuación diferencial de segundo orden para cada componente es una función de ambos componentes. ¿Cómo se ataca ese problema?
Bueno, si de alguna manera pudiéramos “desacoplar” este sistema, podríamos aprovechar las técnicas de solución bien desarrolladas para ecuaciones diferenciales ordinarias de segundo orden. “Desacoplar” el sistema es equivalente a realizar un cambio de base para que podamos reescribir el sistema como [math] Dx = \ ddot {x} [/ math], donde [math] D [/ math] es una matriz diagonal. ¡Resulta que podemos hacer eso usando valores propios y vectores propios!
La simetría física del problema se traduce en una matriz simétrica [matemática] A [/ matemática]. Por lo tanto, utilizando una base de vectores propios de [matemáticas] A [/ matemáticas] (que sabemos que existe por simetría de A), podemos reescribir el sistema anterior de ecuaciones diferenciales con [matemáticas] D [/ matemáticas] diagonal y los valores propios a lo largo ¡la diagonal, y mágicamente tenemos dos ecuaciones diferenciales independientes de segundo orden que podemos resolver usando la teoría estándar de ecuaciones diferenciales ordinarias de segundo orden! Para volver al sistema de coordenadas original, simplemente realice un cambio de base utilizando los vectores propios. De esto, derivamos que la solución final será una superposición de modos “normales”, que no son más que los vectores propios de [matemáticas] A [/ matemáticas].
Para resumir, los valores propios y los vectores propios correspondientes de [math] A [/ math] arrojaron por casualidad una idea de la estructura de [math] \ mathbb {R} ^ 2 [/ math] que fue hecha a medida para comprender el problema en cuestión.
2. Mecánica cuántica: los observables en mecánica cuántica son los valores propios de los operadores correspondientes. Asociada con cualquier partícula hay una función de onda [matemática] \ psi [/ matemática] que es de dimensión infinita, en contraste con el sistema de dimensión finita anterior. ¡La suma normalizada del cuadrado de los coeficientes de [math] \ psi [/ math] en una base propia da las probabilidades de observar la partícula en los estados de valor propio correspondientes! Ver ¿Son los operadores correspondientes a los observables en Mecánica Cuántica caracterizados matemáticamente? para una discusión interesante
3. Análisis de Fourier: a menudo es útil que los ingenieros descompongan una señal (digamos la corriente en un circuito) en varias “frecuencias” (digamos para construir un filtro). Esto equivale a encontrar la serie de Fourier de la señal, que es la representación de la señal como una superposición de funciones seno y coseno. Pero esta representación surge de un marco matemático más general y elegante que extiende el álgebra lineal de espacios vectoriales de dimensiones finitas a espacios vectoriales de dimensiones infinitas, es decir, espacios de funciones. (O señales, según sea el caso.) En el vernáculo del álgebra lineal, los coeficientes en una descomposición de la serie de Fourier son los coeficientes de la función expresada en una base ortogonal de las funciones seno y coseno, cuyos valores propios correspondientes corresponden a las “frecuencias” “de la señal.
Las funciones seno y coseno son en realidad vectores propios de un operador de teoría de Sturm-Liouville que es autoadjunto. Muy convenientemente, los vectores propios de un operador de Sturm-Liouville conservan las bonitas propiedades de los vectores propios de los operadores simétricos en el caso de dimensiones finitas, como la integridad y la ortogonalidad. Otras funciones “especiales” como las funciones de Bessel y los polinomios de Chebyschev son funciones propias de operadores particulares de Sturm-Liouville, que están motivadas por resolver la ecuación de calor y ondas en varios sistemas de coordenadas.
4. Cadenas de Markov discretas de estado finito: si [math] T [/ math] es la matriz de transición correspondiente a una cadena de Markov erduódica irreductible de estado finito, resulta que la probabilidad a largo plazo de que la cadena esté en uno de los estados es dado por el vector propio izquierdo correspondiente al valor propio uno, también conocido como distribución estacionaria. Una versión de Page Rank de Google modela a un usuario de Internet que navega por la web como una cadena de Markov, y clasifica las páginas en función de la probabilidad a largo plazo de que el usuario esté en la página calculando un vector propio (normalizado); ver
para más.
5. Análisis de componentes principales: Sea [math] A [/ math] una matriz [math] m [/ math] por [math] n [/ math] donde cada fila es un vector de referencia, y asuma por conveniencia que los datos son cero promedio (Por ejemplo, series de tiempo). Los componentes principales son aquellos elementos que “explican más la variación de los datos”. En el lenguaje de álgebra lineal, estos son vectores cuyas proyecciones sumadas de los datos sobre estos vectores se maximizan. De manera equivalente, tratamos de encontrar el vector unitario [math] x \ in \ mathbb {R} ^ n [/ math] que maximiza [math] || Ax || _2 \ leq || A || _2 || x || _2 [/ math] = [math] || A || _2 = || U \ sigma V ^ T || _2 = || \ sigma || _2 [/ math] (donde [math] \ sigma [/ math] es una matriz diagonal con valores singulares. El último paso se cumple porque [matemática] U [/ matemática] y [matemática] V ^ T [/ matemática] son unitarias y, por lo tanto, preservan las normas). El primer vector singular derecho alcanza claramente este límite superior (por definición) y, por lo tanto, es el primer componente principal. Restando esto de los datos y repitiendo el argumento, encontramos que el conjunto de vectores que “explican más la variación” de los datos son los vectores singulares correctos de [math] A [/ math]. De manera equivalente, estos son los vectores propios de [matemáticas] A ^ TA [/ matemáticas].
En esencia, nos quedamos con una base “adaptable a los datos” de vectores propios que capturan la mayor parte de la información en los datos. Los valores propios normalizados explican qué proporción de la variación de los datos se explica por el vector propio correspondiente.