El análisis de componentes principales (PCA) es una gran aplicación para ilustrar el significado de vectores propios y valores propios, especialmente el vector propio correspondiente al valor propio más grande (este vector propio se denomina componente principal). Aquí hay tres conjuntos de puntos planos (puntos negros) y los vectores propios de sus matrices de covarianza.
El vector propio correspondiente al valor propio más grande proporciona la dirección que minimiza el desplazamiento medio cuadrado (error de reconstrucción) sobre los puntos de datos. En otras palabras, si tuviera que aproximar el conjunto de puntos por una línea recta, el componente principal da la mejor aproximación. Esto se ve mejor en el ejemplo más a la derecha, donde el conjunto de puntos es largo y delgado. Las distancias desde los puntos a la dirección del vector rojo más largo son pequeñas, mientras que las distancias a la dirección del vector más corto son grandes. En el ejemplo de la izquierda, el conjunto de puntos es esencialmente redondo, y los dos vectores rojos tienen la misma longitud. Por lo tanto, no importa cuál elija, e incluso podría tomar sus combinaciones lineales (norma uno). El ejemplo del medio es … en algún lugar entre los otros dos 🙂
Las cosas se vuelven más complicadas con los datos multidimensionales. Una vez que tenga la mejor aproximación en línea recta (el primer componente principal), puede buscar aproximar sus errores, es decir, encontrar una aproximación de dos vectores. En otras palabras, reste la aproximación de un vector de puntos individuales y repita todo. Esto le dará el segundo componente principal, y puede repetir este proceso. No hace falta decir que el último vector será menos útil si se considera por sí mismo.
En otros ejemplos, los valores propios se toman de otros tipos de matrices. Por ejemplo, el vector propio Perron – Frobenius (el que tiene el valor propio más grande) de la [matemática] K [/ matemática] -por- [matemática] K [/ matemática] La matriz de comparación por pares es una excelente manera de resolver preferencias contradictorias, si [math] N [/ math] las personas expresan sus preferencias por los equipos deportivos [math] K [/ math], pero cada persona solo compara un pequeño conjunto de parejas. Aquí, los elementos del vector propio correspondientes al valor propio superior le ayudan a clasificar los equipos deportivos [matemáticos] K [/ matemáticos].
- Cómo encontrar un vector perpendicular a otro vector
- ¿Cómo cambiaría la industria del software si se descubre un algoritmo que lleva a cabo la multiplicación matricial con una complejidad de O (n ^ 2)?
- Cómo multiplicar fácilmente dos matrices de cualquier tamaño
- ¿Cómo se llama la multiplicación de vectores donde cada componente de un vector se multiplica por cada componente de otro vector?
- ¿Es posible resolver [matemáticas] y (x-1) = – \ frac {6} {389} [/ matemáticas] donde [matemáticas] y = x \ mod {6} [/ matemáticas] para [matemáticas] x [ /matemáticas]?
De acuerdo con la teoría de grafos espectrales, los valores propios y los vectores propios de la matriz laplaciana de un gráfico reflejan diversa información de conectividad. Por ejemplo, el gráfico está conectado si y solo si el valor propio más pequeño (cero) tiene multiplicidad 1 (esto es fácil de ver, ya que la matriz tiene estructura de bloque para un gráfico desconectado). Para un gráfico conectado, el valor propio más pequeño distinto de cero está relacionado con el corte mínimo del gráfico, y los respectivos vectores propios divide los vértices para lograr este corte. El espectro del gráfico laplaciano, especialmente las multiplicidades de valores propios, está relacionado con las simetrías del gráfico.