¿Qué representan los vectores propios en la vida real? Además de las matemáticas y la idea de reducir o extender un sistema a una dirección particular, ¿hay alguna situación de la vida real que aclare la idea? ¿Qué hacen realmente los vectores propios?

El análisis de componentes principales (PCA) es una gran aplicación para ilustrar el significado de vectores propios y valores propios, especialmente el vector propio correspondiente al valor propio más grande (este vector propio se denomina componente principal). Aquí hay tres conjuntos de puntos planos (puntos negros) y los vectores propios de sus matrices de covarianza.

El vector propio correspondiente al valor propio más grande proporciona la dirección que minimiza el desplazamiento medio cuadrado (error de reconstrucción) sobre los puntos de datos. En otras palabras, si tuviera que aproximar el conjunto de puntos por una línea recta, el componente principal da la mejor aproximación. Esto se ve mejor en el ejemplo más a la derecha, donde el conjunto de puntos es largo y delgado. Las distancias desde los puntos a la dirección del vector rojo más largo son pequeñas, mientras que las distancias a la dirección del vector más corto son grandes. En el ejemplo de la izquierda, el conjunto de puntos es esencialmente redondo, y los dos vectores rojos tienen la misma longitud. Por lo tanto, no importa cuál elija, e incluso podría tomar sus combinaciones lineales (norma uno). El ejemplo del medio es … en algún lugar entre los otros dos 🙂

Las cosas se vuelven más complicadas con los datos multidimensionales. Una vez que tenga la mejor aproximación en línea recta (el primer componente principal), puede buscar aproximar sus errores, es decir, encontrar una aproximación de dos vectores. En otras palabras, reste la aproximación de un vector de puntos individuales y repita todo. Esto le dará el segundo componente principal, y puede repetir este proceso. No hace falta decir que el último vector será menos útil si se considera por sí mismo.

En otros ejemplos, los valores propios se toman de otros tipos de matrices. Por ejemplo, el vector propio Perron – Frobenius (el que tiene el valor propio más grande) de la [matemática] K [/ matemática] -por- [matemática] K [/ matemática] La matriz de comparación por pares es una excelente manera de resolver preferencias contradictorias, si [math] N [/ math] las personas expresan sus preferencias por los equipos deportivos [math] K [/ math], pero cada persona solo compara un pequeño conjunto de parejas. Aquí, los elementos del vector propio correspondientes al valor propio superior le ayudan a clasificar los equipos deportivos [matemáticos] K [/ matemáticos].

De acuerdo con la teoría de grafos espectrales, los valores propios y los vectores propios de la matriz laplaciana de un gráfico reflejan diversa información de conectividad. Por ejemplo, el gráfico está conectado si y solo si el valor propio más pequeño (cero) tiene multiplicidad 1 (esto es fácil de ver, ya que la matriz tiene estructura de bloque para un gráfico desconectado). Para un gráfico conectado, el valor propio más pequeño distinto de cero está relacionado con el corte mínimo del gráfico, y los respectivos vectores propios divide los vértices para lograr este corte. El espectro del gráfico laplaciano, especialmente las multiplicidades de valores propios, está relacionado con las simetrías del gráfico.

Un vector propio de un operador, en términos generales, se transforma de nuevo en sí mismo multiplicado por un factor de escala (el valor propio correspondiente). Otros aquí han revisado el formalismo, por lo que me detendré más en la parte de la situación del mundo real.

Un espacio vectorial N-dimensional es atravesado por N vectores independientes. Sin embargo, cualquier conjunto de N vectores que sean independientes (es decir, no paralelos entre sí) no paralelos no significa perpendicular. Eso significa que, por ejemplo, en el espacio 2D, podría construir cualquier vector con un combo s de un vector en la dirección X, y otro que dejara el origen a solo un grado de ángulo desde el eje X. Sería un dolor hacerlo, en comparación con los familiares vectores X e Y que son perpendiculares entre sí.

Los vectores eugen son perpendiculares entre sí, lo que, de inmediato, facilita la construcción de cualquier vector en el espacio a partir de vectores propios. (Si hay más de un vector propio con el mismo valor propio, ese es un subconjunto ‘degenerado’ donde cualquier combinación de esos N vectores propios es un vector propio. Siempre puede construir N vectores ortogonales en ese grupo (que aún serán ortogonales para todos los vectores propios de otros valores)

Una nota importante sobre esa matriz de transformación. Cuando se expresa en un sistema de coordenadas basado en los vectores propios, es diagonal (los únicos elementos distintos de cero están en la diagonal desde la parte superior izquierda a la parte inferior derecha) y los valores son los valores propios correspondientes. Desde el principio, para un espacio N-dimensional, el cálculo de la transformación pasó de N ^ 2 operaciones a N operaciones. Yayyy para perezoso!

Los conjuntos degenerados son en realidad un ejemplo particularmente útil. Digamos que vives en una ciudad que se extendió a lo largo de un río, con calles paralelas y perpendiculares al río. Y el río fluye de suroeste a noreste. Puede dar instrucciones a las personas sobre cómo llegar de un lugar a otro basándose en decirles qué tan lejos ir al norte y al este (con el sur como norte negativo y el oeste como este negativo). Dado que las calles corren en ángulos de 45 grados con respecto a esas direcciones principales, trabajará muchas raíces cuadradas de dos en las direcciones de qué manera viajar y qué tan lejos.

O puede hacer que sus vectores base sean paralelos y perpendiculares al río. Ahora sus direcciones están en un número entero de bloques para viajar, ya que las instrucciones desde las que construye las instrucciones son las mismas direcciones por las que fluyen realmente las calles.

OK, OK, el ejemplo realmente sólido. Rueda de coche con neumático nuevo recién montado. Sistema de coordenadas que el automóvil realmente quiere y necesita usar, con el eje de rotación centrado en el orificio físico en el centro de la rueda, que también debería ser el centro del anillo de orificios para los espárragos. Porque, nos guste o no, así es como se unirá la rueda. Llame a esa línea central Z, con X e Y a 90 grados de Z y entre sí, en el plano del círculo del borde de una rueda.

Ahora calcula la matriz de inercia rotacional de la rueda y calcula los vectores propios. Hay tres, lo que indica tres vectores en los que el neumático podría girarse donde no se tambaleará.

PERO, ¿son estos vectores paralelos a los vectores de coordenadas para la transmisión? Si no, eso significa que la rueda ‘no está equilibrada’, pero más específicamente no está equilibrada significa que no hay un vector propio de inercia rotacional * en la dirección en que el eje del tren de transmisión del automóvil lo hará girar *. Conduces y la rueda gira whubba-da-wubbada-bumpada y tus rellenos comienzan a caerse.

Entonces, ese instrumento de una sola tarea en la tienda de neumáticos está, en efecto, haciendo algo similar a ‘girar la rueda en el eje del dispositivo y medir la velocidad / fase / ejes si se controla shimmy-shammy, para calcular cuál es la matriz de inercia (la forma en que la rueda actualmente acopla el giro sobre un eje en movimiento / vibración sobre otros ejes. Luego, invirtiendo la transformación, calcula cuánta masa, colocada en lugares específicos, empujaría esa matriz de inercia para alinearse con el eje de giro del instrumento. O, en términos más simples, puede sujetar pequeños pesos alrededor del borde de la rueda. Cuánto peso, en qué punto o puntos de la rueda, empuje la matriz hacia los vectores propios alineados con el círculo físico de la rueda. prueba, repita hasta que esté equilibrado. Ahora los rellenos permanecen en su lugar para el conductor.

La función exponencial compleja, [matemática] e ^ {j \ omega t} [/ matemática] y su contraparte digital, [matemática] e ^ {j \ frac {2 \ pi kn} {N}} [/ matemática], son quizás uno de los vectores propios más destacados (al menos en el mundo en procesamiento de señales). ¡Recuerde que un vector es más que una simple flecha, es un objeto abstracto y la mejor definición de un vector es que es un objeto en un espacio vectorial!

Muchas señales se pueden ver como vectores. En esta visión del mundo, la función exponencial mencionada anteriormente (la llamaré sinusoide para abreviar) es un vector propio para el operador que representa un sistema lineal invariante en el tiempo (muchos de los sistemas que tratamos en circuitos, procesamiento de señales y control, por nombrar algunos). Esto significa que si la entrada a su sistema es una sinusoide, la salida es una sinusoide. Si la entrada es una suma de sinusoides, la salida es una suma de sinusoides. En otras palabras, las características del sistema se pueden determinar completamente por cómo funciona con sinusoides (los valores propios). Esto no es más que el análisis de Fourier en sistemas lineales.

En términos altamente no técnicos, los vectores propios son un conjunto de vectores que mantienen su “identidad” cuando son operados por el operador. El operador no cambia nada sobre ellos excepto su magnitud. Y al estudiar cómo se escalan esos vectores (los valores propios), podemos aprender mucho sobre nuestro operador. En muchos casos, podemos aprender mucho sobre lo que el operador hace a un vector general descomponiendo el vector en una suma de vectores propios (como hicimos con los sinusoides).

En la dinámica de estructuras en el campo de la mecánica, cada estructura tiene varias frecuencias denominadas frecuencias propias (valores propios), siendo las frecuencias más bajas más importantes que las más altas.

Estas frecuencias se considerarán puntos de funcionamiento “débiles”: tomemos por ejemplo una turbina. Supongamos que tiene una frecuencia fundamental de rotación. La vida útil de esta turbina disminuirá a medida que su frecuencia fundamental de rotación esté más cerca de sus primeras frecuencias propias (más bajas), ya que hacer que funcione en este rango de frecuencias libera demasiada energía.

Los vectores propios (modos propios) son la forma de la deformación de la estructura cuando está funcionando (¡girando!) Exactamente en una de esas frecuencias propias.

A continuación se muestra un ejemplo de oscilación de un cable para varias de sus frecuencias propias.
[Frecuencia fundamental]
Ojalá hubiera ayudado.

Se pueden dar algunos ejemplos intuitivos cuando se habla de mapeos en el espacio.

Imagínese parado frente a un espejo. Su posición determina la posición de la imagen especular a través de un mapeo lineal.

Si da un paso a la izquierda, su imagen espejo da un paso en la misma dirección. Esto significa que caminar hacia la izquierda lo movería a lo largo de un vector propio, en este caso con un valor propio de uno. Lo mismo ocurre si saltas arriba / abajo. Si te mueves hacia el espejo, tu imagen de espejo se moverá en la dirección opuesta. Por otro lado, esto significa que la dirección hacia el espejo es un vector propio con un valor propio de menos uno.

Como el mapeo está en tres dimensiones a tres dimensiones, esperaríamos tres valores propios y una base tridimensional de vectores propios. Esto es exactamente lo que obtenemos. Dos valores propios con el valor uno, correspondientes a vectores propios en el plano paralelos al plano espejo y un vector propio con el valor menos uno correspondiente al vector propio perpendicular al plano espejo.

Tome algunas otras transformaciones en el espacio, como escalas o proyecciones, y razone qué vectores propios deberían tener y el concepto se volverá más intuitivo rápidamente.

En matemáticas, el valor propio, el vector propio y el espacio propio son conceptos relacionados en el campo del álgebra lineal. El álgebra lineal estudia las transformaciones lineales, que están representadas por matrices que actúan sobre vectores. Los valores propios, los vectores propios y los espacios propios son propiedades de una matriz. Se calculan utilizando varios métodos matriciales, brindan información importante sobre la matriz y se pueden usar en la factorización matricial. Tienen aplicaciones en áreas de matemática aplicada tan diversas como finanzas y mecánica cuántica.

Una instancia multidimensional podría ser un software de reconocimiento facial. Define una cara como una impresión azul llena de distancias y crea una matriz cuyos vectores propios son una representación de una cara en particular. El quinto componente del vector propio podría ser la relación longitud sobre ancho para la nariz. Si ve un 0.8 en el quinto, no puede evitar decir “QUÉ UNA NARIZ SNUB”. Y cosas como esa. Identificar una cara es solo restar ambos vectores propios, calcular el módulo y establecer un criterio como “si el módulo es <2" o un componente más complicado versus componente. Luego, pruébalo con cientos de imágenes y listo.