En primer lugar, las matrices / listas unidimensionales son en realidad vectores y las matrices bidimensionales son matrices. Entonces, a veces es útil pensar en ellos en términos matemáticos. Por ejemplo, supongamos que tiene una lista de estudiantes en una clase y sus calificaciones de varios exámenes. Puede pensar en estos datos como una matriz donde cada fila es un estudiante y cada columna es un examen. Supongamos que desea calcular un promedio ponderado de calificaciones y tiene los pesos en un vector (lista). Entonces, el cálculo del promedio ponderado para todos los estudiantes es solo la matriz de datos multiplicada por el vector de pesos (vector de columna). En realidad, el promedio ponderado es un producto de puntos vectoriales (producto interno).
Los gráficos generalmente se representan como matrices en implementaciones informáticas. Los gráficos son modelos matemáticos importantes y estructuras de datos en muchas aplicaciones informáticas. Por lo general, representa gráficos utilizando una matriz de relaciones nodo-nodo o relaciones nodo-borde. Muchos resultados teóricos sobre gráficos se pueden derivar utilizando principios de álgebra lineal. Por ejemplo, si toma la enésima potencia de la matriz que representa el gráfico, encontrará nodos que están conectados a través de una ruta de longitud n, por lo que puede usar teoremas sobre las potencias de las matrices para sacar conclusiones sobre las rutas en los gráficos.
Todo el campo del aprendizaje automático, la minería de datos, la ciencia de datos (aparece en diferentes disfraces) se basa en gran medida en conceptos de álgebra lineal. Su objeto básico de interés suele ser una matriz de datos, como la tabla de calificaciones mencionada anteriormente. La mayor parte del trabajo en el aprendizaje automático supone que sus datos viven en un “espacio vectorial”, por lo tanto, todas las teorías y conceptos relevantes tales como base , dimensión , subespacios , etc. son vitales. Algunos de los temas esenciales relevantes para esta área son mínimos cuadrados , proyección en subespacios , cambio de bases , transformaciones de características, transformaciones lineales , métricas de distancia , etc. Los vectores propios y los valores propios abarcan un campo de aplicación significativo. PCA , SVD , etc. son relevantes en aplicaciones que van desde Eigenfaces (reconocimiento facial) hasta sistemas de recomendación (por ejemplo, recomendaciones de películas de netflix).
El procesamiento de imágenes y la visión por computadora también son áreas en las que utiliza con frecuencia el álgebra lineal. Además del hecho de que una imagen es básicamente una matriz, a menudo la necesita para fines como transformaciones afines (por ejemplo, construir panoramas), probar si un punto de imagen es un borde o una esquina (valores propios del Hesse), reconstruir modelos 3D de objetos de imágenes, etc., etc. Demasiados para contar. Relacionado con el artículo final están los gráficos por computadora. Los gráficos por computadora van de modelos 3D a imágenes, mientras que la visión por computadora puede intentar lo contrario. Ambos se basan en la relación entre los puntos 3D y sus proyecciones 2D. Y también cómo cambian estas coordenadas cuando la cámara se mueve, cuando el objeto se mueve, cuando se cambia el sistema de coordenadas, etc. Todo el álgebra lineal, principalmente multiplicaciones matriciales ( transformaciones lineales – rotaciones, traslaciones, proyecciones ) de vectores (nodos de objetos, coordenadas ) .
- ¿Cuál es la diferencia entre una matriz sin procesar y una matriz SVD proyectada (con rango completo)?
- ¿Qué significa el rango de una matriz jacobiana en robótica?
- ¿Cuáles son los algoritmos comunes para calcular / estimar eficientemente la covarianza de la muestra?
- Cómo demostrar que para cualesquiera 2 matrices cuadradas A y B, det (AB) = det (A) det (B)
- ¿Cuál es una explicación intuitiva del producto exterior de los espacios vectoriales?
Estos deberían dar alguna idea.