Muy buena pregunta.
Si conoce los conceptos básicos Salte a la conclusión:
1. Supongamos que tenemos 2 clases.
2. Digamos que cada punto tiene una dimensión de 10000 (una imagen de 100 * 100)
3. Digamos que los datos de su tren son otras 1000 imágenes (100 clases) y ahora tiene datos de prueba de alrededor de 100 imágenes.
¿Qué haces?
Intenta cualquier algoritmo sin optimizar y estaría fuera de cálculo incluso con una RAM de 32 GB.
(por ejemplo, KNN básico, DAG, etc.)
- ¿Qué representan los vectores singulares y cómo se comparan con los vectores propios de la matriz de covarianza?
- ¿Cómo es tomar Math 217 (Álgebra lineal de honores) en Princeton?
- ¿Cuál es la intuición detrás de la matriz de coeficientes en álgebra lineal?
- ¿Es equivalente a decir para una matriz, sus valores propios son todos positivos, por lo que esta matriz es positiva-definida? ¿Por qué?
- ¿Cómo describirías Matrix intuitivamente?
Su objetivo principal es reducir los datos de prueba y aquí viene el papel de los vectores Eigen y los valores Eigen.
PCA:
“Se encuentra la media, luego la matriz de covarianza y luego se resta y luego se llega a la ecuación A [punto] ‘A transposición’ y se usa alguna función incorporada y se encuentran vectores Eigen y valores Eigen”
Retrocedamos a su pregunta, ¿qué dicen?
Los vectores propios son una pequeña representación de sus grandes datos.
¿Cómo?
Porque elegimos los valores Eigen correspondientes a los vectores Eigen con valores más altos.
¿Porque?
Los valores altos de Eigen representan una alta varianza en esa dirección (Dirección del vector Eigen)
Conclusión:
Seleccione el vector Eigen para la clasificación correspondiente a los valores Eigen altos porque los valores Eigen altos representan los vectores que más necesitamos, los que están en la corrección de la varianza máxima.