Me gustaría decir algunas cosas sobre la respuesta de Vignesh Natarajan primero:
La maldición de la dimensionalidad no se trata de tener una gran cantidad de dimensiones, se trata de tener un algoritmo que tenga dificultades en una gran cantidad de dimensiones o, en términos más generales, una mala combinación de algoritmo / dimensionalidad por cualquier razón.
Algunos algoritmos funcionan muy bien en millones de dimensiones, como Perceptron y Linear SVM.
Lo que Vignesh describe para reducir la dimensionalidad se conoce como PCA (análisis de componentes principales), una técnica que es exactamente la misma que calcular la SVD (descomposición del valor singular) de su matriz de datos. La aclaración que quiero hacer es que con PCA no descubre las dimensiones principales de sus datos, descubre los componentes principales. Y cada componente es una combinación lineal de sus dimensiones. Por lo tanto, no puede usar PCA o SVD para saber si su columna “edad” juega un papel más importante que el “precio”, pero puede usarla para reducir efectivamente el número de dimensiones en sus datos, cuando lo necesite. Usar PCA o SVD solo porque no es una buena práctica.
- ¿Existe algún método para aumentar la precisión de la eliminación gaussiana además del giro parcial y completo y la escala de filas?
- ¿Son las clases de matemáticas menos rigurosas en los colegios comunitarios que en las universidades prestigiosas?
- Cómo demostrar que [matemáticas] \ mathrm {adj} (\ mathrm {adj} (A)) = (\ mathrm {det} A) ^ {n-2} \ cdot A [/ math]
- ¿Qué significa ‘proyectar en el espacio nulo’?
- ¿Qué es el álgebra universal y en qué se diferencia del álgebra universitaria?
Vignesh tiene toda la razón sobre la importancia de los vectores propios y los valores propios como una forma de cambiar la dimensionalidad de sus datos. Son la clave para SVD y PCA.
Solo para agregar algo a la respuesta original sobre vectores propios y valores propios en Machine Learning, también se usan en Agrupación espectral.
Luis.