En forma de álgebra matricial Ax = b Supongo que si A es la matriz coeficiente yx es el vector de incógnitas cuando resuelven el resultado en el vector b. Para aclarar esto un poco, tenemos un sistema de ecuaciones que significa que tenemos más de un modelo que mapea un vector desconocido particular xa b.
En los problemas clásicos de Machine Learning, es el inverso, tenemos que identificar el modelo (ecuación) A que mapea la matriz x (valores conocidos) para llevarnos a b
Usando el algoritmo de descenso de gradiente, calculamos el vector de coeficiente x para una matriz de valores conocidos x que da como resultado b, esto se supone que queremos ajustar x en un solo modelo.
es decir, en ML, el algoritmo de descenso de gradiente se usa para formular un modelo particular (enfatizo) que mapea los valores conocidos dados X al vector b
- ¿Por qué los vectores funcionan en física?
- Cómo resolver para [matemáticas] A [/ matemáticas] en el sistema [matemáticas] A x = B [/ matemáticas] usando MATLAB
- ¿Por qué la matriz simétrica nunca es defectuosa (tiene un conjunto completo de vectores propios independientes)? ¿Puedes dar una prueba intuitiva?
- ¿Por qué la proyección ortogonal es la proyección más cercana al vector original?
- ¿Por qué dos espacios propios de una matriz son perpendiculares entre sí?
Dado este conocimiento, puede usar la misma lógica sin cambios para calcular incógnitas. El algoritmo de descenso de gradiente ahora trata el vector x como el vector de coeficiente y la matriz real A ahora se trata como una matriz de valores conocidos x, que dan como resultado b.
La función de costo es efectivamente una función del vector x y el algoritmo de descenso de gradiente trabajará para optimizar los valores de x en lugar de los coeficientes.
Para resumir, el algoritmo sigue siendo el mismo, pero la optimización ahora se realiza en el vector x.