¿En que contexto? El jacobiano es la primera derivada de una función con respecto a sus variables en forma de matriz. Por lo general, tenemos un jacobiano considerado en términos de una función de [math] \ mathbb {R} ^ n [/ math] a [math] \ mathbb {R} ^ m [/ math] cuando lo definimos a partir del análisis original ( definición). En el trabajo estadístico (o aprendizaje automático, si lo prefiere), a menudo pensamos que [math] n [/ math] es el tamaño de la muestra, pero el jacobiano sería de un espacio dimensional [math] p [/ math] (donde [math] p [/ math] es el número de variables, por lo tanto, en la regresión, por ejemplo, incluiríamos la intercepción) y, a menudo, solo hay una salida. Editar: esta no es la forma más interesante de ver esto … y técnicamente llamamos al vector gradiente. Ver edición al final para un ejemplo más interesante.
El jacobiano es increíblemente útil en todo tipo de problemas matemáticos, donde muchas estadísticas y aprendizaje automático obtienen su teoría.
Si desea ser más explícito y establecer el contexto al actualizar la pregunta, cambiaré esta respuesta si es necesario. Si desea que lo haga, comente esta respuesta, así que sé hacerlo.
Editar:
- ¿Por qué usarías una matriz DACI en lugar de una RACI?
- ¿Alguien ha aplicado la fórmula de la distancia a una ecuación o función lineal?
- ¿Por qué está [[A] ^ 2] ^ (- 1) = [A ^ (- 1)] ^ 2 en Matrix Algebra?
- ¿Cómo se verifica computacionalmente si una función es positiva definida?
- ¿Por qué se inventan los vectores?
Según la respuesta de la persona que me pidió que respondiera a esta pregunta, nos gustaría tener alguna intuición sobre el jacobiano, ya que encaja en el LD y las estadísticas. La mayoría de los algoritmos de ML que usan el jacobiano se basan en estadísticas.
Así que estamos tratando de aprender una función [matemática] f [/ matemática] de n puntos de datos para predecir algo. Digamos que nuestra forma funcional tiene p parámetros (por ejemplo, algún tipo de regresión). Sin embargo, en lugar de tratar las funciones de salida como nuestro objetivo, vamos a ver los parámetros como funciones de los datos, todos agrupados en un vector Función valorada. Llamaremos a esta función [math] g [/ math].
Entonces nuestra función [math] g: \ mathbb {R} ^ n \ rightarrow \ mathbb {R} ^ p [/ math] tiene un jacobiano definido por [math] \ nabla g [/ math], que tiene el elemento i, j como la primera derivada del parámetro i con respecto a la variable j. Obviamente, la regresión lineal no sería interesante aquí, pero la regresión no lineal podría serlo: podemos ver cómo cambia cada parámetro con respecto a cada variable. Eso se puede usar de muchas maneras diferentes, aunque puede ser bastante complejo hacerlo bien.