¿Qué es la matriz de Hesse? ¿Para qué se utiliza y por qué motivo?

Puede usar el Hessian para varias cosas como se describe en algunas de las otras respuestas. Un uso básico es como una segunda prueba derivada.

La segunda prueba derivada en cálculo de una variable

¿Recuerdas el cálculo del primer semestre cuando aprendiste la segunda prueba derivada? Fue así. Tiene una función [math] f: \ mathbb R \ to \ mathbb R, [/ math] y desea optimizarla, es decir, encontrar dónde toma su valor máximo y su valor mínimo.

Para una función diferenciable en un intervalo abierto que solo puede ocurrir donde la primera derivada [math] f ‘[/ math] es 0, en lugares llamados puntos críticos. Así que calculó la primera derivada, la configuró en 0 y resolvió la ecuación [math] f ‘(x) = 0. [/ math] Eso le indicó dónde podría encontrar los valores extremos de [math] f. [/ Math ]

Luego tomaste la segunda derivada [matemáticas] f ”, [/ matemáticas] y la evaluaste en cada uno de los puntos críticos. Si la segunda derivada fue negativa, entonces tenía un máximo local; si la segunda derivada fue positiva, entonces tenía un mínimo local; si la segunda derivada era cero, entonces la prueba no fue concluyente y tuvo que intentar otra cosa.

La segunda prueba derivada cuando hay más de una variable

Ahora tienes una función de [math] n [/ math] variables. Hagamos tres variables para que sea lo suficientemente complicado como para ver lo que está sucediendo. [matemáticas] f: \ mathbb R ^ 3 \ a \ mathbb R [/ matemáticas]

Encuentras los puntos críticos. Esos serán donde las tres derivadas parciales son simultáneamente 0. Entonces resuelves las tres ecuaciones

[matemática] \ frac {\ parcial f} {\ parcial x} = 0 [/ matemática]
[matemáticas] \ frac {\ partial f} {\ partial y} = 0 [/ matemáticas]
[matemáticas] \ frac {\ partial f} {\ partial z} = 0 [/ matemáticas]

y eso le dirá dónde pueden aparecer los valores extremos de [math] f [/ math].

Luego, tomas todas las segundas derivadas parciales de ellos. Hay nueve de ellos, pero las derivadas parciales mixtas serán las mismas ya que las funciones que estamos viendo son buenas. Los pones en una matriz llamada Hessian [math] Hf. [/ Math]

[matemáticas] Hf = \ left [\ begin {array} {ccc}
\ frac {\ partial ^ 2 f} {\ partial x \ partial x} &
\ frac {\ partial ^ 2 f} {\ partial x \ partial y} &
\ frac {\ partial ^ 2 f} {\ partial x \ partial z} \\
\ frac {\ partial ^ 2 f} {\ partial y \ partial x} &
\ frac {\ partial ^ 2 f} {\ partial y \ partial y} &
\ frac {\ partial ^ 2 f} {\ partial y \ partial z} \\
\ frac {\ partial ^ 2 f} {\ partial z \ partial x} &
\ frac {\ partial ^ 2 f} {\ partial z \ partial y} &
\ frac {\ partial ^ 2 f} {\ partial z \ partial z}
\ end {array} \ right] [/ math]

Evalúe este Hessian en cada uno de sus puntos críticos, y la matriz resultante le dirá qué tipo de punto crítico es.

Al igual que la segunda prueba derivada para funciones de una variable, a veces no es concluyente. Eso sucederá cuando el determinante de la arpillera sea 0. Si ese determinante no es 0, se nota. Para saberlo, debes calcular la secuencia de principios menores [math] d_1, d_2, d_3. [/ Math] (Hay más de ellos si [math] n> 3. [/ Math]) El primer principio menor [math] d_1 [/ math] es solo la entrada superior izquierda de la matriz. La segunda [matemática] d_2 [/ matemática] es el determinante de la submatriz superior izquierda 2 por 2 de la matriz. Etcétera. (Entonces, cuando [math] n = 3, [/ math] [math] d_3 [/ math] es el determinante de toda la matriz).

Si todos ellos, [math] d_1, d_2, d_3, [/ math] son ​​positivos, entonces tienes un mínimo. Si se alternan (negativo, positivo, negativo, etc.), entonces tienes un máximo. De lo contrario, tienes un punto de silla.

Los puntos de silla pueden ocurrir con [math] n \ geq 2. [/ math] A continuación se ilustra una función con una silla de montar.

Entonces, esa es una razón para un Hessian. Se utiliza en una segunda prueba derivada para encontrar valores extremos de funciones de más de una variable.

Una matriz de Hesse nos da las derivadas parciales de segundo orden de una imagen, los gradientes de la imagen en diferentes direcciones.

Para la detección de características en algoritmos como SIFT, se utiliza para seleccionar características bien localizadas. Se utiliza para determinar si el conjunto de posiciones iniciales de entidades ubicadas a partir de la diferencia de extremos gaussianos se ubican en bordes o esquinas. Para una característica estable, la curvatura a través de un punto de característica debe ser alta en más de una dirección. Una característica con cambio en una sola dirección es inestable ya que es imposible determinar dónde se encuentra a lo largo de un borde. Por lo tanto, se evita una gran diferencia entre las curvaturas principales a través de una característica.

La matriz de Hesse da un atajo para que las curvaturas principales a través del punto clave no tengan que calcularse explícitamente para determinar si el cambio de gradiente es grande en más de una dirección. En cambio, la relación entre los valores de Eigen de la matriz de Hesse se puede usar como un atajo. Esto reduce el procesamiento y aumenta la velocidad.

La matriz de arpillera jugó un papel útil en la realización de las secuelas de Matrix.

Al aplicar efectos visuales a secuencias de acción en vivo en una película, debe colocar los objetos renderizados correctamente en relación con los objetos de la escena. Esto significa que necesita descubrir la geometría de los objetos en la escena y cómo se relaciona la posición de la cámara con ellos. Este es un campo conocido como Fotogrametría.

Si sabe dónde están los objetos 3D en relación con la cámara, no es difícil determinar dónde se proyectan en la pantalla porque hay una fórmula simple que lo describe. Pero ir hacia el otro lado es complicado. No hay una fórmula simple. En cambio, (generalmente) tiene que formular el problema como un problema de optimización escribiendo una expresión que describa qué tan bien la acción en vivo se ajusta a su hipótesis sobre dónde está todo y luego ajustando las hipótesis para obtener el mejor ajuste.

Una forma de resolver una ecuación en una computadora es usar el método de Newton. Si desea resolver f (x) = 0, entonces necesita calcular f ‘(x) en cada iteración.

Pero para usar el método de Newton en la optimización, necesita resolver f ‘(x) = 0, lo que significa que calcula la segunda derivada, f’ ‘(x). Como este tipo de problemas suelen ser multidimensionales, realmente necesita la matriz de segundas derivadas con respecto a todas las variables, es decir. el hessian

Aquí hay un artículo que escribí sobre el cálculo del Hessian relevante: Página sobre Mdu