¿Por qué la norma ‘L0’ no es diferenciable y no convexa?

Espero estar en lo correcto:

Voy a demostrar la no convexidad de la norma L [matemática] 0 [/ matemática] demostrando que no satisface la desigualdad de Jensen ([matemática] f (\ alpha \ bar {x} + (1- \ alpha) \ bar {y}) \ leq \ alpha f (\ bar {x}) + (1- \ alpha) f (\ bar {y}) [/ math])

Dejar

  • [matemática] f (z) = \ | \ bar {z} \ | _ {0} [/ matemática] y [matemática] \ bar {z} \ en R ^ n. [/ matemática]
  • [matemática] \ | \ bar {x} \ | _ {0} = [/ matemática] número de elementos distintos de cero en el vector [matemática] x [/ matemática] [matemática] = [/ matemática] [matemática] a. [/matemáticas]
  • [math] \ | \ bar {y} \ | _ {0} = [/ math] número de elementos distintos de cero en el vector [math] y = b. [/ math]

Supongamos también [math] a \ geq b [/ math] para mantener las cosas simples. Considere 2 casos:

  1. Los elementos distintos de cero en el vector [matemática] x [/ matemática] y [matemática] y [/ matemática] están en lugares totalmente diferentes, es decir, no se solapa un solo elemento en ninguna posición, es decir, en máx. /matemáticas]
  2. Todos los elementos se superponen en términos de posiciones, es decir, los índices donde tenemos elementos distintos de cero en [math] \ bar {y} [/ math] está subconjunto de, índices donde tenemos elementos distintos de cero en [math] \ bar {x} .[/matemáticas]

Todos los demás casos estarían entre estos dos casos extremos. Así que refutaré la desigualdad de Jensen para estos 2 casos.

LHS

= [matemáticas] f (\ alpha \ bar {x} + (1- \ alpha) \ bar {y}) [/ matemáticas]

= [matemáticas] \ | \ alpha \ bar {x} + (1- \ alpha) \ bar {y} \ | _ {0} [/ math]

Nota: Suponga que todos los elementos en el vector son números reales positivos y, por lo tanto, multiplicar un número positivo ([math] \ alpha [/ math]) a un vector no afectará su recuento de elementos distintos de cero, esto implica

LHS = [matemáticas] \ | \ bar {x} + \ bar {y} \ | _ {0} [/ math]

  1. LHS = [matemática] a + b [/ matemática] (ya que asumimos que [matemática] \ bar {x} [/ matemática] y [matemática] \ bar {y} [/ matemática] tienen elementos distintos de cero en posiciones completamente diferentes )
  2. LHS = [math] a [/ math] (ya que asumimos la superposición de todas las posiciones de elementos y [math] a \ geq b [/ math])

RHS

= [matemáticas] \ alpha f (\ bar {x}) + (1- \ alpha) f (\ bar {y}) [/ matemáticas]

= [matemática] \ alpha \ | \ bar {x} \ | _0 + (1- \ alpha) \ | \ bar {y} \ | _0 [/ math]

= [matemáticas] \ alpha a + (1- \ alpha) b [/ matemáticas]

= [matemáticas] \ alpha a + b – \ alpha b [/ matemáticas]

= [matemáticas] b + \ alpha (ab) [/ matemáticas]

Ahora considere las cosas sabias:

  1. LHS – RHS = [matemática] a + b – b – \ alpha (ab) [/ matemática] [matemática] = [/ matemática] [matemática] (1- \ alpha) a + b> 0
    [/ math] => LHS> RHS => refutamos la desigualdad de Jensen.
  2. LHS – RHS = [matemáticas] a – b – \ alpha (ab) = (1- \ alpha) (ab)> 0 [/ matemáticas]
    => LHS> RHS => refutamos la desigualdad de Jensen.

Del mismo modo, la desigualdad de Jensen no será válida para los casos entre los dos anteriores. De este modo, afirmo que la norma ‘[matemáticas] L0 [/ matemáticas]’ no es convexa. En mi prueba, se pierden algunos casos de esquina, pero puede cubrirlos usted mismo.

Espero que esto ayude.

https://rorasa.wordpress.com/201
Discute esta norma. Es el número de entradas distintas de cero en una matriz o vector. Claramente, tomar el límite arruina esta norma de una manera que viola la diferenciabilidad. Por ejemplo, la norma de (0, e) es una para la pequeña e, pero la norma de (0,0) es cero, por lo que no existe una derivada en (0,0). El mismo argumento refuta la convexidad.