Esta es más o menos la forma en que lo entiendo.
En un sentido intuitivo, uno puede considerar un producto punto como una medida de cuán cerca están dos vectores. Por ejemplo, si dividimos el producto escalar por la magnitud de los vectores, entonces estamos hablando de la similitud del coseno. es decir, qué tan lejos están dos vectores el uno del otro apuntando en la misma dirección.
Entonces, si reorganizamos la definición de [math] \ mu – [/ math] incoherence obtenemos la similitud del coseno:
[matemáticas] \ frac {| \ langle A_i, A_j \ rangle | } {\ | A_i \ | \ | A_j \ | } [/ matemáticas] [matemáticas] \ leq \ frac {\ mu} {\ sqrt {m}} [/ matemáticas]
- Cómo resolver [matemáticas] e ^ x-2 = x [/ matemáticas] usando álgebra
- ¿Cuál es la relación entre los valores Eigen de una parte de la matriz simétrica y la parte de la matriz simétrica oblicua de cualquier matriz real?
- Cómo diagonalizar una matriz que va de R ^ 2 a R ^ 3
- Cómo probar esta afirmación sobre matrices
- ¿Qué tiene de malo el ‘Álgebra lineal bien hecha’ de Axler?
Observe que esta cantidad es solo cero cuando los vectores son ortogonales. Esto es cuando apuntan en direcciones muy diferentes y los dos vectores están “no correlacionados” y son perpendiculares.
Para simplificar, consideremos los vectores que son de longitud unitaria. Entonces la definición se convierte en:
[matemáticas] | \ langle A_i, A_j \ rangle | [/ matemáticas] [matemáticas] \ leq \ frac {\ mu} {\ sqrt {m}} [/ matemáticas]
Aunque no podemos tener vectores que sean ortogonales todo el tiempo, con este tipo de suposición estructural, si la matriz es [matemática] \ mu – [/ matemática] incoherente y [matemática] \ frac {\ mu} {\ sqrt {m}} [/ math] es pequeño, es como decir: “está cerca de ortogonal”. ¿Por qué? Debido a que los productos internos para diferentes vectores (es decir, [math] i \ neq j [/ math]) son pequeños, los vectores son algo diferentes y, por lo tanto, los vectores todavía no están correlacionados entre sí (pero no son completamente ortogonales).
Algunas cosas más que he aprendido.
Si vemos las columnas de A como un diccionario para representar alguna señal (es decir, una base de algún tipo), entonces al restringir el producto interno a su tamaño, es realmente una declaración sobre cuán redundantes son las representaciones. ¿Por qué? Bueno, imagina en el caso extremo. Si tuviéramos una representación no redundante, es decir, los vectores correctos y todos fueran ortogonales, muchos de los productos internos serían cero. Pero en la configuración inherente a [math] \ mu [/ math], tenemos un montón de productos internos pequeños pero distintos de cero. Lo que significa que en realidad es solo una representación redundante súper minúscula, pero para todos los propósitos intensos, es tan pequeña que es mejor considerarla como no redundante , en un sentido inherente a [math] \ mu [/ math].