¿Es cierto que el rango kurskal de una matriz es siempre menor que el rango de una matriz?

Primero, esta definición no funciona para el caso cuando [math] A [/ math] es invertible, ya que todos los subconjuntos de todos los tamaños son linealmente independientes.

En segundo lugar, para que su afirmación sea verdadera, debe definir el rango k (A) como el mayor número (…) de subconjuntos de tamaño menor o igual que el rango k son linealmente independientes.
Tome, por ejemplo, matriz:
1 0 0
0 1 0
1 1 0
Aquí, el rango es 2, y todos los subconjuntos de filas de tamaño 2 son linealmente independientes, por lo que, según su definición, el rango r sería 3.

Pero si lo define como sugerí antes, puede tratar el rango regular, como “el número más grande de manera que exista un subconjunto de filas de ese tamaño que sea linealmente independiente” y el rango k como “el número más grande de tal manera que todos los subconjuntos de este tamaño (y, como consecuencia, todos los más pequeños) son lin. ind. “.
Con esta formulación, queda claro que k-rank <= rank:
Establezcamos k-rank [math] = c [/ math]. Entonces, todos los subconjuntos de filas de tamaño c son linealmente independientes. Entonces, existe un subconjunto de tamaño c que es linealmente independiente. Si, para una matriz dada, existe un subconjunto de tamaño c que es linealmente independiente, entonces su rango es [math] \ ge c [/ math], ya que “el mayor conjunto independiente de filas” puede ser de tamaño [math] c [ / math] o puede ser un subconjunto más grande.

El rango de Kruskal de una matriz se define como el r más pequeño, de modo que la matriz se puede expresar como una suma de tensores de rango 1. Ver Kruskal JB, Rango, descomposición y unicidad para matrices de 3 vías y n-vías. Es un ejercicio de álgebra lineal para demostrar que el rango de Kruskal de una matriz considerada como una matriz de 2 vías es igual al rango clásico de una matriz.