¿Qué significa que una matriz sea linealmente dependiente?

Un libro muy bueno para este tema es ” Espacios de vectores dimensionales finitos ” de Halmos. Debería poder encontrar una reimpresión en rústica económica de esto: vale la pena guardarlo en la biblioteca de su hogar.

Primero hay que entender las combinaciones lineales . Esperemos que se les haya hecho alguna mención de los vectores . Una combinación lineal de vectores es una suma de múltiplos escalares de ellos.

Un escalar es un elemento de un campo (por ejemplo, un número racional, real o complejo).

La adición de vectores tiene algunas similitudes con la suma de números: si agrega el vector cero 0 a otro vector x, entonces la suma es igual a x. Cada vector también tiene un negativo : x + (-x) = 0 .

Un conjunto de vectores es linealmente independiente si la única combinación lineal de ellos que es igual al vector cero tiene todos los coeficientes escalares cero. De lo contrario, el conjunto es linealmente dependiente .

Entonces, un conjunto de vectores depende linealmente si existe una combinación lineal no trivial de ellos que sea igual al vector cero. (Por una combinación lineal trivial, me refiero a una en la que todos los múltiplos escalares son cero, porque por supuesto eso siempre da como resultado un vector cero).

En un espacio vectorial, hay un número máximo de vectores que pueden ser linealmente independientes. Este número se llama dimensión del espacio .

Si cada vector puede expresarse como una combinación lineal de un conjunto dado de vectores, entonces decimos que ese conjunto abarca el espacio. En un espacio con dimensión n , cualquier conjunto de n vectores independientes abarcará el espacio, pero ningún conjunto más pequeño puede hacerlo. Llamamos a un conjunto de vectores linealmente independientes una base . Entonces, en un espacio vectorial de n dimensiones, cada base tiene n vectores.

Los conjuntos de vectores dependientes e independientes tienen propiedades útiles que es importante conocer. (Estas propiedades son valiosas en muchos contextos análogos, pero ese es otro tema).

Cualquier subconjunto de una base (o, de hecho, de cualquier conjunto linealmente independiente) es linealmente independiente.

Cualquier conjunto mayor que una base es linealmente dependiente. Cualquier conjunto que contenga un conjunto linealmente dependiente es linealmente dependiente.

Ejemplos de conjuntos de vectores linealmente dependientes: {el vector cero}; de hecho, cualquier conjunto que contenga el vector cero; {v, 2v}; {u, v, u + v}; {u, v, u + v, uv}; {u, v, w, 5u + 7v-3w}; y así.

Las filas de una matriz son vectores, porque puede agregarlos y multiplicar cada uno de ellos por un escalar. Así son las columnas.

Las matrices pueden ser cuadradas (tienen el mismo número de filas que las columnas) o no cuadradas.

Una matriz cuadrada podría describirse como “linealmente independiente” si sus filas (de manera equivalente, columnas) son linealmente independientes.

Las matrices no cuadradas son más complicadas: por ejemplo, incluso si tienen menos filas que columnas y sus filas son independientes, entonces sus columnas son dependientes (y viceversa). Así que ceñámonos a las matrices cuadradas.

Una matriz A es “linealmente independiente” si y solo si tiene una matriz inversa B tal que AB = BA = 1.

En este contexto, 1 es la matriz de identidad (la diagonal es todo 1 y las otras entradas son 0). 1 tiene la propiedad multiplicativa de que A1 = 1A = A, mientras que la matriz cero 0 (todas las entradas son 0) tiene A0 = 0A = 0.

Una cantidad escalar importante calculada a partir de las entradas en la matriz es el determinante. Las matrices con determinante distinto de cero son “linealmente independientes” y tienen inversas. Las matrices “linealmente dependientes” son aquellas con cero determinante y sin inversas.

Por lo general, no se llama a una matriz linealmente dependiente o independiente. Un conjunto de vectores puede tener cualquiera de estas propiedades. Quizás algunas personas llaman a una matriz linealmente (in) dependiente si el conjunto de sus vectores de fila o el conjunto de sus vectores de columna es.

Si la matriz es una matriz cuadrada, sus vectores de fila son linealmente dependientes si y solo si sus vectores de columna lo son. En este caso, la matriz se llama singular , de lo contrario regular . Las matrices regulares son aquellas para las cuales existe una matriz inversa, es decir, aquellas con determinantes diferentes de cero.

(Véase también el comentario de la pregunta de David Joyce)

Las otras respuestas no son lo suficientemente severas.

En una clase introductoria de álgebra lineal, no significa nada decir que una matriz es linealmente independiente. Este es uno de los desajustes comunes de los términos causados ​​por no comprender completamente las definiciones. Si un novato en el tema dice que debe ser corregido y penalizado en un entorno de examen (al menos si las definiciones se hicieron al menos hace un par de semanas, para darles tiempo para establecerse).

La dependencia / independencia lineal se define para una colección de vectores en un espacio vectorial (o simplemente [math] \ mathbb {R} ^ n [/ math], dependiendo de qué tan temprano esté en su carrera de álgebra lineal). Por lo tanto, tiene sentido preguntar si las columnas de una matriz son independientes (de manera equivalente, si la transformación lineal asociada es 1-1) o si las filas son independientes (de manera equivalente, después de una reducción de filas hay tantos pivotes como filas).

En este contexto, preguntar si una matriz es linealmente dependiente tiene tanto sentido como preguntar si un triángulo tiene radio 2 o si el número [math] \ pi [/ math] es azul; existe un desajuste de tipo de lo que se aplican las definiciones a.

(Hay un contexto en el que una matriz puede considerarse linealmente dependiente / independiente, pero no significa lo que pretende un estudiante principiante: el espacio de todas las matrices [matemáticas] m \ veces n [/ matemáticas] forma un espacio vectorial, y puede considerar una lista de matrices como una secuencia de vectores en este espacio. Bajo este significado, una sola matriz es linealmente dependiente si y solo si es la matriz 0. Como era de esperar, esta noción no es particularmente útil para una matriz única).

Muchas respuestas argumentan que no es posible que una matriz sea linealmente dependiente. Hay una falta de coincidencia de términos. Sin embargo, tengo que estar en desacuerdo con eso, porque una matriz puede tratarse como un vector.

Mientras un conjunto de objetos matemáticos y las operaciones relacionadas satisfagan el axioma específico, los objetos matemáticos podrían llamarse vectores. En este caso, una matriz puede llamarse un vector, con adición de matriz estándar y mutiplicación escalar.

Por lo tanto, el concepto de independencia lineal podría extenderse en el escenario de matriz.

Vuelve a tu pregunta. Un conjunto de matriz [matemática] {A_1, A_2, A_3,…, A_n} [/ matemática] se llama lineal dependiente si y solo si existe una solución distinta de cero para la ecuación [matemática] x1A_1 + x2A_2 +… + x_nA_n = 0 [/matemáticas].

Por lo general, según las respuestas ya dadas (con las advertencias sobre la ambigüedad de la redacción de la pregunta al momento de escribir esta respuesta), significa que algunas de las columnas de la matriz son combinaciones lineales de las otras, y el determinante será cero . Si es una matriz cuadrada, no será invertible. Buscaré una respuesta un poco más visual / intuitiva para el resto, ya que aún no se ha proporcionado.

Suponiendo una matriz cuadrada, por simplicidad de comprensión, la dependencia lineal de las columnas se puede imaginar de la siguiente manera. Si la matriz es [matemática] 2 \ veces 2 [/ matemática], entonces las columnas son múltiplos escalares entre sí. Si los imagina a cada uno como vectores en el plano, ambos apuntan a lo largo de la misma línea (no abarcan el plano; hay puntos en el plano que no puede alcanzar sumando múltiplos de cada uno de estos).

Si nos movemos a tres dimensiones, puede imaginar dos casos de columnas linealmente dependientes: todas las columnas son múltiplos escalares entre sí (en cuyo caso las tres columnas como vectores apuntan a lo largo de la misma línea); o una de las columnas es una combinación lineal de las otras dos, por lo que los tres vectores se encuentran en un solo plano. Es decir, no abarcan un espacio tridimensional, y nuevamente hay puntos en el espacio que no pueden alcanzarse mediante combinaciones lineales de las columnas como vectores.

Otra forma de decirlo es que no forman una base para el espacio en el que se encuentran. Este principio básico se aplica a cualquier cantidad de dimensiones.

La dependencia lineal y la independencia son válidas para un conjunto de vectores o filas de la matriz o columnas de la matriz. No tiene sentido llamar a una matriz linealmente dependiente.