Un libro muy bueno para este tema es ” Espacios de vectores dimensionales finitos ” de Halmos. Debería poder encontrar una reimpresión en rústica económica de esto: vale la pena guardarlo en la biblioteca de su hogar.
Primero hay que entender las combinaciones lineales . Esperemos que se les haya hecho alguna mención de los vectores . Una combinación lineal de vectores es una suma de múltiplos escalares de ellos.
Un escalar es un elemento de un campo (por ejemplo, un número racional, real o complejo).
La adición de vectores tiene algunas similitudes con la suma de números: si agrega el vector cero 0 a otro vector x, entonces la suma es igual a x. Cada vector también tiene un negativo : x + (-x) = 0 .
- ¿Cuál es la transformación matemática que ocurre aquí? ¿Cómo sé la ecuación 24 de 22 y 23? ¿Cómo sé la matriz M?
- ¿Cuál es la relación entre los vectores propios y el pagerank / search?
- ¿Es Javascript bueno en aplicaciones informáticas científicas como el álgebra lineal?
- Cómo encontrar la dimensionalidad de un espacio de Hilbert a partir de su función de producto interno (núcleo)
- ¿Cuál es la diferencia entre un operador de Hesse y Laplace?
Un conjunto de vectores es linealmente independiente si la única combinación lineal de ellos que es igual al vector cero tiene todos los coeficientes escalares cero. De lo contrario, el conjunto es linealmente dependiente .
Entonces, un conjunto de vectores depende linealmente si existe una combinación lineal no trivial de ellos que sea igual al vector cero. (Por una combinación lineal trivial, me refiero a una en la que todos los múltiplos escalares son cero, porque por supuesto eso siempre da como resultado un vector cero).
En un espacio vectorial, hay un número máximo de vectores que pueden ser linealmente independientes. Este número se llama dimensión del espacio .
Si cada vector puede expresarse como una combinación lineal de un conjunto dado de vectores, entonces decimos que ese conjunto abarca el espacio. En un espacio con dimensión n , cualquier conjunto de n vectores independientes abarcará el espacio, pero ningún conjunto más pequeño puede hacerlo. Llamamos a un conjunto de vectores linealmente independientes una base . Entonces, en un espacio vectorial de n dimensiones, cada base tiene n vectores.
Los conjuntos de vectores dependientes e independientes tienen propiedades útiles que es importante conocer. (Estas propiedades son valiosas en muchos contextos análogos, pero ese es otro tema).
Cualquier subconjunto de una base (o, de hecho, de cualquier conjunto linealmente independiente) es linealmente independiente.
Cualquier conjunto mayor que una base es linealmente dependiente. Cualquier conjunto que contenga un conjunto linealmente dependiente es linealmente dependiente.
Ejemplos de conjuntos de vectores linealmente dependientes: {el vector cero}; de hecho, cualquier conjunto que contenga el vector cero; {v, 2v}; {u, v, u + v}; {u, v, u + v, uv}; {u, v, w, 5u + 7v-3w}; y así.
Las filas de una matriz son vectores, porque puede agregarlos y multiplicar cada uno de ellos por un escalar. Así son las columnas.
Las matrices pueden ser cuadradas (tienen el mismo número de filas que las columnas) o no cuadradas.
Una matriz cuadrada podría describirse como “linealmente independiente” si sus filas (de manera equivalente, columnas) son linealmente independientes.
Las matrices no cuadradas son más complicadas: por ejemplo, incluso si tienen menos filas que columnas y sus filas son independientes, entonces sus columnas son dependientes (y viceversa). Así que ceñámonos a las matrices cuadradas.
Una matriz A es “linealmente independiente” si y solo si tiene una matriz inversa B tal que AB = BA = 1.
En este contexto, 1 es la matriz de identidad (la diagonal es todo 1 y las otras entradas son 0). 1 tiene la propiedad multiplicativa de que A1 = 1A = A, mientras que la matriz cero 0 (todas las entradas son 0) tiene A0 = 0A = 0.
Una cantidad escalar importante calculada a partir de las entradas en la matriz es el determinante. Las matrices con determinante distinto de cero son “linealmente independientes” y tienen inversas. Las matrices “linealmente dependientes” son aquellas con cero determinante y sin inversas.