Dado un conjunto de dos vectores, ¿por qué ser paralelo también significa que son linealmente dependientes?

Deje que [math] \ mathbf {U} [/ math] y [math] \ mathbf {V} [/ math] sean dos vectores.

El rechazo de V con respecto a U es:

[math] \ mathbf {U} _ \ perp = \ mathbf {U} – (\ mathbf {U} \ cdot \ mathbf {V}) \ frac {\ mathbf {V}} {V ^ 2} [/ math]

Este es el componente de U que es completamente perpendicular a V.

Supongamos que [math] \ mathbf {U} \ parallel \ mathbf {V} [/ math],

entonces,

[math] \ mathbf {U} _ \ perp = 0 [/ math].

Ahora deja

[matemáticas] a \ mathbf {U} + b \ mathbf {V} = \ mathbf {W} [/ math]

Entonces, dividiendo U en sus componentes, perpendicular y paralelo a V , podemos reescribir esto como

[matemáticas] \ left [a \ mathbf {U} – a (\ mathbf {U} \ cdot \ mathbf {V}) \ frac {\ mathbf {V}} {V ^ 2} \ right] + a (\ mathbf {U} \ cdot \ mathbf {V}) \ frac {\ mathbf {V}} {V ^ 2} + b \ mathbf {V} = \ mathbf {W} [/ math].

Pero sabemos que los términos entre corchetes en el LHS, que son simplemente [math] a [/ math] [math] \ mathbf {U} _ \ perp [/ math], se desvanecen, por lo que tenemos,

[matemáticas] a (\ mathbf {U} \ cdot \ mathbf {V}) \ frac {\ mathbf {V}} {V ^ 2} + b \ mathbf {V} = \ mathbf {W} [/ math]

¡Pero esto es solo múltiplos escalares de V !

Entonces, si establecemos

[math] b = – \ frac {a (\ mathbf {U} \ cdot \ mathbf {V})} {V ^ 2} [/ math], entonces

[math] \ mathbf {W} = \ mathbf {0} [/ math]

QED

Debido a que ambas declaraciones pueden traducirse de la misma manera usando la definición de dependencia lineal. Un conjunto [matemático] \ {v_1, v_2,…, v_n \} [/ matemático] de vectores son linealmente independientes si y solo si la combinación lineal:

[matemáticas] a_1 v_1 + a_2 v_2 +… + a_n v_n = 0 [/ matemáticas]

admite solo una solución trivial para coeficientes reales [matemática] a_1,…, a_n [/ matemática] (p. ej .: [matemática] a_i = 0, 1 \ leq i \ leq n). [/ matemática]

Esto significa que si son lineales dependientes, hay al menos un número [math] a_k [/ math] tal que [math] a_k \ neq 0 [/ math] y se cumple la ecuación anterior.

Ahora escriba lo que significa que un conjunto de vectores [math] \ {w_i \} [/ math] sea paralelo: significa que existe un número real [math] \ lambda_ {ij} \ neq 0 [/ math], tal que [math] w_i = \ lambda_ {ij} w_j, \ forall i, j [/ math], que es lo mismo que escribir:

[matemáticas] w_i – \ lambda_ {ij} w_j = 0 [/ matemáticas]

Entonces hay al menos dos números reales [matemática] a_i = 1, a_j = – \ lambda_ {ij} [/ matemática] y [matemática] a_k = 0, \ forall k \ notin \ {i, j \} [/ matemática ] tal que

[matemáticas] \ sum_ {k = 1} ^ {n} a_k w_k = 0. [/ matemáticas]

lo que equivale a decir que el conjunto de vectores no son linealmente independientes.

La forma más sencilla de ver esto es aplicando el teorema de Thales. Coloque los dos vectores paralelos en el origen, y si también observa sus proyecciones en los dos ejes, puede aplicar Thales a esta imagen. Si tus dos vectores son (a, b) y (c, d) obtienes a / c = b / d = k. Esto da (a, b) = k (c, d), por lo tanto, una relación de dependencia lineal con los coeficientes 1 y – k.

Dados dos vectores paralelos, su dependencia o independencia lineal no tiene mucha importancia. Pero la pregunta más importante radica en si se representan como un conjunto tal como se mencionó en la pregunta.

En álgebra lineal, un conjunto de vectores (generalmente un conjunto de vectores de columna) está destinado a representar su extensión. Como sentido común en Lin Alg, podemos abarcar el espacio n-dim con n vectores independientes lineales [math] \ in \ R n [/ math].

Quizás en su pregunta, estamos buscando vectores que abarquen 2 dimensiones, y dos vectores paralelos no pueden abarcar R2, por lo tanto linealmente dependientes. En R3, sus 3 vectores más diversos, para ser linealmente independientes, deben ser tanto no colineales (paralelos) como no coplanares …

Un conjunto de dos vectores, v1 y v2, son linealmente independientes si y solo si los únicos escalares c1 y c2 que satisfacen

c1v1 + c2v2 = 0

Ambos son iguales a 0.

Ahora, reorganice la ecuación anterior de modo que:

c1v1 = -c2v2

Dado que v1 y v2 son vectores paralelos, para cualquier valor de c1 que elija (siempre que sea un número real) habrá un valor correspondiente de c2, de modo que la ecuación anterior sea verdadera. Esto sugiere que hay infinitos pares de (c1, c2) que satisfacen la ecuación y, por lo tanto, el conjunto de dos vectores paralelos son linealmente dependientes.

La razón es que satisfacen la definición de dependencia lineal. Cualquiera de los dos vectores puede definirse como una función lineal del otro. Vea la primera oración de esta página: Independencia lineal – Wikipedia.