¿Por qué las matrices representan mapas lineales?

Por ejemplo, considere un ejemplo para matrices [math] 2 \ times 2 [/ math] que representan mapas lineales de [math] \ mathbb {R} ^ 2 \ rightarrow \ mathbb {R} ^ 2 [/ math]. Cualquier vector en un espacio vectorial bidimensional puede escribirse de manera única como una combinación lineal de dos vectores básicos, es decir, [math] ux + vy [/ math] donde [math] u, v [/ math] son ​​escalares y [math ] x, y [/ math] son ​​vectores bidimensionales linealmente independientes y, por lo tanto, una base establecida en 2 dimensiones. Si [math] f: \ mathbb {R} ^ 2 \ rightarrow \ mathbb {R} ^ 2 [/ math] es lineal, entonces de la definición de linealidad
[matemáticas] f (ux + vy) = uf (x) + vf (y) [/ matemáticas]. Tenga en cuenta que [math] f (x), f (y) [/ math] también son vectores, por lo que también se pueden escribir de forma única como combinaciones lineales de los vectores base
[matemáticas] f (x) = ax + cy [/ matemáticas]
[matemáticas] f (y) = bx + dy [/ matemáticas],
donde [matemáticas] a, b, c, d [/ matemáticas] son ​​escalares. Sustituyendo estas expresiones en la ecuación anterior, obtienes
[matemáticas] f (ux + vy) = ua x + uc y + vb x + vd y [/ matemáticas]
que se puede simplificar a
[matemáticas] (ua + vb) x + (uc + vd) y [/ matemáticas].
Los términos escalares pueden parecer familiares: ¡son las expresiones para la multiplicación de un vector de columna por una matriz! Dado que sabemos que cualquier vector se determina de manera única como una combinación lineal de vectores básicos, si arreglamos los vectores básicos, entonces todo lo que necesitamos hacer son los escalares. Es decir, el vector de la columna de coordenadas nuestro vector original [math] ux + vy [/ math] en términos de la base [math] x, y [/ math] son
[matemáticas] \ begin {bmatrix} u \\ v \ end {bmatrix} [/ math].
La matriz está compuesta por las coordenadas de cada uno de los vectores de base en el orden que hemos elegido. Como [math] u [/ math] era el escalar correspondiente a [math] x [/ math], este es el primer vector base, por lo que la primera columna de la matriz debe ser el vector de la columna de coordenadas de [math] f (x ) [/ math] que de [math] f (x) = ax + cy [/ math] es
[matemáticas] \ begin {bmatrix} a \\ c \ end {bmatrix} [/ math]
Del mismo modo, la segunda columna de la matriz es el vector de la columna de coordenadas de [math] f (y) = bx + dy [/ math] que es
[matemáticas] \ begin {bmatrix} b \\ d \ end {bmatrix} [/ math].
Ahora junte esto como un producto matriz-vector:
[matemáticas]
\ begin {bmatrix}
a B C D
\ end {bmatrix}
\ begin {bmatrix}
u \\ v
\ end {bmatrix}
=
\ begin {bmatrix}
ua + vb \\ uc + vd
\ end {bmatrix}
[/matemáticas]
que es consistente con lo que encontramos arriba. Básicamente, las matrices actúan como una abreviatura para una transformación lineal almacenando las coordenadas de esa transformación para cada uno de los vectores (fijos) en un conjunto de bases ordenadas.

Este ejemplo es para funciones lineales de [math] \ mathbb {R} ^ 2 \ rightarrow \ mathbb {R} ^ 2 [/ math], pero funciona exactamente de la misma manera para las transformaciones entre otros espacios de dimensiones finitas.

Una matriz [math] \ R ^ {m \ times n} [/ math] representa un mapa [math] \ R ^ n \ to \ R ^ m [/ math] porque si [math] x \ in \ R ^ n [/ math], luego [math] Ax \ in \ R ^ m [/ math].

Los mapas lineales satisfacen [math] f (\ alpha x + \ beta y) = \ alpha f (x) + \ beta f (y) [/ math]. La multiplicación de matrices satisface [matemáticas] A (\ alpha x + \ beta y) = \ alpha Ax + \ beta Ay [/ matemáticas], por lo tanto, las matrices son mapas lineales.