¿Cómo surgieron las reglas de la multiplicación de matrices?

No sé sobre su historia real, pero me acerqué a las matrices (en la escuela secundaria) desde dos direcciones muy opuestas. Una era una forma de sistematizar la solución de ecuaciones lineales simultáneas, que se vuelve muy ad hoc después de que el número de ecuaciones llega a ser 3 o más, a menos que tenga un sistema que motive el pivote gaussiano. Saque los nombres de las variables y quedará con bloques de números, cuya manipulación abstracta todavía tiene sentido. A partir de ahí, puede aprender fácilmente a apreciar sus reglas multiplicativas y otras propiedades (aunque los determinantes siguieron siendo un enigma).

Mi otra dirección fue el descubrimiento fascinante de que conjuntos de matrices podrían formar grupos cerrados (algebraicos) y, de hecho, mi segundo programa de computadora, escrito en Fortran IV en tarjetas perforadas para un CDC 3300, fue buscar estos grupos. Estaba bastante orgulloso de mi código para invertir una matriz en su lugar. (No recuerdo ahora cómo llegué a conocer los grupos abelianos en la escuela secundaria; fue hace mucho tiempo, pero también leí mucho y nuestro profesor de matemáticas era doctor). Este también es el lugar apropiado para un Un agradecimiento especial a Daniel D. McCracken, cuya serie de libros introductorios de programación (Fortran IV y Algol 60) me ayudó a comenzar una larga carrera en varias ciencias.

Más tarde, uno toma clases que incluyen gráficos por computadora, álgebra lineal y abstracta, y mecánica cuántica, y se da cuenta de que las matrices representan mucho más que simples bloques de números con propiedades algebraicas pintorescas y cuyo uso principal es resolver ecuaciones. – Bruce

La multiplicación de matrices se define para corresponder a la composición de transformaciones lineales.

Suponga que tiene una transformación lineal [math] \ mathbf R ^ p \ to \ mathbf R ^ n [/ math] dada por una matriz B y una transformación lineal [math] \ mathbf R ^ n \ to \ mathbf R ^ m [ / math] dada por una matriz A. Entonces la composición de esas dos transformaciones lineales es una transformación lineal [math] \ mathbf R ^ p \ to \ mathbf R ^ m [/ math] que está dada por alguna matriz [math] C . [/ math] Entonces la multiplicación de la matriz se define de modo que [math] AB [/ math] sea igual a [math] C. [/ math]

Lo que los instructores de álgebra lineal a menudo no le dicen, por razones desconocidas para mí, es que una matriz no es solo una cuadrícula aleatoria de números, sino que tampoco es una abreviatura para representar un sistema de ecuaciones. Una matriz está destinada a representar una transformación lineal .

Una transformación lineal es una regla mediante la cual un grupo de números de entrada se transforma en un grupo de números de salida, de tal manera que cada número de salida se produce al multiplicar los números de entrada por ciertos coeficientes y luego sumarlos todos. Un buen ejemplo es la regla por la cual obtienes las coordenadas de un punto después de que ha sido girado alrededor del origen por [math] \ theta [/ math] radianes.

[matemática] x_ {nueva} = \ cos \ theta x_ {antigua} – \ sin \ theta y_ {antigua} [/ matemática]

[matemáticas] y_ {nuevo} = \ sin \ theta x_ {antiguo} + \ cos \ theta y_ {antiguo} [/ matemático]

Las entradas [math] x_ {old} [/ math] y [math] y_ {old} [/ math] no se elevan a potencias ni nada, simplemente se multiplican por coeficientes y luego se suman. Dado que la transformación está completamente determinada por los coeficientes, puede escribirla simplemente usando una matriz con los coeficientes.

Ahora, resulta que cuando aplica dos transformaciones lineales a un conjunto dado de entradas, el resultado es equivalente a aplicar una sola transformación lineal, cuyos coeficientes están dados por la multiplicación de matrices.

De la definición de transformaciones lineales .

Una transformación lineal T es una que:
T (U + V) = TU + TV
T (aV) = ​​un televisor
donde U, V son vectores y un escalar.

También sabemos que los vectores se descomponen en componentes. El número de componentes es la dimensión del espacio vectorial. Esta también es una propiedad que proviene de la linealidad.

Si consideramos la transformación lineal de los vectores, podemos escribir cómo se transforman sus componentes. Entonces notamos que la transformación puede ser representada por un grupo de números ([math] n \ times n [/ math] de ellos), esa es la “matriz”.