¿Por qué la multiplicación de matrices no es tan simple como la suma de matrices?

Las matrices representan transformaciones lineales entre espacios vectoriales. La multiplicación de matrices es en realidad una composición de funciones lineales. La multiplicación de matrices es lo que surge cuando:
1) Busque una expresión que satisfaga [matemáticas] f (g (x)) [/ matemáticas]
2) Suponga que [math] f, g [/ math] ambos satisfacen las restricciones de linealidad, lo que significa [math] f (x + y) = f (x) + f (y) [/ math] para cualquiera de los dos vectores [math ] x, y [/ math] y [math] f (ax) = af (x) [/ math] para cualquier escalar [math] a [/ math].

Como señaló otro afiche, se puede definir la multiplicación puntual, pero no expresa los conceptos anteriores. Es decir, la multiplicación de matrices se define para que pueda representar [matemáticas] f (g (x)) = C x [/ matemáticas] donde [matemáticas] f (x) = A, g (x) = Bx, C = AB [ /matemáticas]. La multiplicación puntual define algo que puede ser útil en otros contextos, pero no le da lo mismo que antes, lo que tiende a ser más útil cuando se trata con este tipo de funciones. Por ejemplo, las matrices pueden representar rotaciones. La composición de las funciones de rotación es igual a una rotación total particular (es decir, la primera rotación seguida de la segunda) y la multiplicación matricial le brinda una forma de representar esa función de rotación total en términos de los individuos. Si hiciera una multiplicación puntual de esas funciones, obtendría algo completamente diferente que generalmente es menos útil en el contexto de discutir funciones lineales.

La suma de matrices no sigue este patrón porque la suma de matrices tiene que ver con agregar las salidas de las funciones lineales. La adición de vectores siempre se define en un espacio vectorial, y la definición de las propias matrices está algo entrelazada con esta definición. Sin embargo, los espacios vectoriales no tienen una definición intrínseca de multiplicación de vectores, por lo que la definición de multiplicación matricial es algo menos intuitiva.

La multiplicación puntual es posible, pero significa algo más matemáticamente.

La multiplicación regular de la matriz se deriva de su significado matemático. Por ejemplo, si una matriz representa alguna rotación, y otra matriz representa sesgo, entonces el producto representa la operación compuesta.

Si lo desea, puede definir la multiplicación sabia de elementos como su propia “multiplicación de matriz simple”.
El inconveniente es el siguiente:
“Si T y S son dos transformaciones lineales, la matriz de transformación lineal TS (composición) ya no será dada por la simple multiplicación matricial de sus matrices individuales, es decir, [T] [S].

La suma y la multiplicación de matrices tienen más significado que solo ser operaciones con números.

Cuando agrega dos matrices, lo que está haciendo esencialmente es agregar la magnitud a lo largo de las direcciones del vector unitario correspondientes de los vectores respectivos (suma de vectores). Esto es como hacer [matemáticas] X + Y = 3 [/ matemáticas] más [matemáticas] 2X + 5Y = 7 [/ matemáticas] da [matemáticas] 3X + 6Y = 10 [/ matemáticas]

Ejercicio: piense por qué solo puede agregar matrices de la misma dimensión.

Cuando haces la multiplicación de matrices, estás multiplicando dos vectores y generalmente es el producto interno (o producto de puntos). Y es por eso que la multiplicación de matrices se define como es.

Agregar + y Mul × es la diferencia
Si vemos la matriz como la transformación del espacio, Mul es la transformación continua del espacio.
Pero Add no lo es.
Para más realidad, dividimos 2 después de agregar 2 matrices.
[matemáticas] A = \ izquierda ({T} _ {1} + {T} _ {2} \ derecha) \ div 2 [/ matemáticas]
Eso significa que la nueva transformación lineal está entre T1 y T2.