Para un buen número de casos, sí, ya que este es un producto entre A y B. Pero a veces, en casos de vectores, la propiedad conmutativa no es válida. Digamos que teníamos un producto particular entre dos vectores: el producto cruzado. Digamos que el vector [math] \ vec A [/ math] [math] = \ left [/ math] y el vector [math] \ vec B = \ left [/ matemáticas]
[math] \ vec A \ times \ vec B [/ math] (considerado como A cross B) sería igual al determinante para cada vector unitario:
[matemática] \ vec A \ times \ vec B = \ begin {vmatrix} \ hat \ imath & \ hat \ jmath & \ hat k \\ 1 & 2 & 3 \\ 4 & 5 & 6 \ end {vmatrix} [ /matemáticas]
[matemáticas] \ hat \ imath = \ begin {vmatrix} 2 y 3 \\ 5 y 6 \ end {vmatrix} [/ math]
- ¿Es cierto que la regla de poder se vuelve inexacta con poderes muy altos, por ejemplo, [matemática] \ frac {d} {dx} x ^ {999999999} = 999999999x ^ {999999998} [/ matemática]?
- ¿Cómo resuelvo esto? [Matemáticas] \ lim \ limits_ {n \ rightarrow \ infty} \ left (\ frac {n + 1} {\ sqrt {n ^ {3} +1}} + \ frac {n + 2 } {\ sqrt {n ^ {3} +2}} +… + \ frac {n + n} {\ sqrt {n ^ {3} + n}} \ right) [/ math]?
- Deje que X e Y sean variables aleatorias independientes con variaciones finitas, y deje que U = X + Y y V = XY. ¿En qué condiciones están U y V sin correlación?
- ¿Por qué el valor de x = 13 e y = + / – 13, a pesar de que ambos están en la raíz?
- ¿Cuál es la relación entre el grupo de Lorentz y las matrices [matemáticas] \ gamma [/ matemáticas] de la ecuación de Dirac en dimensiones 2 + 1?
[matemáticas] = (2 \ cdot 6 – (3 \ cdot 5)) = -3 [/ matemáticas]
[matemáticas] \ hat \ jmath = – \ begin {vmatrix} 1 y 3 \\ 4 y 6 \ end {vmatrix} [/ math]
[matemáticas] = – (1 \ cdot 6 – (3 \ cdot 4)) = – (- 6) = 6 [/ matemáticas]
[matemáticas] \ hat k = \ begin {vmatrix} 1 y 2 \\ 4 y 5 \ end {vmatrix} [/ math]
[matemáticas] = (1 \ cdot 5 – (2 \ cdot 4)) = -3 [/ matemáticas]
Entonces [matemáticas] \ vec A \ times \ vec B = \ left [/ math]
[math] \ vec B \ times \ vec A [/ math] simplemente cambia la posición de los vectores con [math] \ vec B [/ math] encima de [math] \ vec A [/ math] en lugar de viceversa . Con estos pasos realizados de la misma manera (o tal vez de una manera más rápida, como tener conocimiento del producto vectorial cruzado), encontramos
[matemáticas] \ vec B \ veces \ vec A = \ left [/ math].
Esto nos proporciona la anti-conmutatividad de los productos cruzados. Es decir,
[matemáticas] \ vec A \ veces \ vec B = – \ vec B \ veces \ vec A [/ matemáticas].
Otro producto también hará que esta multiplicación de matrices sea falsa. En muchos casos, la multiplicación de matrices no es conmutativa ni anti-conmutativa, ya que dentro de su multiplicación hay un producto de puntos.
La multiplicación de matrices es multiplicar y sumar (término por término correspondiente) la fila de la primera matriz por la primera columna de la segunda matriz y luego continuar por el número de columnas en la segunda matriz. Este proceso continúa repitiendo este proceso para el número de filas en la primera matriz. Y luego uno se da cuenta de que tendrían que tratar de hacer que esto sea conmutativo o anti-conmutativo y puede a) hacerlo o b) no hacerlo. Si fuera a extraer dos matrices aleatorias, A y B de la nada, sería muy poco probable que mostraran la propiedad conmutativa de AB = BA.
En resumen, los productos cruzados de vectores y la multiplicación de matrices tienen esta forma de AB = BA pero no siguen esta propiedad de conmutatividad con la frecuencia suficiente como para que cada AB = BA.
Editar: Como has descubierto (o no), hay muchos problemas al tratar de poner matrices y vectores en Quora.