Agregando a las respuestas ya dadas, señalaré y me referiré a tres enlaces y recursos que explican cuándo la multiplicación de matrices puede ser conmutativa.
El artículo de Wikipedia proporciona buenas explicaciones sobre las matrices de conmutación:
En álgebra lineal, se dice que dos matrices [matemáticas] A [/ matemáticas] y [matemáticas] B [/ matemáticas] conmutan si
- ¿Cómo puedo estudiar el álgebra lineal?
- ¿Por qué el rizo de un gradiente es 0? ¿Cuál es una explicación intuitiva de esto?
- ¿De qué sirve la matriz inversa? No lo usaría para resolver sistemas lineales, pero debe haber algunas aplicaciones concretas o de la vida real donde se usa.
- ¿Cuál es la forma más eficiente de calcular solo el valor propio más grande de la matriz de covarianza de un dato de tamaño pequeño (máx. 10 × 10)?
- ¿Cuál es la importancia de los determinantes en el álgebra lineal?
y equivalentemente, su conmutador
es cero Se dice que un conjunto de matrices [matemáticas] A_1,…, A_k [/ matemáticas] se conmutan si se conmutan en pares, lo que significa que cada par de matrices en el conjunto se conmuta entre sí.
Dos matrices ermitas viajan si sus espacios propios coinciden. En particular, dos matrices hermitianas sin múltiples valores propios conmutan si comparten el mismo conjunto de vectores propios. Esto sigue considerando las descomposiciones de valores propios de ambas matrices. Deje que [matemáticas] A [/ matemáticas] y [matemáticas] B [/ matemáticas] sean dos matrices hermitianas. [matemáticas] A [/ matemáticas] y [matemáticas] B [/ matemáticas] tienen espacios propios comunes cuando se pueden escribir como
Entonces se sigue que
- La matriz unitaria conmuta con todas las matrices.
- Las matrices diagonales viajan.
- Los bloques de Jordan viajan con matrices triangulares superiores que tienen el mismo valor a lo largo de las bandas.
- Si el producto de dos matrices simétricas es simétrico, entonces deben conmutar.
El siguiente enlace explora las relaciones entre los elementos de la matriz para que [math] 2 \ times 2 [/ math] la multiplicación de la matriz sea conmutativa. También muestra que si dos matrices [matemáticas] A, B \ en R ^ {n \ veces n} [/ matemáticas] son simultáneamente diagonalizables, es decir, si una matriz [matemáticas] S \ en R ^ {n \ veces n} [ / math] existe de manera tal que [math] D_A = S ^ {- 1} \ cdot A \ cdot S [/ math] y [math] D_B = S ^ {- 1} \ cdot B \ cdot S [/ math], [math] D_A [/ math] y [math] D_B [/ math] son matrices diagonales, entonces las matrices [math] A [/ math] y [math] B [/ math] son conmutativas. Aquí está el enlace :
¿Cuándo es conmutativa la multiplicación de matrices?
Y el siguiente enlace explica, entre otras cosas, que una condición suficiente para que dos matrices sean conmutativas es que sean diagonalizables simultáneamente:
¿Cuándo es conmutativa la multiplicación de matrices?
Una forma práctica de encontrar muchos ejemplos e instancias de (los valores numéricos, ya sean reales o complejos) de los elementos de la matriz de dos matrices conmutativas [matemáticas] n \ veces n [/ matemáticas] es utilizar la función FindInstance [] Mathematica incorporada en función .