Álgebra lineal: en matrices, ¿cómo puedo encontrar una matriz [matemática] A [/ matemática] para una matriz dada [matemática] B [/ matemática], de modo que [matemática] AB = BA [/ matemática]?

Agregando a las respuestas ya dadas, señalaré y me referiré a tres enlaces y recursos que explican cuándo la multiplicación de matrices puede ser conmutativa.

El artículo de Wikipedia proporciona buenas explicaciones sobre las matrices de conmutación:

En álgebra lineal, se dice que dos matrices [matemáticas] A [/ matemáticas] y [matemáticas] B [/ matemáticas] conmutan si

y equivalentemente, su conmutador

es cero Se dice que un conjunto de matrices [matemáticas] A_1,…, A_k [/ matemáticas] se conmutan si se conmutan en pares, lo que significa que cada par de matrices en el conjunto se conmuta entre sí.

Dos matrices ermitas viajan si sus espacios propios coinciden. En particular, dos matrices hermitianas sin múltiples valores propios conmutan si comparten el mismo conjunto de vectores propios. Esto sigue considerando las descomposiciones de valores propios de ambas matrices. Deje que [matemáticas] A [/ matemáticas] y [matemáticas] B [/ matemáticas] sean dos matrices hermitianas. [matemáticas] A [/ matemáticas] y [matemáticas] B [/ matemáticas] tienen espacios propios comunes cuando se pueden escribir como

Entonces se sigue que

  • La matriz unitaria conmuta con todas las matrices.
  • Las matrices diagonales viajan.
  • Los bloques de Jordan viajan con matrices triangulares superiores que tienen el mismo valor a lo largo de las bandas.
  • Si el producto de dos matrices simétricas es simétrico, entonces deben conmutar.

El siguiente enlace explora las relaciones entre los elementos de la matriz para que [math] 2 \ times 2 [/ math] la multiplicación de la matriz sea conmutativa. También muestra que si dos matrices [matemáticas] A, B \ en R ^ {n \ veces n} [/ matemáticas] son ​​simultáneamente diagonalizables, es decir, si una matriz [matemáticas] S \ en R ^ {n \ veces n} [ / math] existe de manera tal que [math] D_A = S ^ {- 1} \ cdot A \ cdot S [/ math] y [math] D_B = S ^ {- 1} \ cdot B \ cdot S [/ math], [math] D_A [/ math] y [math] D_B [/ math] son ​​matrices diagonales, entonces las matrices [math] A [/ math] y [math] B [/ math] son ​​conmutativas. Aquí está el enlace :

¿Cuándo es conmutativa la multiplicación de matrices?

Y el siguiente enlace explica, entre otras cosas, que una condición suficiente para que dos matrices sean conmutativas es que sean diagonalizables simultáneamente:

¿Cuándo es conmutativa la multiplicación de matrices?

Una forma práctica de encontrar muchos ejemplos e instancias de (los valores numéricos, ya sean reales o complejos) de los elementos de la matriz de dos matrices conmutativas [matemáticas] n \ veces n [/ matemáticas] es utilizar la función FindInstance [] Mathematica incorporada en función .

Uno puede hacer esto explotando el hecho de que dos matrices de conmutación tienen una base de estado propio común.
1. Encuentre los valores propios de B y sus vectores propios correspondientes.

2. Suponiendo que B es una matriz de n dimensiones, expanda B de esta forma:
[matemáticas] B = \ sum_ {i = 1} ^ {n} \ lambda_i | b_i \ rangle \ langle b_i | [/matemáticas]

Donde [math] | b_i \ rangle [/ math] son ​​los vectores propios correspondientes a los valores propios [math] \ lambda_i [/ ​​math].

3. Construya una A de manera que tenga una expansión similar a la de B, con los valores propios cambiados a cualquier valor arbitrario, es decir
[matemáticas] A = \ sum_ {i = 1} ^ {n} \ mu_i | b_i \ rangle \ langle b_i | [/matemáticas]
La nueva matriz conmuta con B.

Este método puede sufrir cuando B tiene valores propios degenerados y, por supuesto, no es el más general ya que B puede no ser diagonalizable.

En primer lugar, si [matemática] B [/ matemática] no es una matriz cuadrada, entonces la respuesta a esta pregunta es simple: no existe una matriz [matemática] A [/ matemática] tal que [matemática] AB = BA [/ matemáticas]. La razón también es simple: [matemáticas] AB [/ matemáticas] y [matemáticas] BA [/ matemáticas] son ​​matrices de diferentes tamaños, por lo que nunca pueden ser iguales.

Por lo tanto, supongamos que [math] B [/ math] es una matriz cuadrada. Entonces, para que [math] A [/ math] exista, [math] A [/ math] también debe ser una matriz cuadrada del mismo tamaño que [math] B [/ math], de lo contrario, uno de [math] AB [ / math] o [math] BA [/ math] no existiría.

Con eso fuera del camino, aquí hay un método simple para encontrar una matriz [matemática] A [/ matemática] tal que [matemática] AB = BA [/ matemática], que funcione para cualquier matriz cuadrada [matemática] B [/ matemática] (aparte de las opciones obvias: la matriz cero y la matriz de identidad):

  1. Encuentre un vector propio [matemático] x [/ matemático] de [matemático] B [/ matemático] asociado con algún valor propio [matemático] \ lambda [/ matemático] de [matemático] B [/ matemático].
  2. Encuentre un vector propio [matemático] y [/ matemático] de [matemático] B ^ T [/ matemático] asociado con el mismo valor propio [matemático] \ lambda [/ matemático]. (Siempre puede hacer esto porque [matemática] B [/ matemática] y [matemática] B ^ T [/ matemática] tienen los mismos valores propios, aunque pueden tener vectores propios diferentes.
  3. Deje [math] A = xy ^ T [/ math]. Entonces tiene garantizado que [math] AB = BA [/ math].

Prueba de que [matemática] AB = BA [/ matemática]: [matemática] Bx = \ lambda x [/ matemática], entonces [matemática] Bxy ^ T = \ lambda xy ^ T [/ matemática]. Además, [matemática] B ^ T y = \ lambda y [/ matemática], que puede reescribirse como [matemática] y ^ TB = \ lambda y ^ T [/ matemática], y por lo tanto [matemática] xy ^ TB = \ lambda xy ^ T [/ matemáticas]. Por lo tanto, [math] (xy ^ T) B = B (xy ^ T) [/ math], entonces [math] xy ^ T [/ math] conmuta con [math] B [/ math], según sea necesario.

Tenga en cuenta que, utilizando el método anterior, la matriz [matemática] A [/ matemática] obtenida siempre tendrá rango uno.

Aquí hay un ejemplo: let [math] B = \ begin {pmatrix} 1 & -2 \\ 5 & -1 \ end {pmatrix}. [/ Math]

Los valores propios de esta matriz son [math] 3i [/ math] y [math] -3i [/ math]. Un vector propio asociado con [matemáticas] 3i [/ matemáticas] de [matemáticas] B [/ matemáticas] es [matemáticas] x = \ begin {pmatrix} 1 + 3i \\ 5 \ end {pmatrix} [/ matemáticas], mientras que un vector propio asociado con [matemática] 3i [/ matemática] para [matemática] B ^ T [/ matemática] es [matemática] y = \ begin {pmatrix} -5 \\ 1-3i \ end {pmatrix} [/ math]. Al evaluar [matemáticas] A = xy ^ T [/ matemáticas], obtenemos

[matemáticas] A = \ begin {pmatrix} 1 + 3i \\ 5 \ end {pmatrix} \ begin {pmatrix} -5 y 1-3i \ end {pmatrix} = \ begin {pmatrix} -5-15i & 10 \ \ -25 & 5-15i \ end {pmatrix} = 5 \ begin {pmatrix} -1-3i & 2 \\ -5 & 1-3i \ end {pmatrix}. [/ Math]

Veamos ahora que [math] AB [/ math] es de hecho igual a [math] BA [/ math]:

[matemáticas] AB = 5 \ begin {pmatrix} -1-3i & 2 \\ -5 & 1-3i \ end {pmatrix} \ begin {pmatrix} 1 & -2 \\ 5 & -1 \ end {pmatrix} = 5 \ begin {pmatrix} 9-3i & 6i \\ -15i & 9 + 3i \ end {pmatrix}. [/ Math]

[matemáticas] BA = \ begin {pmatrix} 1 y -2 \\ 5 & -1 \ end {pmatrix} 5 \ begin {pmatrix} -1-3i & 2 \\ -5 & 1-3i \ end {pmatrix} = 5 \ begin {pmatrix} 9-3i & 6i \\ -15i & 9 + 3i \ end {pmatrix}. [/ Math]

Caracterizaré todas las respuestas, es decir, el conjunto

[matemáticas] \ Omega = [A: A \ in {\ bf {C} ^ {NxN}}, AB = BA, B \ in {\ bf {C} ^ {NxN}}, B!]. [/ math ] [matemáticas] [/ matemáticas]

Asumiremos que B es diagonalizable. Entonces B = [matemáticas] TDT ^ {- 1}. [/ Matemáticas] Usando el teorema de la función implícita podemos tratar a B como diagonal, encontrar A y luego mapear a través de T de la siguiente manera:

[matemáticas] AB = BA \ flecha derecha T ^ {- 1} ATD = [/ matemáticas] [matemáticas] DT ^ {- 1} AT, A ‘= T ^ {- 1} AT, \ flecha derecha A’ = DA’D ^ {- 1}, A ‘= diag (\ lambda_i), A = Tdiag (\ lambda_i) T ^ {- 1} [/ math]

[matemáticas] \ Omega = [A: A = Tdiag (\ lambda_i) T ^ {- 1}, \ lambda_i \ in {\ bf {C}}, B = TDT ^ {- 1}, B!] [/ math ]

Es el caso de todas las matrices que comparten un sistema común (base) de vectores propios, es decir, conmutan, como dijo abhinav, solo agregaré una breve prueba:
[matemáticas] B [/ matemáticas] conmuta con [matemáticas] A [/ matemáticas], [matemáticas] B [/ matemáticas] conserva cada una de las [matemáticas] E _ {\ lambda_i} [/ matemáticas]:
si [matemática] A v = \ lambda_i v, [/ matemática] entonces [matemática] A (B v) = (AB) v [/ matemática] [matemática] = (BA) v = B (Av) [/ matemática] [matemáticas] = B (\ lambda_i v) = \ lambda_i Bv. [/ matemáticas]
(use el espacio propio generalizado cuando no sean digitalizables)

Esto solo se mantendrá para las matrices diagonales (la matriz de identidad es el caso obvio). También cualquier par de matrices diagonales que cumplan

[matemáticas] A ^ * = PAP ^ {- 1} [/ matemáticas]

[matemáticas] B ^ * = PBP ^ {- 1} [/ matemáticas]

Donde [math] P [/ math] es una matriz invertible.

Esto es cierto ya que [matemática] A ^ * [/ matemática] y [matemática] B ^ * [/ matemática] están diagonalizadas a través de la misma matriz [matemática] P [/ matemática].

Un enfoque más simple: cualquier matriz de la forma f (B), donde f (x) es un polinomio, se conmutará con B.