¿Cuáles serían las implicaciones si la multiplicación de matrices fuera conmutativa?

Voy a ofrecer una respuesta menos matemática a esta pregunta. (¡Matemáticos, corrijan mis suposiciones y declaraciones si están equivocados!)

Estoy seguro de que todos hemos oído hablar del Principio de incertidumbre de Heisenberg , el quid de la mecánica cuántica. Establece que no se puede medir tanto el momento como la posición de una partícula con total certeza, dada por

[matemáticas] \ sigma_x \ sigma_p \ geq \ frac {h} {4 \ pi} [/ matemáticas]

Pero, de hecho, el Principio de incertidumbre de Heisenberg es solo una aplicación de un principio de incertidumbre mucho más general , que describe la relación de incertidumbre entre dos operadores A y B:

[matemáticas] \ sigma ^ 2_A \ sigma ^ 2_B \ geq \ Big (\ frac {1} {2i} \ Big) ^ 2 [/ math]

Aquí, la expresión contenida en los corchetes es el conmutador de los operadores A y B, que expresa el nivel al que “fallan al conmutar”. Básicamente, [matemáticas] [A, B] = AB – BA [/ matemáticas]

Cualquier cosa que podamos medir, llamada “observable” en mecánica cuántica, está representada por algún operador. La posición y el momento pueden ser definidos por operadores de mecánica cuántica, y expresados ​​en forma de matriz. (Todas las matrices son solo operadores lineales).

Si se conmuta la posición y el momento (léase: la multiplicación de matrices fue conmutativa) , es decir, si [matemática] [x, p] = xp – px = 0 [/ matemática], entonces el lado derecho en el principio general de incertidumbre sería 0 , y no tendríamos el Principio de Incertidumbre de Heisenberg !

Podríamos determinar con precisión la posición y el momento (o dos observables no conmutables) de un sistema con precisión, y la mecánica cuántica como la conocemos hoy sería nix.

(Nota: Disculpe esta justificación de agitar las manos. ¡Corríjame en cualquier parte insatisfactoria! Esto solo pretende llamar la atención sobre una consecuencia física genial).

El propósito de una matriz era, y sigue siendo, un dispositivo de contabilidad para describir transformaciones lineales. La multiplicación de matrices se definió para corresponder a la composición de las transformaciones lineales. La única forma en que la multiplicación de matrices podría ser conmutativa es que la composición de transformaciones lineales es una operación conmutativa.

La composición de las transformaciones lineales es conmutativa cuando uno de los espacios vectoriales es unidimensional, pero no de otra manera. Si [mathb] S: \ mathbf R ^ 2 \ to \ mathbf R ^ 2 [/ math] y [math] T: \ mathbf R ^ 2 \ to \ mathbf R ^ 2, [/ math] no siempre es así el caso de que [math] S \ circ T [/ math] es la misma transformación lineal [math] T \ circ S. [/ math] Entonces, si la multiplicación matricial se va a utilizar para corresponder a la composición de las transformaciones lineales, entonces No puede ser una operación conmutativa.

La implicación de una multiplicación de matriz conmutativa es que es una multiplicación incorrecta.

Suponga que la multiplicación de matrices es conmutativa. Entonces:

[matemáticas] \ begin {pmatrix} 1 & x \\ 0 & 0 \ end {pmatrix} \ begin {pmatrix} 1 & 0 \\ x & 0 \ end {pmatrix} = \ begin {pmatrix} 1 + x ^ 2 & 0 \\ 0 & 0 \ end {pmatrix} [/ math] tendría que ser igual a:

[matemáticas] \ begin {pmatrix} 1 & 0 \\ x & 0 \ end {pmatrix} \ begin {pmatrix} 1 & x \\ 0 & 0 \ end {pmatrix} = \ begin {pmatrix} 1 & x \\ x & x ^ 2 \ end {pmatrix} [/ math]

lo que muestra que [matemáticas] x = 0 [/ matemáticas]. Siempre que esté satisfecho con que cada número sea igual a 0 (que, por cierto, es un anillo completamente válido), la multiplicación de matrices es perfectamente conmutativa. Desafortunadamente, también es aburrido más allá de toda descripción.

Puede responder esto directamente tomando un grupo matricial y reduciéndolo en su subgrupo conmutador. Considere, por ejemplo, el grupo lineal general GL (n). Su subgrupo conmutador es SL (n) para n> 2 (¡ejercicio!). El grupo del cociente es isomorfo al grupo multiplicativo del campo subyacente del grupo matriz, con el isomorfismo dado por el mapa determinante.

En otras palabras, si toma el grupo lineal general sobre un campo como los números reales e introduce relaciones de conmutatividad para todos los pares de matrices, el resultado es un grupo que no es diferente del grupo multiplicativo de números reales distintos de cero.

Como David Joyce ya ha dado una buena respuesta, interpretaré desde un lado diferente “¿Qué pasa si quiero trabajar solo con matrices que viajan diariamente?”

Ahora, si restringimos nuestros propios elementos a matrices diagonalizables, entonces el resultado clave es que un conjunto de matrices diagonalizables se conmutan si y solo si el conjunto se puede diagonalizar simultáneamente, ver Matriz diagonalizable. Esto significa que después de cambiar de base (es decir, como un punto de vista), todos son diagonales.

Todo el tema del álgebra de Lie tendría muy poco que decir. Para las matrices a, b, el conmutador se define [a, b] = a * b – b * a. Si la multiplicación matricial fuera conmutativa, esto siempre sería cero y el álgebra de mentiras sería trivial. Esto pondría a cientos de matemáticos sin trabajo.

Ya existe una operación de matriz que es conmutativa: el producto Hadamard.

Para cualquier A, B, C de R (mxn): A * B = C donde c (ij) = a (ij) b (ij).

Pero más allá de eso, literalmente no tiene sentido definir una multiplicación de matriz conmutativa. La matriz es solo la manifestación de la transformación (o el operador): cuando fija una base para cualquiera de los espacios vectoriales, puede expresar la transformación a través de una matriz. Y la transformación tiene sentido y es válida cuando la multiplicación de matrices se define de la manera en que está, alterarla sería una tontería y la única implicación real sería un error.