¿Por qué transponemos matrices?

¿Por qué incluso utilizamos matrices en primer lugar? Hay muchas razones, pero principalmente porque se usan para representar transformaciones lineales (como rotación, escala, etc.). Tomar la transposición de una matriz que representa una transformación lineal puede revelar algunas propiedades de la transformación.

Por ejemplo, si [math] A [/ math] es una matriz y [math] A ^ T [/ math] es su transposición, entonces si [math] A ^ T = A [/ math] decimos que la matriz es simétrica y por lo tanto corresponde a una transformación simétrica. Esto significa que si [math] A [/ math] es una transformación (o más exactamente en este caso, un operador bilineal) que actúa sobre dos vectores [math] x [/ math] y [math] y [/ math], podemos reemplazar estos dos vectores entre sí y el resultado será el mismo. Más exactamente, tenemos:
[matemáticas] A (x, y) = x ^ TA y = (y ^ TA ^ T x) ^ T [/ matemáticas]
pero [matemáticas] (y ^ TA ^ T x) ^ T = y ^ TA ^ T x [/ matemáticas] ya que esto es solo un número y, por lo tanto, es trivialmente igual a su transposición, por lo que obtenemos
[matemáticas] A (x, y) = y ^ TA ^ T x = y ^ TA x = A (y, x) [/ matemáticas]
o en otras palabras, [matemáticas] A (x, y) = A (y, x) [/ matemáticas].

Por supuesto, a veces tomamos la transposición de una matriz simplemente porque es útil para ciertos cálculos …

Uno de los mejores ejemplos que ilustra la importancia de la transposición de la matriz son las rotaciones 3D. Considere dos vectores [math] \ vec a = (a_1, a_2, a_3) [/ math] y [math] \ vec b = (b_1, b_2, b_3) [/ math]. Si [math] R_ {i, j} [/ math] es una matriz de rotación 3 × 3, entonces [math] a_i ^ {\ prime} = R_ {i, j} a_j [/ math] y [math] b_i ^ {\ prime} = R_ {i, j} b_j [/ math] son ​​los nuevos vectores después de la rotación. De aquí en adelante, suponga que los índices repetidos se suman sobre los componentes 1, 2 y 3. Debido a que la rotación preserva el ángulo entre los dos vectores, tenemos que [matemáticas] {\ vec a} \ cdot {\ vec b} = {\ vec a} ^ {\ prime} \ cdot {\ vec b} ^ {\ prime} [/ math]. O en coordenadas cartesianas, tenemos

[matemáticas] a_i b_i = a_i ^ {\ prime} b_i ^ {\ prime} = (R_ {i, j} a_j) (R_ {i, k} b_k) = a_j R ^ {T} _ {j, i} R_ {i, k} b_k = a_j (R ^ {T} R) _ {j, k} b_k. [/ Math]

Aquí, definimos la matriz de transposición [matemática] R ^ {T} _ {j, i} = R_ {i, j} [/ matemática]. Como lo anterior es cierto para cualquier par de vectores [matemática] \ vec a [/ matemática] y [matemática] \ vec b [/ matemática], la invariancia del ángulo bajo la rotación [matemática] R [/ matemática] implica la condición

[matemáticas] I = R ^ {T} R [/ matemáticas]

en la matriz de rotación. Esto más la condición de que el determinante sea unidad define todas las rotaciones posibles en 3D. Van por el nombre del grupo continuo (Lie) SO (3).

El punto técnico clave es que una suma interna [matemática] A_ {i, j} B_ {k, j} [/ matemática] sobre el índice [matemática] j [/ matemática] puede escribirse más naturalmente como el producto matriz [matemática ] A_ {i, j} B ^ {T} _ {j, k} = (AB ^ {T}) _ {i, k} [/ math]. La transposición de la matriz es una “absoluta trivialidad” desde este punto de vista.

Los valores singulares y los mecanismos pseudo inversos crean una secuencia de aproximaciones a una matriz dada A. La primera aproximación es de rango 1: un vector de columna multiplicado por su transposición (en ese orden) multiplicado por el primer valor singular, es el más cercano a A en Una norma apropiada. La próxima aproximación agrega otra matriz de rango 1 para “explicar” A de la misma manera posible con una matriz bidimensional (y dos valores singulares). Enjabonar, enjuagar y repetir.

Son posibles aplicaciones estadísticas sorprendentes, pero la configuración y las explicaciones se vuelven demasiado elaboradas para este lugar.

Aquí hay un ejemplo práctico de programación. Si necesita multiplicar dos matrices A y B, tendrá que atravesar una de ellas de una manera muy lenta en un idioma en particular. Ya sea mayor de fila o mayor de columna. Si transpone una de ellas, puede atravesar ambas matrices de la manera más rápida, de la manera que mejor utiliza la memoria caché.

Escriba las entradas de fila en columnas y las entradas de columna en filas.

Si una matriz arbitraria [matemática] A [/ matemática] es de orden [matemática] m \ veces n [/ matemática], entonces [matemática] A ^ T [/ matemática] tiene el orden [matemática] n \ veces m [/ matemáticas]

Hay algunas buenas respuestas en cuanto a POR QUÉ transponemos las matrices, el ejemplo más fácil para mí a partir de este momento es sobre las matrices simétricas.

Si [matemática] A = A ^ T [/ matemática] entonces [matemática] A [/ matemática] es simétrica, lo que fácilmente nos dice que solo es posible cuando [matemática] A [/ matemática] es una matriz cuadrada. La matriz de identidad [matemáticas] I [/ matemáticas] es una matriz simétrica.

Buena pregunta. Algún día, esta pregunta puede incluirse junto con por qué necesitamos reglas de cálculo. Un número telescópico universal z = x, y no requeriría transposición. Es decir, un número bidimensional x, y se representa o “comprime” en un solo número “z” telescópico con una correspondencia uno a uno de x, y a z y z se puede “descomprimir” de nuevo al xy original par. Piense en eso, este número telescópico realmente existe.
Sabrás más al respecto cuando tenga tiempo de terminar el libro.