¿Cuándo usamos la matriz de transposición y por qué?

Si bien las respuestas que tengo ante mí son técnicamente correctas, no hay mucha respuesta sobre por qué la idea de transposiciones de matrices existe en primer lugar, y por qué las personas se preocuparon lo suficiente como para inventarla.

Esto se debe en parte a que la pregunta original está muy cerca de preguntar “¿Por qué el álgebra lineal existe como sujeto?”, Que es un poco abstracto. El álgebra lineal es el estudio de vectores (una secuencia finita de números) y funciones lineales que actúan sobre esos vectores. Su uso se puede encontrar en casi todos los esfuerzos relacionados con las matemáticas de alguna manera, desde la computación y las estadísticas hasta las ciencias naturales (tenga en cuenta que conectar números a ecuaciones no es matemática ). ¿Por qué es tan frecuente y qué lo hace tan útil?

Recuerde que entre dos vectores [math] \ mathbf {u} [/ math] y [math] \ mathbf {v} [/ math], [math] \ mathbf {u} ^ T \ mathbf {v} [/ math] es igual al producto escalar entre u y v .
[matemática] \ mathbf {u} \ cdot \ mathbf {v} = \ left \ Vert \ mathbf {u} \ right \ Vert \ left \ Vert \ mathbf {v} \ right \ Vert \ cos \ theta [/ math] ,
donde [math] \ theta [/ math] es, por supuesto, el ángulo entre u y v y [math] \ left \ Vert \ mathbf {u} \ right \ Vert [/ math] es la longitud de u , y viceversa. La longitud al cuadrado de un vector (por ejemplo, u ) viene dada por [math] \ mathbf {u} \ cdot \ mathbf {u} [/ math].

Por lo tanto, vemos de inmediato que la transposición de vectores es crítica para proporcionar las propiedades de tamaños y ángulos. De hecho, la razón por la que el álgebra lineal es tan útil es que los vectores son los objetos matemáticos más simples para los que se pueden proporcionar nociones de tamaños y ángulos, y por lo tanto , similitud .

Ahora, ¿cómo se relaciona esto con las matrices? En este punto, es importante considerar qué es una matriz, para lo cual presento dos perspectivas:

  1. Es un montón de vectores (columna) apilados uno al lado del otro, O
  2. Representa una función lineal que actúa sobre un vector (por ejemplo, [math] \ mathbf {y} = \ mathbf {A} \ mathbf {x} [/ math]).

Si usamos la primera perspectiva, supongamos que [math] \ mathbf {A} = \ left [\ begin {array} {cccc} \ mathbf {a} _ {1} & \ mathbf {a} _ {2} & \ cdots & \ mathbf {a} _ {m} \ end {array} \ right] [/ math], [math] \ mathbf {B} = \ left [\ begin {array} {cccc} \ mathbf {b} _ {1} & \ mathbf {b} _ {2} & \ cdots & \ mathbf {b} _ {k} \ end {array} \ right] [/ math] y [math] \ mathbf {P} = \ mathbf {A} ^ {T} \ mathbf {B} [/ math]. Deje que [math] i, j [/ math] -th entrada de [math] \ mathbf {P} [/ math] esté dada por [math] p_ {ij} [/ math]. Entonces no debería ser demasiado difícil ver eso
[matemáticas] p_ {ij} = \ mathbf {a} _i \ cdot \ mathbf {b} _j [/ math],
entonces el producto [math] \ mathbf {A} ^ {T} \ mathbf {B} [/ math] no es más que una tabla de cómo los vectores apilados por [math] \ mathbf {A} [/ math] y [ math] \ mathbf {B} [/ math] se relacionan entre sí a través del tamaño y el ángulo !

Pero intentemos aplicar esto a la segunda perspectiva, estableciendo [math] \ mathbf {P} = \ mathbf {y} [/ math], [math] \ mathbf {M} = \ mathbf {A} ^ T [/ math] y [math] \ mathbf {B} = \ mathbf {x} [/ math]. Dado que [math] \ mathbf {P} [/ math] y [math] \ mathbf {B} [/ math] ahora son solo vectores, podemos ver que cada entrada de [math] \ mathbf {y} = \ left [\ begin {array} {cccc} y_ {1} & y_ {2} & \ cdots & y_ {m} \ end {array} \ right] ^ T [/ math] es solo el producto de punto entre las columnas de [ math] \ mathbf {A} [/ math] y [math] \ mathbf {x} [/ math]. Esto significa que cada función lineal que toma un vector [math] \ mathbf {x} [/ math] como argumento esencialmente solo toma productos de puntos entre una colección de vectores y [math] \ mathbf {x} [/ math] (¡ya que cada función lineal en un vector puede escribirse como un producto matricial)!

Esperemos que estos ejemplos hayan ayudado a ilustrar algunas aplicaciones de la transposición de la matriz para desglosar algunas ideas matemáticas muy importantes a través de las nociones de tamaño y ángulo , y han dado una pista de por qué estas propiedades pueden ser tan increíblemente beneficiosas.

Si tiene una matriz ortonormal (por ejemplo, una matriz de rotación), entonces usa la transposición para obtener la transformación inversa (por ejemplo: la rotación inversa). Esto sucede porque al cambiar las columnas y las filas de una matriz ortonormal está intercambiando el espacio de dominio y el espacio de imagen de la transformación, pero dado que ambas son ortonormales, hay una forma simple de ubicarse entre ellas, que es exactamente la matriz original y la matriz de transposición. Entonces la transformación inversa es la transposición en ese caso y para esos casos [matemática] RR ^ T = I [/ matemática], siendo [matemática] R [/ matemática] ortonormal. Es computacionalmente más barato que encontrar el inverso mediante la reducción gaussiana o cualquier otro método. Es un muy buen uso de la transposición de matrices.

Supongo que estás pidiendo aplicaciones de la vida real

– Procesamiento de imágenes
– Modulación / demodulación de señal
– Sistemas de Información Geográfica
– Programación estadística
– Análisis de redes sociales
– Mantenga ocupados a los estudiantes de álgebra lineal