¿Por qué las matrices ortogonales representan rotaciones?

Las matrices ortogonales representan rotaciones (más precisamente rotaciones, reflexiones y composiciones de las mismas) porque, como una forma de hablar, la clase de matrices ortogonales se definió de tal manera que representarían rotaciones y reflexiones; Esta propiedad es lo que hace que esta clase de matrices sea tan útil en primer lugar.

Es decir, para dar una respuesta significativa a esta pregunta, necesitamos una definición alternativa de “ortogonal”:

  1. [math] \ {e_1, \ ldots, e_n \} [/ math] forma una base ortonormal de [math] \ mathbb {R} ^ n [/ math]. Si definimos una matriz ortogonal como una matriz cuyas columnas forman una base ortonormal de [math] \ mathbb {R} ^ n [/ math], entonces, dado que las columnas de una matriz son las imágenes de los vectores de base estándar, Observe que una matriz ortogonal toma una base ortonormal sobre otra , que es precisamente lo que hacen las rotaciones y los reflejos.
  2. Supongamos que definimos una matriz [matemática] A [/ matemática] para ser ortogonal iff [matemática] A ^ {- 1} = A ^ T [/ matemática]. Tal matriz preservará el producto de puntos como se explica en la respuesta del Usuario a ¿Por qué las matrices ortogonales representan rotaciones? Así, vemos que las matrices ortogonales representan movimientos rígidos —movimientos que preservan longitudes y ángulos— que, nuevamente, son precisamente rotaciones y reflejos.

Comencemos por observar esas matrices en dos dimensiones:

Echa un vistazo a la matriz de rotación
Es obvio que su inverso se encuentra dejando que [math] \ theta \ rightarrow – \ theta [/ math] dado que gira positivamente y luego negativamente el mismo ángulo nos lleva de vuelta a donde comenzamos. Pero como [math] \ cos (- \ theta) = \ cos (\ theta) [/ math] y [math] \ sin (- \ theta) = – \ sin (\ theta) [/ math] vemos que para matrices de rotación [matemáticas] R ^ {- 1} = R ^ {T} [/ matemáticas]. Así, las matrices de rotación son siempre ortogonales.

Ahora esa no era tu pregunta. Usted preguntó por qué las matrices ortogonales representan rotaciones. Las columnas (y filas) de una matriz ortogonal son vectores unitarios que son ortogonales entre sí. Como son vectores unitarios, sabemos que podemos escribir la primera columna como [math] v_1 = [\ cos \ theta, \ sin \ theta] ^ {T} [/ math]. Los únicos vectores ortogonales a [math] v_1 [/ math] son ​​[math] v_2 = \ pm [- \ sin \ theta, \ cos \ theta] ^ {T} [/ math]. La solución positiva es una matriz de rotación, pero la solución negativa es una rotación y una reflexión. Su respuesta en la pregunta no es 100% correcta. Las matrices ortogonales representan rotaciones y reflexiones. Restringir las matrices ortogonales para que tengan el determinante 1 produce las matrices de rotación.

En términos más generales: para que una matriz represente una rotación, debe tener el determinante 1, porque de lo contrario también sería una escala o reflexión. Las únicas matrices que tienen determinante 1 son las matrices ortogonales (especiales).

El álgebra lineal puede considerarse como una forma alternativa de expresar conjuntos de ecuaciones.

una matriz representa tus puntos.
el otro es una serie de cos y pecado de un ángulo dado
cuando lo expandes, terminas con las ecuaciones

x1n = x1 * cos A – y1 * sen A
y1n = x1 * sen A + y1 * cos A

Cuáles son las ecuaciones para determinar la ubicación de un punto después de una rotación.
para cada par x, y en su matriz original, esta ecuación se aplica y coloca los nuevos resultados en su lugar en la matriz resultante

Entonces, esta es la razón por la cual la matriz [Cos A -SinA, Sin A Cos A] es una rotación.
El inverso de la matriz de rotación estaría girando en la dirección opuesta, entonces [Cos -A -Sin-A, Sin -A Cos -A]. Como Cos A = Cos -A y Sin -A = -Sin A, que se simplifica a [Cos A Sin A, -Sin A Cos A], la transposición de nuestro vector original, por lo que las matrices de rotación son ortogonales.

Sin embargo, no todas las matrices ortogonales son rotaciones, por lo que su premisa se indica incorrectamente.

También representan reflexiones.

Tanto los reflejos como las rotaciones no cambian la norma o el tamaño de un vector. Esta propiedad de invariancia de tamaño es lo que codifica la ortogonalidad. Use la definición interna del producto de la norma para ver esto directamente.

Permítanme comenzar diciendo que la pregunta es errónea, por dos razones diferentes.

  1. Las reflexiones también están representadas por matrices ortogonales.
  2. En dimensiones superiores, es útil hacer una distinción entre “rotaciones” y “movimientos rígidos”.

El primer problema se puede prescindir fácilmente: solo debemos mirar las matrices ortogonales del determinante 1, las “matrices ortogonales especiales”. Este grupo de matrices se denota típicamente por [math] SO (n) [/ math].

El segundo problema es de alguna manera más fundamental. ¿Qué queremos decir con rotación?


Rotaciones En dos dimensiones, espero que todos podamos acordar qué es una rotación. Está dada por una matriz de rotación [matemática] R (\ theta) [/ matemática], que gira el plano alrededor del origen en algún ángulo [matemática] \ theta [/ matemática].

En tres dimensiones, una rotación es algo que fija un eje y gira alrededor de ese eje.

Teorema 1. Si [math] M [/ math] es una matriz ortogonal real [math] 3 \ times 3 [/ math] con determinante 1, entonces hay una base ortonormal de [math] \ mathbb {R} ^ 3 [ / math] tal que [math] M [/ math] toma la forma

[matemáticas] \ begin {pmatrix} 1 & 0 \\\\ 0 & R (\ theta) \ end {pmatrix} [/ math]

Por lo tanto, en la dimensión 3, las rotaciones y las matrices ortogonales especiales son lo mismo.

(Discutiré la prueba del teorema al final de la respuesta).

¡En dimensiones superiores, ningún teorema análogo es verdadero! Por ejemplo, aquí hay una matriz ortogonal especial [matemática] 4 \ veces 4 [/ matemática]:

[matemáticas] \ begin {pmatrix} R (\ theta) & 0 \\\\ 0 & R (\ psi) \ end {pmatrix} [/ math]

Para las elecciones apropiadas de [math] \ theta, \ psi [/ math], esta matriz no tiene valores propios reales. No está “girando” alrededor de ningún vector fijo. Los dos primeros componentes de un vector y los dos últimos componentes de un vector giran simultáneamente de manera independiente. La matriz es una composición de dos rotaciones, cada una fijando un subespacio bidimensional, pero tal vez no deberíamos llamar a la matriz en sí misma una rotación.


Movimientos rígidos. Si la matriz [matemática] 4 \ veces 4 [/ matemática] anterior no es algo con lo que nos sentimos cómodos llamando una rotación basada en nuestra experiencia en el espacio tridimensional, entonces, ¿qué es?

Dado que 3 espacios es fácil de visualizar, imagine que comenzamos con la base ortonormal estándar de [math] \ mathbb {R} ^ 3 [/ math]. Siéntase libre de sacar los dedos como un idiota: eso es lo que estoy haciendo ahora.

Un movimiento rígido es el resultado final de lo que sucede cuando mantiene los dedos fijos (rígidos) y mueve la muñeca como lo desee (movimiento).

Una matriz ortogonal especial [matemática] n \ veces n [/ matemática] [matemática] M \ en SO (n) [/ matemática] tiene columnas que son una base ortonormal, “orientada positivamente” para [matemática] \ mathbb {R } ^ n [/ matemáticas]. El hecho “orientado positivamente” significa esencialmente que una versión de mayor dimensión de la regla de la derecha contiene: dados los vectores básicos [matemáticos] n-1 [/ matemáticos], hay un subespacio unidimensional ortogonal a su envergadura, y se prefiere una de las dos direcciones posibles para el vector [math] n [/ math] th. (Es solo la dirección que hará que la matriz resultante de los vectores de columna tenga el determinante 1).

Imagine que la posición inicial de nuestra mano es la base estándar de [math] \ mathbb {R} ^ 3 [/ math] (o [math] \ mathbb {R} ^ n [/ math] si su mano parece mucho más interesante que mía.) Esto corresponde a la matriz de identidad

[matemáticas] I \ en SO (n) [/ matemáticas].

Ahora empiezo a mover la muñeca a medida que varía el tiempo y a medida que cambia mi base ortonormal, obtengo un camino

[matemáticas] f (t): [0,1] \ a SO (n) [/ matemáticas]

tal que [matemáticas] f (0) = I [/ matemáticas]. Tenga en cuenta que dado que estoy moviendo mi mano continuamente, la “regla de la mano derecha” sigue siendo válida para mis nuevas bases del espacio euclidiano. Entonces, la base donde termino al final de dejar caer mi mano es la colección de vectores de columna de la matriz [matemática] A = f (1) [/ matemática].

Por definición, entonces, un movimiento rígido es solo la transformación lineal correspondiente a alguna de esas matrices [matemáticas] A [/ matemáticas]. Toma la base estándar del espacio euclidiano a la base dada por los vectores de columna.

Observe que una composición de dos rotaciones es un movimiento rígido. En términos más generales, una composición de dos movimientos rígidos es un movimiento rígido, ya que primero podemos mover nuestra mano con un movimiento rígido, luego imaginar el resultado como una nueva base estándar del espacio euclidiano y movernos de acuerdo con el segundo movimiento rígido.

Por último, aquí hay una versión precisa de la declaración en la pregunta, válida en todas las dimensiones.

Teorema 2. Una matriz [matemática] n \ veces n [/ matemática] [matemática] A [/ matemática] representa un movimiento rígido si y solo si es ortogonal especial.

Lo único necesario para demostrar esto es el hecho de que el espacio [matemático] SO (n) [/ matemático] de matrices ortogonales especiales está conectado : dada cualquier base orientada positivamente del espacio euclidiano con la matriz correspondiente [matemática] A [/ matemática ], es posible encontrar un camino

[matemáticas] f (t): [0,1] \ a SO (n) [/ matemáticas]

con [matemáticas] f (0) = I [/ matemáticas] y [matemáticas] f (1) = A [/ matemáticas]. Este hecho es estándar, pero está un poco más allá de una respuesta de Quora, por lo que te dejaré que lo busques.


Apéndice: bosquejo del teorema 1. La idea clave para probar este teorema es encontrar un vector propio con un valor propio de 1, que abarcará el “eje de rotación”. Esta parte de la prueba es algo interesante, así que déjame pasar por el argumento:

La matriz [matemática] M [/ matemática] tiene 3 valores propios con multiplicidad sobre los números complejos. Son las raíces del polinomio característico [matemático] p_M (x) [/ matemático], que es de grado 3 y tiene coeficientes reales. Como [math] M [/ math] es ortogonal, conserva la longitud de los vectores, y esto significa que los valores propios deben estar en el círculo unitario en el plano complejo. Al menos uno de los valores propios [math] \ lambda [/ math] debe ser real ya que cualquier polinomio cúbico tiene una raíz real según el Teorema del valor intermedio. Las otras dos raíces son conjuntas reales o complejas entre sí desde el polinomio cuadrático

[matemáticas] p_M (x) / (x- \ lambda) [/ matemáticas]

tiene coeficientes reales Si [math] z [/ math] se encuentra en el círculo de la unidad, entonces [math] z \ cdot \ overline {z} = 1 [/ math]. Finalmente, dado que [math] M [/ math] tiene el determinante 1, el producto de sus valores propios (que es igual al determinante) debe ser 1. Si [math] M [/ math] tiene un valor propio no real [math] z [/ math ], entonces concluimos

[matemáticas] \ lambda \ cdot z \ cdot \ overline {z} = 1 [/ matemáticas]

y entonces [math] \ lambda = 1 [/ math]. Por otro lado, si todos los valores propios de [matemática] M [/ matemática] son ​​reales, entonces los tres valores propios deben ser [matemática] 1,1,1 [/ matemática] o [matemática] 1, -1, – 1 [/ matemáticas]; De cualquier manera hemos terminado.

Lo siguiente da una explicación * física * de por qué una rotación está representada por una matriz ortogonal. En lugar de reescribir, parafrasear, etc., aquí está la referencia:

Matriz de rotación – de Wolfram MathWorld

More Interesting

¿Cómo le explicaría a un laico la diferencia entre un ‘cálculo’ y un ‘álgebra’?

¿Qué significa [matemáticas] \ {0,1 \} ^ m [/ matemáticas]?

Lo que está mal, matemáticamente, en la siguiente declaración: si [matemática] x = 1 [/ matemática] entonces [matemática] x = x ^ 0 [/ matemática] que hace que [matemática] x ^ 1 = x ^ 0 [/ matemática ] y así [matemáticas] 1 = 0 [/ matemáticas]?

¿Existe una forma algebraica para describir el dominio y el rango de la región de solución de un sistema de desigualdades lineales?

Cómo resolver este conjunto de ecuaciones diferenciales: [matemática] \ frac {dx} {dt} = 5x + y, \ frac {dy} {dt} = y – 4x [/ matemática]

Cómo resolver [matemáticas] y (x + y + 1) dx + x (x + 3y + 2) dy = 0

Dada una matriz cuadrada [matemática] M [/ matemática], ¿qué significa la cantidad: [matemática] \ sum_ {i <j} (M_ {ii} M_ {jj} -M_ {ij} M_ {ji}) [/ matemática ] representar? ¿Hay algún nombre para ello en la literatura, como 'determinante', etc.? ¿Hay alguna manera perspicaz, puede reescribirse como?

¿Cuál es la mejor manera de aprender matemáticas para que pueda implementar el conocimiento de materias matemáticas como cálculo, álgebra, teoría de números, etc. en otros campos como la informática y la física?

¿Cuál es el significado de los cambios de signos en un polinomio cuadrático?

Cómo pasar de [matemáticas] 5x ^ 2-8xy + 3y ^ 2 [/ matemáticas] a [matemáticas] (xy) (5x-3y) [/ matemáticas]