¿Por qué [math] \ mathrm {det} (e ^ A) = e ^ {{\ rm Tr} \, A} [/ math]?

Dos razones: porque la aplicación exponencial es la mejor de todas y el campo complejo es el mejor de todos.

Le daré dos formas de abordar esto: una prueba “semántica” (es decir, que usa la lengua común) y una prueba calculadora rigurosa que utilizará las nociones de valores propios y diagonalización.

Usted sabe que si [matemática] A [/ matemática] y [matemática] B [/ matemática] conmutan, [matemática] \ operatorname {exp} (A + B) = \ operatorname {exp} (A) \ operatorname {exp} (B). [/ Math] La función exponencial es asombrosa porque transforma sumas en productos . ¿Puedes ver a dónde va esto?

El Determinante, fundamentalmente, es un operador “productivo” (se puede ver como el volumen orientado de la imagen por A de los vectores de base, ver 3Blue1Brown para esto). La traza es un operador “summy”. Parece natural que la función exponencial transformara una en la otra.

Ahora para la prueba rigurosa.

Como [math] M_n (\ mathbb R) \ subset M_n (\ mathbb C) [/ math], tomaré el caso general [math] A \ en M_n (\ mathbb C) [/ math].

Debido a que [math] \ mathbb C [/ math] está cerrado algebraicamente, el polinomio mínimo de A, [math] \ mu_A [/ math], siempre se factorizará por completo. Como consecuencia, A siempre será triangularizable sobre [math] \ mathbb C [/ math]. Escribamos [math] \ {\ lambda_1, \ ldots, \ lambda_n \} = \ operatorname {Sp} _ {\ mathbb C} (A) [/ math] su espectro complejo, y P la matriz de transferencia de la base canónica a La base de los vectores propios.

Lo sabemos

[matemáticas] P ^ {- 1} AP = \ begin {pmatrix} \ lambda_1 & * & \ cdots & * \\ 0 & \ lambda_2 & \ cdots & * \\ \ vdots & \ vdots & \ ddots & \ vdots \ \ 0 & 0 & \ cdots & \ lambda_n \\ \ end {pmatrix} [/ math],

entonces [math] Tr (A) = \ displaystyle \ sum_ {k = 1} ^ n \ lambda_k. [/ math]

También sabemos que exp (A) será similar a [math] \ operatorname {exp} ([/ math] [math] P ^ {- 1} AP) [/ math], y como consecuencia compartirán un común determinante.

Pero (!) También sabemos que [math] T_n ^ + (\ mathbb C) [/ math], el espacio de las matrices triangulares superiores, es estable. Incluso sabemos más que eso:

[math] \ operatorname {exp} (P ^ {- 1} AP) = \ begin {pmatrix} e ^ {\ lambda_1} & * & \ cdots & * \\ 0 & e ^ {\ lambda_2} & \ cdots & * \\ \ vdots & \ vdots & \ ddots & \ vdots \\ 0 & 0 & \ cdots & e ^ {\ lambda_n} \\ \ end {pmatrix} [/ math]

¿Cuál es el determinante de esa matriz triangular? Es simplemente el producto de los coeficientes diagonales. Y dado que la función exponencial (real) transformará el producto en una suma, tenemos el resultado.

[math] \ forall A \ en M_n (\ mathbb C), \ operatorname {det} (e ^ A) = e ^ {Tr (A)} [/ math]

Sea [math] A ‘= S ^ {- 1} AS [/ math], donde A’ es una matriz diagonal y S es la matriz de los vectores propios de A. [math] e ^ {A} = I + A + \ frac {A ^ {2}} {2!} + [/ Matemáticas]…, de modo que [matemáticas] S ^ {- 1} e ^ {A} S = I + A ‘+ \ frac {A’ ^ {2}} {2!} +… [/ Matemáticas] o [matemáticas] e ^ {A} = Se ^ {A ‘} S ^ {- 1} [/ matemáticas]. [matemáticas] det (e ^ {A}) = det (Se ^ {A ‘} S ^ {- 1}) = det (S) det (e ^ {A’}) det (S ^ {- 1}) = det (e ^ {A ‘}), como det (S ^ {- 1}) = (det (S)) ^ {- 1} [/ math]. Pero [math] det (e ^ {A ‘}) = e ^ {\ Sigma \ lambda_ {i}} = e ^ {Tr (A’)} [/ math] donde [math] \ lambda_ {i} [/ matemática] son ​​los valores propios de A. Sin embargo, [matemática] Tr (A ‘) = Tr (S ^ {- 1} AS) = Tr (A) [/ matemática]. Entonces, [matemáticas] det (e ^ {A}) = e ^ {Tr (A)} [/ matemáticas].

Arreglemos [math] n [/ math] y consideremos el conjunto de todas las matrices complejas [math] n \ times n [/ math] (en particular, esto incluye el caso de matrices reales).

Nos especializamos primero en el caso donde [math] A [/ math] es una matriz diagonal, digamos [math] A = {\ rm diag} (a_1, \ ldots, a_n) [/ math]. Entonces [math] e ^ A = {\ rm diag} (e ^ {a_1}, \ ldots, e ^ {a_n}) [/ math]. Además, [matemática] \ det e ^ A = e ^ {a_1} \ cdot \ ldots \ cdot e ^ {a_n} = e ^ {{\ rm tr} \, A} [/ math] como se desee.

Supongamos ahora que [math] A [/ math] es diagnosticable, es decir [math] D = UAU ^ {- 1} [/ math] es diagonal para algunos [math] U [/ math]. Entonces [math] A [/ math] y [math] D [/ math] tienen el mismo rastro. Sin embargo, [matemática] A = U ^ {- 1} DU [/ matemática] y así [matemática] e ^ A = U ^ {- 1} e ^ DU [/ matemática]. Según el teorema de Cauchy, [matemáticas] \ det e ^ A = \ det U ^ {- 1} e ^ DU = \ det e ^ D = e ^ {{\ rm tr} \, D} = e ^ {{\ rm tr} \, A} [/ math].

Ahora, como estamos trabajando con escalares complejos, el conjunto de matrices diagnosticables es denso en el conjunto de todas las matrices. La función [matemáticas] f (A) = \ det e ^ A – e ^ {{\ rm tr} \, A} [/ matemáticas] es continua y desaparece en el conjunto denso de todas las matrices diagnosticables. Por continuidad, [matemática] f (A) = 0 [/ matemática] para cada matriz [matemática] A [/ matemática].

Aquí hay una pista para comenzar. Suponga que [math] v [/ math] es un vector propio derecho de [math] A [/ math] con el valor propio correspondiente [math] \ lambda [/ math]. ¿Qué es [matemáticas] e ^ A v [/ matemáticas]? Utilice la definición de serie de potencia de [matemáticas] e ^ A [/ matemáticas] para obtener esto.